Suche
Large Language Models, LLMs, KI-Sprachmodelle, KI

MIT will toxische Aussagen von KI-Sprachmodellen verhindern

Forscher des Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) darauf trainiert, sich möglichst viele toxische Fragen auszudenken, damit sogenannte Großen Sprachmodelle (LLMs) wie ChatGPT, Claude 3 Opus und Co in jedem Fall von Gefahr verbreitenden Antworten abgehalten werden.
Veranstaltungstipp: Potsdamer Konferenz für Nationale CyberSicherheit 2024

HPI: Im Superwahljahr Desinformation erkennen und bekämpfen

Neues zur deutschen Cybersicherheitslage: Am 19./20. Juni 2024 treffen sich am Hasso-Plattner-Institut hochrangige Vertreter:innen deutscher und internationaler Sicherheitsbehörden sowie Expert:innen aus Politik, Wirtschaft und Wissenschaft. Ziel der Konferenz ist der Austausch über aktuelle und zukünftige Herausforderungen gegen Cyberangriffe.
Anzeige
Anzeige