Die zunehmende Integration von generativer KI in geschäftliche und private Anwendungen bringt neue Risiken mit sich. Ein Phänomen, das besondere Aufmerksamkeit erfordert, sind laut TÜVIT einem Unternehmen der TÜV NORD GROUP, die sogenannten KI-Halluzinationen.
Hierbei generieren KI-Systeme irreführende oder falsche Informationen, die zwar plausibel erscheinen, jedoch nicht der Realität entsprechen. Dies kann eine Vielzahl von Anwendungen beeinflussen, von automatisierten Kundendienstsystemen bis hin zu komplexen Entscheidungsprozessen in der Industrie.
Thora Markert, Leiterin des Bereichs KI-Forschung und -Governance bei TÜVIT, erklärt: „Große Sprachmodelle, wie sie häufig verwendet werden, neigen dazu, mit großer Selbstsicherheit neue, jedoch falsche Informationen zu erzeugen.“ Die Folgen solcher Fehlinformationen könnten gravierend sein und zu finanziellen, operationellen und reputativen Schäden führen. Es sei daher essenziell, dass Nutzer:innen von KI-Technologien sich dieser Risiken bewusst sind und entsprechende Vorsichtsmaßnahmen ergreifen. „Regelmäßige Überprüfungen der Genauigkeit und Zuverlässigkeit von KI-gestützten Systemen sind unerlässlich, um das Risiko von Fehlinformationen zu minimieren“, betont Markert. Zudem sei ein kritischer Umgang mit KI-generierten Informationen und deren Überprüfung durch unabhängige Quellen empfehlenswert.
Vasilios Danos, Leiter des Bereichs „KI-Sicherheit“ bei TÜVIT, fügt hinzu: „Large-Language-Models (LLMs) sind zwar mächtige Werkzeuge, sie bringen jedoch auch spezifische Herausforderungen mit sich, wie das Phänomen der KI-Halluzination. Durch umfassende Tests unterstützen wir KI-Entwickler dabei, Risiken zu identifizieren und zu minimieren und das Vertrauen in die Technologie zu stärken.“ Danos betont, dass durch das Bewusstwerden der potenziellen Risiken von KI-Halluzinationen das Vertrauen in KI-Technologien gestärkt und sichergestellt werden könnte, dass ihre Vorteile verantwortungsvoll genutzt werden.
(vp/TÜV NORD GROUP)