Fakten statt Fiktion

Was tun gegen KI-Halluzinationen und -Bias?

KI, Künstliche Intelligenz, Apps

Generative KI revolutioniert die Art und Weise, wie Unternehmen arbeiten. Sie erleichtert den Zugang zu internem Wissen, unterstützt die Erstellung von Dokumenten und optimiert den Kundenservice. Doch trotz ihrer Fähigkeit, große Datenmengen zu verarbeiten und scheinbar intelligente Antworten zu liefern, ist sie nicht unfehlbar.

Fehlerhafte Informationen, sogenannte Halluzinationen, und voreingenommene Ergebnisse (Bias) können die Glaubwürdigkeit und Fairness der KI-Ausgaben beeinträchtigen. Dell Technologies zeigt auf, wie Unternehmen diesen Herausforderungen begegnen können.

Anzeige

Das richtige Modell für den Anwendungsfall wählen

Nicht jedes KI-Modell ist für jede Aufgabe geeignet. Large Language Models (LLMs) verfügen zwar über ein breit gefächertes Wissen, sind aber auch anfällig für Halluzinationen, da sie versuchen, immer eine plausible Antwort zu generieren. Kleinere, spezialisierte Modelle sind in ihrem Fachbereich oft präziser und verlässlicher. Zudem sind europäische oder Open-Source-Modelle transparent in Bezug auf ihre Trainingsdaten und Algorithmen, was die Identifikation von Fehlerquellen erleichtert.

Interne Unternehmensdaten in die KI einbinden

Um die Qualität der KI-Ausgaben zu verbessern, sollten Unternehmen ihre internen Daten einbeziehen. Dies kann durch Fine-Tuning geschehen, das die KI auf spezifische Anwendungsfälle ausrichtet. Alternativ oder ergänzend kann Retrieval-Augmented Generation (RAG) genutzt werden: Hierbei greift die KI auf externe Datenbanken zu, anstatt nur auf ihr trainiertes Wissen zurückzugreifen. Die Kombination beider Methoden kann die Genauigkeit und Aktualität der Ergebnisse erhöhen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Datenqualität sicherstellen

Schlechte oder veraltete Daten führen zu fehlerhaften und potenziell diskriminierenden KI-Ergebnissen. Unternehmen sollten daher ihre Datenquellen sorgfältig prüfen und veraltete oder redundante Informationen vermeiden. Moderne Datenmanagement-Systeme helfen, strukturierte Daten effizient zu verwalten und für verschiedene KI-Modelle nutzbar zu machen.

Anzeige

KI-Antworten mit Quellen belegen

Eine transparente KI sollte ihre Informationen mit Quellen belegen können. Wenn die KI über RAG arbeitet, können Unternehmen die Quellen in den Antworten sichtbar machen. So können Mitarbeiter die Informationen leichter verifizieren. Schulungen helfen dabei, kritisches Denken im Umgang mit KI-Ergebnissen zu fördern und eine verantwortungsbewusste Nutzung zu gewährleisten.

Schutzmechanismen implementieren

Damit KI-Modelle nicht durch manipulative Eingaben ausgenutzt werden, sind sogenannte Guardrails erforderlich. Diese Mechanismen filtern unangemessene Anfragen, verhindern die Generierung schadhafter Inhalte und sichern personenbezogene Daten. Unternehmen sollten zudem Prüfsysteme etablieren, um sicherzustellen, dass keine ungewünschten oder gefährlichen Ergebnisse produziert werden.

Manipulation der Trainingsdaten verhindern

Wenn Trainingsdaten gezielt verändert werden, kann dies zu gravierenden Fehlentwicklungen in den KI-Ergebnissen führen. Sicherheitsmaßnahmen wie Multifaktor-Authentifizierung, Zero-Trust-Konzepte und fortschrittliche Monitoring-Tools helfen, unerlaubte Zugriffe zu verhindern und Anomalien frühzeitig zu erkennen. Ein strenges Berechtigungsmanagement sorgt dafür, dass nur befugte Personen auf die Trainingsdaten zugreifen können.

Risikobewertung durchführen

Selbst mit optimierten Sicherheitsvorkehrungen bleibt ein Restrisiko bestehen. Besonders in sicherheitskritischen Bereichen oder sensiblen Anwendungsfällen sollte eine detaillierte Risikobewertung erfolgen. Unternehmen müssen festlegen, wo KI autonom agieren darf und wo menschliche Kontrolle notwendig ist. Gerade dort, wo es um sicherheitsrelevante Entscheidungen geht, ist eine finale Prüfung durch Fachkräfte unerlässlich.

Jan Koch, AI Business Development Manager DACH bei Dell Technologies, fasst zusammen: „Mit den richtigen Maßnahmen können Unternehmen fehlerhafte und unerwünschte KI-Ausgaben verhindern. Ihre KI-Anwendungen liefern dann sehr genaue und ausgewogene Ergebnisse. Zu einem verantwortungsvollen KI-Einsatz zählt aber auch, den Ausgaben nicht blind zu vertrauen und vor allem in sicherheits- und geschäftskritischen Bereichen einen Menschen hinzuzuziehen. Er kann neben seiner Erfahrung und seinem Fachwissen auch gesunden Menschenverstand einbringen, um die KI-Inhalte zu bewerten und bei Bedarf zu korrigieren.“

Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Pauline Dornig verstärkt seit Mai 2020 das Team des IT Verlags als Online-Redakteurin. (pd)
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.