Generative KI wirkt manchmal übermotiviert. Ein ausgegebener Text mag zwar auf den ersten Blick schlüssig klingen, bei genauerem Hinschauen aber wird bisweilen klar, dass hier ins Blaue hinein formuliert wurde, nur um überhaupt etwas abzuliefern. CGI erklärt die wichtigsten Therapien gegen diese KI-Halluzinationen.
Generative KI (GenAI) liefert immer Antworten – und fast immer klingen sie sinnvoll. Aber oft genug sind sie es gar nicht und entpuppen sich bei näherem Hinsehen als frei erfundene, sogenannte KI-Halluzinationen. Häufigste Ursache dafür sind die Daten, mit denen die Large Language Models (LLMs) für GenAI-Applikationen trainiert werden. Sind sie falsch, veraltet, unverständlich oder unvollständig (Garbage In), kommen auch entsprechend fehlerhafte Sprachmodelle dabei heraus (Garbage Out).
Die in solchen Fällen angebrachte Antwort „Tut mir leid, darauf kann ich keine vernünftige Antwort geben“, ist im System jedoch nicht vorgesehen. Und so wird mangels brauchbarer Informationen eben halluziniert. Die Verbesserung der Datenqualität steht also bei der Optimierung von LLMs auf der Agenda ganz oben. Die kann jedoch kosten- und zeitaufwändig werden. Beides aber spielt bei der LLM-Entwicklung eine zentrale Rolle, denn die Entwicklung von GenAI-Anwendungen ist ebenso teuer wie zeitkritisch. Deshalb ist es wichtig, ergänzende Ansätze zur Optimierung von Sprachmodellen einzusetzen. CGI erklärt die wichtigsten Optionen:
Der Aufbau von RAG-Pipelines
RAG steht für „Retrieval Augmented Generation“ und ist ein kostengünstiger Ansatz für die Nutzung zusätzlicher Daten in einem LLM. Das Sprachmodell wird dabei gezielt mit weiteren spezifischen Informationen gefüttert, ohne es damit zu trainieren und zu verändern. Es erhält stattdessen einfach Zugriff auf weitere Datenquellen, wie etwa themenspezifische Datenbanken, Data Warehouses oder Dokumenten-Pools, aus denen es sich bedienen kann. Das erweitert die Wissensbasis und steigert die Qualität der Antworten. So wird es möglich, ein LLM gezielt für bestimmte Anwendungen, Segmente oder Branchen ohne zusätzlichen Trainingsaufwand zu optimieren.
Das Human-in-the-Loop-Prinzip
Mit „Human in the Loop“ (HITL) wird die Interaktion zwischen Menschen und Künstlicher Intelligenz bezeichnet, die zu einer Verbesserung der Sprachmodelle führen soll. Dieser Prozess, der auch als Reinforcement Learning bekannt ist, beschreibt eine spezifische Form der Arbeitsteilung zwischen Mensch und Maschine. In kontinuierlichen Feedback-Schleifen wird die KI ständig angeleitet und trainiert, eindeutige Entscheidungen zu fällen. Praktische Studien haben exemplarisch gezeigt, dass diese Form von Team-Work deutlich erfolgreicher sein kann als reine Mensch-Mensch- oder Maschine-Maschine-Konstellationen.
Die Nutzung von Knowledge-Graphen:
Mit der Graphentechnologie ist es möglich, heterogene Daten aus unterschiedlichen Quellen zusammenzuführen und ganzheitlich zu visualisieren. Ein Knowledge Graph verknüpft verschiedene Daten wie Personen, Orte und Konzepte sowie ihre Beziehungen zueinander und organisiert Wissen strukturiert und semantisch. Im Ergebnis entsteht ein umfassendes, kontextbezogenes Modell eines Wissensbereichs, das zudem leicht abfragbar ist. In einem Produktionsprozess beispielsweise können damit Montagelinien oder Lieferketten modelliert werden.
Die Auswahl des richtige Sprachmodells
Großes Optimierungspotenzial liegt auch in der Entscheidung für den Einsatz eines bestimmten Sprachmodells. Jedes LLM hat seine eigenen Stärken und Schwächen – und seinen Preis. GPT 3.5 etwa ist weitaus günstiger als GPT 4. Ein weiterer wichtiger Punkt ist die Verfügbarkeit. Viele LLMs werden lediglich auf bestimmten Cloud-Plattformen bereitgestellt; OpenAI beispielsweise nur auf Azure. Für eine Reihe von Sprachmodellen werden zudem branchenspezifisch optimierte Varianten verfügbar sein (etwa Telco LLM). Letztlich gilt es, die Modelle mit den Anforderungen des jeweiligen Einsatzszenarios abzugleichen. Dabei kann sich dann herausstellen, dass ein günstiger Allrounder für den geplanten Zweck völlig ausreicht.
„Mit den richtigen Werkzeugen können GenAI-Applikationen schnell, kostengünstig und ohne zusätzlichen Trainingsaufwand für die Sprachmodelle optimiert werden“, erklärt Niklas Bläsing, Practice Head Data, Automation & AI bei CGI in Deutschland. „So können wir den Anteil an Fake-Informationen sukzessive immer weiter reduzieren. Es muss uns dabei aber auch klar sein, dass es selbst bei bestem Finetuning keine Garantie für völlige Fehlerfreiheit geben kann.“
www.cgi.com/de