Microsoft hat eine Funktion namens „Correction“ vorgestellt. Diese Neuerung, die Teil des Azure AI Studios ist, verspricht nicht nur Fehler in KI-generierten Inhalten zu erkennen, sondern diese auch automatisch zu korrigieren.
Wer kennt sie nicht, die kuriosen Ausrutscher von ChatGPT und Co.? Mal wird der Bundeskanzler zum Präsidenten befördert, mal existieren plötzlich Städte, die es gar nicht gibt. Microsoft will diesen KI-Halluzinationen nun den Garaus machen – mit einem Tool, das nicht nur Fehler findet, sondern gleich selbst zur Korrektur ansetzt.
„Correction“ heißt der neue Hoffnungsträger im Azure AI Studio, Microsofts Werkzeugkasten für KI-Entwickler. Die Idee klingt erst einmal einfach: Bevor der Nutzer überhaupt in den Genuss kommt, sich über hanebüchene KI-Einfälle zu wundern, soll die Funktion Texte auf Herz und Nieren prüfen, Unstimmigkeiten aufspüren und kurzerhand umschreiben. Unternehmen, die ihre KI-Anwendungen mit Microsoft Azure betreiben, sollen diese nutzen können.
So funktioniert es:
- Das System scannt KI-Ausgaben auf Ungenauigkeiten.
- Es vergleicht den Inhalt mit dem Quellmaterial des Kunden.
- Fehler werden markiert und erläutert.
- Der fehlerhafte Inhalt wird umgeschrieben.
Doch ist das wirklich der heilige Gral der KI-Genauigkeit? Ganz so einfach ist es dann doch nicht. Microsoft räumt ein, dass auch ihr Korrektur-Tool nicht unfehlbar ist. Schließlich nutzt es selbst KI-Modelle, um andere KI-Modelle zu verbessern.
Was sind KI-Halluzinationen?
KI-Halluzinationen sind ein Phänomen, bei dem künstliche Intelligenz-Systeme, insbesondere große Sprachmodelle, Informationen generieren oder Aussagen treffen, die falsch, irreführend oder völlig erfunden sind. Diese „Halluzinationen“ entstehen, wenn das KI-Modell auf der Grundlage seiner Trainingsdaten und Muster Inhalte produziert, die zwar auf den ersten Blick plausibel erscheinen mögen, aber nicht der Realität entsprechen. Dies kann verschiedene Formen annehmen, von kleinen Ungenauigkeiten bis hin zu komplett fiktiven Geschichten oder Fakten.