Für mehr Transparenz und Fairness

Wie hilft Methodenkombination in der KI-Entwicklung?

KI Gesetz

Der Vormarsch der KI ist unaufhaltsam. Eine Studie von Progress zeigt, dass 66 Prozent der Unternehmen in den nächsten Jahren bei der Entscheidungsfindung immer mehr auf KI und ML angewiesen sein werden. Dabei rücken Herausforderungen in den Vordergrund­ — wie Bedarf nach mehr Transparenz, Rechenschaftspflicht und Abschwächung der Bias. Hybride KI-Technologie kann dabei eine mögliche Lösung sein. 

Der Einzug der KI-Technologie in alle Lebensbereiche ist unverkennbar, und die Wachstumsprognosen sind vielversprechend. Laut einer umfassenden Studie von Progress gaben 66 Prozent der Befragten an, dass sie in den nächsten Jahren bei der Entscheidungsfindung zunehmend auf KI und maschinelles Lernen angewiesen sein werden. Dieser Trend bringt jedoch auch neue Herausforderungen mit sich. So besonders den Bedarf nach mehr Transparenz, Fairness und Rechenschaftspflicht in der KI-Entwicklung. Einer der schwierigsten Stolpersteine auf diesem Weg sind die Verzerrungen (Bias) in den mit KI generierten Ergebnissen. Die Studie erwähnt auch Bedenken in Bezug auf den Datenbias. Etwa zwei Drittel der Befragten sind davon überzeugt, dass  dieser mit dem zunehmenden Einsatz von KI und ML ein immer größeres Problem wird. 65 Prozent sind dabei der Meinung, dass Technologie und Tools am dringendsten benötigt werden, um die Datenverzerrungen besser bekämpfen zu können.

Anzeige

Angesichts dieser Herausforderungen und der zunehmenden Bedeutung der generativen KI  sind neue Ansätze zur Innovation gefragt. Ein vielversprechender Ansatz ist die Kombination der Vorteile großer Sprachmodelle (LLMs) und traditioneller maschineller Lernverfahren. Doch wie genau funktioniert dieser hybride Ansatz und wie kann er dazu beitragen, verantwortungsvollere und nutzerorientiertere KI-Produkte zu schaffen? Dies ist ein spannender Einblick in die Kraft der Kombination aus dem Besten zweier Welten.

Die Stärken zweier Verfahren nutzen

Der hybride Ansatz zur KI-Entwicklung verbindet zwei wichtige Aspekte: die Leistungsfähigkeit und Skalierbarkeit großer Sprachmodelle (LLMs) mit der Präzision und Erklärbarkeit traditioneller ML-Verfahren. Solche kombinierte Technologien, die auf einem “Human-in-the-Loop”-Ansatz beruhen, bei dem der Mensch eng in den Entwicklungsprozess eingebunden ist, könnten die Art und Weise, wie Innovationen entstehen, grundlegend verändern. Sie ermöglichen die Entwicklung von KI-Produkten, die verantwortungsbewusster und stärker auf die Bedürfnisse der Nutzer ausgerichtet sind als je zuvor.

Große Sprachmodelle wie beispielsweise GPT-4 verwenden einige der fortschrittlichsten Deep-Learning-Algorithmen, um geschriebene Sprache zu verstehen und authentischen Text zu generieren. Beim traditionellen maschinellen Lernen werden Modelle mit großen Datensätzen trainiert und statistische Methoden verwendet, um Vorhersagen zu treffen. Durch Kombination oder Schichtung beider Ansätze lassen sich Systeme entwickeln, die sowohl nützlich als auch transparent sind. LLMs bieten die erforderliche Skalierbarkeit und Flexibilität, um große Datenmengen zu verarbeiten und menschenähnliche Text zu erzeugen. Gleichzeitig bieten traditionelle maschinelle Lernverfahren mehr Fairness und Transparenz durch interpretierbare Modelle, erklärbare “Feature Importance” und die Möglichkeit, Verzerrungen durch sorgfältiges Feature-Engineering, Algorithmendesign und Datenannotation abzuschwächen. 

Anzeige

Obwohl LLMs Voreingenommenheit in den Outputs und Fairnessprobleme möglicherweise mit der Zeit durch Tests beheben werden, wird es noch dauern, bis sie optimiert sind. In weiteŕeichenden Produkten mit Millionen von Nutzern erlaubt ein hybrider Ansatz schnelle Anpassungen innerhalb von Stunden oder Tagen, wobei das Vertrauen der Nutzer im Vordergrund steht.

Mehr als Technologie: Warum der Mensch im Mittelpunkt sein sollte

Bei der verantwortungsvollen KI geht es aber nicht nur um die Technologie, sondern auch die Menschen dahinter. Die Entwicklung von KI-basierten Tools stellt ein multidisziplinäres Unterfangen dar, an dem funktionsübergreifende Teams beteiligt sind. Im Mittelpunkt dieser Zusammenarbeit steht die Notwendigkeit, Verzerrungen zu identifizieren, zu bewerten und abzuschwächen sowie die Fairness sowohl bei den Daten, mit denen KI-Modelle trainiert werden, als auch beim Design der KI-Systeme selbst zu verbessern. Diese Aufgabe erfordert einen “Human-in-the-Loop” — mit einem tiefen Verständnis der ethischen Implikationen von KI sowie dem Engagement für die Schaffung von Technologien, die sicher, zuverlässig und nutzerorientiert sind. Es ist also entscheidend, interne Fachleute und Forschungsteams in sämtliche Phasen der Entwicklung von KI-Produkten einzubeziehen, um einen verantwortungsvollen Ansatz zu gewährleisten.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Wie ein hybrider Ansatz die Qualität der Ergebnisse verbessert

Wie könnte ein hybrider Ansatz in den realen Kundenanwendungen aussehen und welche reale Vorteile bringt er? Ein Beispiel aus der Welt der Schreibassistenzsoftware gibt Aufschluss: Bevor bei Grammarly die LLMs in die proprietäre Technologie eingeführt wurden, wollte das Team eine Hypothese bestätigen, dass mehrschichtige Verfahren zu zuverlässigeren sowie kontextuell relevanteren Gesamtergebnissen führen. Hierfür wurden Untersuchungen durchgeführt, bei denen der Beitrag jeder Technologie im System quantitativ bewertet wurde. 

Von vornherein, sollte von GPT erzeugter Text “weitgehend fehlerfrei” sein. Quantitative Forschung bestätigt, dass eklatante grammatikalische Fehler in den Ausgaben selten sind. Die Ergebnisse der internen Untersuchungen stimmten damit überein: Texte, die mit generativer KI erzeugt wurden, beinhalteten erwartungsgemäß relativ wenige Grammatik- und Rechtschreibfehler. Als der Text jedoch anschließend durch Grammarly’s eigene KI- und Machine-Learning-Systeme lief, zeigten die Untersuchungen, dass zusätzliche stilistische und sicherheitsrelevante Verbesserungen möglich sind (beispielsweise im Bezug auf inklusive Sprache, die Verwendung von Passiv und Aktiv oder den Tonfall). Obwohl eine tiefere Analyse  erforderlich ist, um die nicht genauen bzw. falsch-positiven oder negativen KI-Schreibvorschlägen zu bewerten, entspricht die Vielzahl der generierten stilistischen Probleme den Bedenken hinsichtlich Qualität von GPT-erzeugtem Text. So beispielsweise in Bezug auf inklusive Sprache, die Verwendung von Passiv und Aktiv oder den Tonfall. Hybride KI kann hier erlauben, die Gesamtqualität der GPT-Ausgaben zu verbessern. 

Die Zukunft der KI ist hybrid

Bereits jetzt beginnen Unternehmen aus verschiedenen Industrien,  den hybriden Ansatz bei der Entwicklung nutzerorientierter KI-Technologien zu integrieren. Die Beispiele reichen vom Gesundheits-, über das Finanz-, bis hin zum Verkehrswesen. Durch die steigende Akzeptanz dieses Ansatzes sind auch mehr Innovationen und Fortschritte im Bereich der KI zu erwarten. Wenn man einen Blick in die Zukunft der generativen Künstlichen Intelligenz wirft, wird eine Tatsache klar: Die verantwortungsbewusste Entwicklung von KI-Tools ist erfolgreich, wenn man die Leistungsfähigkeit großer Sprachmodelle  mit der Präzision anderer maschineller Lernverfahren verbindet. Indem wir die Stärken beider Herangehensweisen nutzen, können wir KI-Systeme schaffen, die nicht nur leistungsfähig, sondern auch transparent und inklusiv sind. Durch gemeinsame Bemühungen  zur Identifizierung und Reduzierung von Verzerrungen sowie der Förderung von Fairness kann  gewährleistet werden, dass KI auf verantwortungsvolle und ethische Weise eingesetzt wird.

Joe Xavier

Joe

Xavier

Chief Technology Officer

Grammarly

Joe Xavier und sein globales Engineering-Team konzentrieren sich auf die Entwicklung innovativer Schreibassistenztechnologien für eine stetig wachsende Nutzerbasis.
Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.