Trifft Künstliche Intelligenz diskriminierende Entscheidungen oder schlägt Kunden unpassende Angebot vor, kann das den Ruf und den Umsatz von Unternehmen ernsthaft beschädigen. Pegasystems zeigt auf, wie sie sich mit einer verantwortungsvollen KI davor schützen können.
Immer mehr Unternehmen setzen bei ihren Angeboten auf Künstliche Intelligenz (KI). Ihre Algorithmen schlagen Produkte und Services vor, hauchen Chatbots Leben ein und übersetzen Texte. Dadurch unterliegen Unternehmen einem gehörigen Wettbewerbsdruck, denn die Konkurrenz hat ihre KI-Systeme schließlich längst am Start. Dennoch sollten sie sich vor Schnellschüssen hüten und sicherstellen, dass sie eine verantwortungsvolle Künstliche Intelligenz einsetzen. Sonst können ihnen erhebliche Schäden drohen. Pegasystems, ein Anbieter von Kundenbindungs-Software für Vertrieb, Marketing, Service und Operations, nennt die vier zentralen Eigenschaften einer solchen KI:
1. Fairness.
Unternehmen sollten sicherstellen, dass ihre KI alle Geschlechter, Ethnien, Altersgruppen, Gesellschaftsschichten, Einkommensgruppen, religiösen Gemeinschaften und sexuellen Orientierungen gleich behandelt. Dazu müssen sie KI-Modelle aufbauen, die frei von Voreingenommenheiten sind, sie proaktiv überwachen und ihre Ergebnisse kontinuierlich analysieren. Der Aspekt der Fairness hat beim Einsatz von KI oft nicht die oberste Priorität. Treffen Algorithmen aber diskriminierende Entscheidungen, kann das für Unternehmen äußerst ruf- und geschäftsschädigende Folgen haben.
2. Transparenz.
Unternehmen sollten im Zweifelsfall aufzeigen können, wie ihre KI zu einer Entscheidung gelangt ist. Das gilt insbesondere für stark regulierte Branchen wie Finanzdienstleistungen oder Versicherungswesen. So geriet vor kurzem etwa ein Finanzdienstleister in die Schusslinie, weil er anscheinend Frauen mit demselben Einkommenshintergrund wie Männer schlechtere Konditionen für Kreditkarten anbot. Da er nicht erklären konnte, wie seine KI zu den entsprechenden Entscheidungen kam, stand er als frauenfeindlich da. Für regulierte und risikoreiche Anwendungsfälle sollten Unternehmen deshalb transparente und erklärbare Algorithmen einsetzen.
3. Empathie.
Die Notwendigkeit für Unternehmen, sich gegenüber ihren Kunden einfühlsam zu zeigen, war noch nie so groß wie in den belastenden Zeiten der Corona-Pandemie. Deshalb sollten sie eine empathische KI einsetzen. Eine solche KI trifft Entscheidungen, die relevant und hilfreich sind und die Bedürfnisse der Kunden an die erste Stelle setzen. Dazu muss sie in der Lage sein, den vollständigen Kontext eines Kunden zu berücksichtigen. Nur dann kann sie wissen, was er genau jetzt benötigt. Das muss nicht unbedingt ein bestimmtes Angebot sein, sondern kann auch bedeuten, ihn für eine gewisse Zeit in Ruhe zu lassen.
4. Robustheit.
Vor einigen Jahren machte der Twitter-Bot Tay Schlagzeilen. Die Twitter-Nutzer waren dazu aufgerufen mit ihm zu interagieren; innerhalb von 24 Stunden entwickelte er sich dabei zu einem Alptraum. Das zugrundeliegende KI-Modell wurde durch die Daten, die es aus den Twitter-Konversationen aufnahm, frauenfeindlich und rassistisch. Dieser Fall macht deutlich, dass Unternehmen eine robuste KI benötigen; eine KI, die durch eingebaute Schutzmechanismen, Regeln und Leitlinien nicht so leicht beeinflusst werden kann.
„Fairness, Transparenz, Empathie und Robustheit sind die Grundpfeiler einer verantwortungsvollen Künstlichen Intelligenz. Mit ihnen können Unternehmen sicherstellen, dass ihre Künstliche Intelligenz die Werte unserer Gesellschaft widerspiegelt und die Kundenbedürfnisse in den Mittelpunkt stellt“, sagt Dr. Kay Knoche, Principal Solution Consultant bei Pegasystems. „Das ist nicht nur ethisch geboten, sondern macht sich langfristig auch im Umsatz der Unternehmen positiv bemerkbar.“