KI und Ethik

Voreingenommenheit durch Künstliche Intelligenz proaktiv angehen

Künstliche Intelligenz (KI) kann Unternehmen eine Reihe von möglichen Vorteilen bieten – von der Verbesserung interner Geschäftsprozesse durch die Vorhersagekraft von Daten bis hin zur Optimierung der Angebote und Kundenservices. 

Allerdings birgt die KI-gestützte Entscheidungsfindung auch eine Reihe potenzieller Risiken, die sich, wenn sie ungelöst bleiben, negativ auf den Einzelnen und die Gesellschaft auswirken können. Aus diesem Grund führt eine wachsende Anzahl von Gesetzgebern neue Leitlinien und Gesetze ein, um die Transparenz in Bezug auf die Nutzung von KI zu erhöhen und es für Einzelpersonen einfacher zu machen, Rechtsmittel einzulegen und für Regierungsbehörden, Durchsetzungsmaßnahmen zu ergreifen. Ein Beispiel ist der Entwurf zum neuen Europäische Rechtsrahmen für KI von 2021.

Anzeige

Der Prozess der Entwicklung von maschinellem Lernen (ML) kann sowohl zeit- als auch arbeitsintensiv sein. Es ist daher nicht überraschend, dass Unternehmen viel Zeit und Mühe in die Entwicklung von Werkzeugen und bewährten Verfahren investiert haben, um den Entwicklungsprozess effizienter zu gestalten. Das wachsende Bewusstsein der Öffentlichkeit und die zunehmende Durchsetzung der Gesetze bedeuten, dass Unternehmen einen ähnlichen strukturellen Ansatz verfolgen müssen, um die Auswirkungen von Voreingenommenheit, Unfairness und Undurchsichtigkeit im Zusammenhang mit ihren KI-gestützten Anwendungen anzugehen.

Augen auf, noch bevor die Öffentlichkeit klagt

Meist werden die im Zusammenhang mit KI entstehende Voreingenommenheit und die daraus folgenden Schäden, die von Gruppen oder Einzelnen erst erkannt, wenn ein öffentlicher Aufschrei erfolgt. Denn viele Unternehmen verfolgen keinen umfassenden Ansatz, um mögliche negative Konsequenzen ihrer ML-Applikationen erfolgreich zu ermitteln.

Einer der Gründe dafür scheint zu sein, dass ML-gestützte Anwendungen für bestimmte Nutzer konzipiert sind. Die Bedürfnisse und Interessen dieser Gruppe sind üblicherweise gut erforscht, die anderer betroffener Gruppen hingegen oft nicht. Als Folge können die nicht primären Interessengruppen Nachteile erfahren. Ökonomen bezeichnen das als „negative externe Effekte“, also die indirekten Kosten, die Dritten durch das Verhalten eines Unternehmens entstehen. Dies ist vergleichbar mit der Luftverschmutzung oder Lärmbelästigung unter denen Menschen leiden, die in der Nähe einer Fabrik leben. Sind die Waren überwiegend für den Export bestimmt, erfährt diese Gruppe zwar die Nachteile, profitiert aber nicht von dem Betrieb. 

Anzeige

Jedoch können nicht nur Menschen außerhalb der primären Zielgruppe unbeabsichtigte Folgen erfahren – auch kleinere oder marginalisierte Gruppen innerhalb der größeren Zielgruppe können, wenn auch unbeabsichtigt, negativ beeinflusst werden. Dies wurde von denjenigen behauptet, die sich darüber beschwerten, dass Frauen, die die Apple-Karte beantragten, geringere Kreditbeträge erhielten als Männer.

Durch KI-Systeme verursachte Schäden erkennen

Man könnten nun argumentieren, dass Unternehmen viele dieser KI-Schäden nicht beheben, weil sie sich keine Gedanken über die Auswirkungen machen. Angesichts erheblicher Gegenreaktionen und des Reputationsschadens, den unsachgemäß eingesetzte (oder auch unzureichend kommunizierte) KI-Lösungen auslösen können, ist dies jedoch unwahrscheinlich. Eine gerechtere Einschätzung ist wohl, dass viele Unternehmen nicht über die institutionellen Prozesse und die Verwaltung oder die technischen Werkzeuge verfügen, anhand derer sie die mit ihren KI-Lösungen verbundenen Risiken konsequenter und umfassender bewerten könnten. Diese Kompetenzlücke ist ein ernstzunehmendes Hindernis. Obwohl gesetzliche Vorschriften diese Unternehmen sicherlich dazu bewegen werden, die Umsetzung von Schutzmaßnahmen zu priorisieren, muss die zugrunde liegende Kompetenzlücke geschlossen werden.

Einige Unternehmen versuchen dies bereits umzusetzen und schlagen neue Wege ein. Dazu zählt zum Beispiel Twitter: Als Antwort auf den öffentlichen Aufschrei über seine Anwendung zum Zuschneiden von Bildern leitete das Team für ML-Ethik, Transparenz und Verantwortlichkeit (META) des Unternehmens eine Untersuchung ein. Twitter beschloss schließlich, die KI-Anwendung abzuschaffen. Diese Reaktion war zwar äußerst transparent und umfassend, doch sie war auch reaktiv. Allerdings stößt diese Vorgehensweise – also darauf zu warten, dass betroffene Gruppen Schäden identifizieren und melden – an Grenzen. 

Zum Beispiel müssen bei diesem Ansatz die betroffenen Gruppen einschätzen können, dass die ihnen zugefügten Schäden das Ergebnis eines oder mehrerer Algorithmen sind. Jedoch sind diese auf ML-Modellen basierenden Systeme häufig stark verflochten. Das kann es den betroffenen Gruppen erschweren, die notwendigen Verbindungen herzustellen. Vorausgesetzt natürlich, sie wissen überhaupt über die Existenz des Algorithmus oder seine Funktionsweise Bescheid. Es gilt also, wie so oft: Wo kein Kläger, da kein Richter.

Eine weitere und größere Schwäche dieses Ansatzes ist, dass er von einem bereits eingetretenen Schaden ausgeht. Zwar ließe sich argumentieren, im Falle der Bild-Zuschneide-Anwendung von Twitter bestehe ein geringer Schaden, doch das ist nicht immer der Fall. Deswegen fahren einige Unternehmen einen eher proaktiven Ansatz, indem sie externe Organisationen mit der Prüfung ihrer Modelle beauftragen oder durch Einrichtung interner Prüfungsteams. Außerdem sind es nicht nur Unternehmen, die Audits initiieren – unabhängige Forscher führen regelmäßig (unaufgefordert) Audits von Algorithmen großer, einflussreicher Firmen durch. Ihre Ergebnisse veröffentlichen sie anschließend. Dabei kooperieren die Entwickler der Algorithmen nicht immer mit den unabhängigen Forschern. Trotz des manchmal gegensätzlichen Charakters dieser Interaktionen können die von Forschern initiierten Audits ein nützliches Mittel zur Aufdeckung von Schäden sein.

Es besteht auch ein wachsendes Interesse an der Verwendung von „Bias Bounties“, wie Forrester in seinem jüngsten Bericht „2022 Predictions“ bestätigt. Dabei handelt es sich um Prämien für diejenigen, die algorithmische Verzerrungen in KI-Anwendungen aufdecken und so zur Identifizierung und Beseitigung von KI-Schäden beitragen. Sie ähneln den „Bug Bounties“, die in der Cybersecurity-Branche vergeben werden. 

Jeder dieser Ansätze hat Stärken und Schwächen hinsichtlich der Schadenserkennung. Dabei können Unternehmen die Stärken unterstützen, indem sie bei der Entwicklung von KI-Anwendungen einen multidisziplinären, teamübergreifenden Ansatz wählen. Dies wird wahrscheinlich zu einer umfassenderen, soziotechnischen Bewertung algorithmischer Schäden führen. Es wird Unternehmen dabei helfen, einen strukturierteren Ansatz zur Identifizierung und Minderung von Schäden sowie zur Entschädigung betroffener Interessensgruppen zu entwickeln. Glücklicherweise kann dieser kooperative Ansatz durch bestehende Machine-Learning-Ops-Instrumente und -Rahmenwerke unterstützt werden. Fehlt dieses Engagement, könnten die Schwächen dieser Ansätze noch verstärkt werden.

Ade

Adewunmi

Strategy and Advising Manager

Cloudera Fast Forward Labs

(Bildquelle: Privat)
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.