Kann Künstliche Intelligenz ethische Grundsätze einbeziehen?

Inzwischen ist es fast unmöglich für alle, die mit Computern arbeiten, dem Hype um Künstliche Intelligenz (KI) zu entgehen. Es gibt scheinbar keine Branche, die von einem (vielleicht fehlgeleiteten) Versuch, KI in einige Prozesse einzubinden, unbetroffen bleibt.

Während es leicht ist, diese Anwendungen abzulehnen, ist es Realität, dass wir alle sehr wahrscheinlich heute schon mit mehreren algorithmischen Systemen interagiert haben. Die Nachrichten, die wir lesen, die Suchergebnisse, die wir sehen, und die Fernsehsendungen, die wir anschauen, werden uns alle von Algorithmen empfohlen. Einige dieser Anwendungen sind unbedenklich, aber dieselben Technologien werden zunehmend zur Unterstützung bei weitreichenden Entscheidungen eingesetzt: zum Beispiel für vorausschauende Polizeiarbeit, Kreditwürdigkeitsprüfung und KI-gestützte Gesundheitsversorgung.

Anzeige

Angesichts der Tatsache, dass KI-Technologien bei wichtigen, manchmal lebensverändernden Entscheidungen zum Einsatz kommen werden, haben wir eine moralische Verantwortung, unsere Werte mit ihren in Einklang zu bringen. Kann ein KI-System also ethisch handeln?

KI-Systeme sind Systeme, keine moralischen Instanzen

Ob ein KI-System ethisch handeln kann, ist die falsche Frage. Entgegen gängigen Darstellungen in den Medien ist KI nicht personifiziert. Große Forschungslabore wie DeepMind und OpenAI bauen nicht jeweils „eine KI“. IBMs Watson ist eine Reihe von Softwareanwendungen, keine einzelne Intelligenz, nicht einmal ein einzelnes Computerprogramm. Die Techniken, die wir als KI bezeichnen, sind Kombinationen aus Mathematik und Ingenieurskunst, die von Menschen geschaffen und von Menschen genutzt werden.

Das macht sie anfällig für die Kodierung menschlicher Voreingenommenheit und Vorurteile. Es ist ein bedauerlicher Mythos, dass KI-Systeme objektiver oder unbefangener sein könnten als Menschen. Die Delegierung wichtiger Entscheidungen an Algorithmen bietet nur den Anschein von Unbefangenheit. Untersuchen wir dies anhand eines Beispiels.

Anzeige

Stellen wir uns vor, wir würden einen Algorithmus entwickeln, der vorhersagt, ob ein Bankkredit ausfallen wird. Gemäß Artikel 21 der EU-Grundrechtecharta darf ein solches System nicht aufgrund von Geschlecht, Rasse, Alter und anderen geschützten Attributen diskriminieren. Wir haben sowohl eine moralische als auch eine regulatorische Pflicht, zu gewährleisten, dass das algorithmische System fair ist.

Ein Aspekt algorithmischer Fairness ist die Unabhängigkeit – Das heißt, wir könnten uns wünschen, dass die Vorhersagen eines Algorithmus unabhängig von einem bestimmten sensiblen Attribut getroffen werden. In diesem Beispiel wollen wir, dass die Vorhersagen unabhängig vom Alter des Bewerbers sind. Wir könnten unser System speziell auf dieses Ziel ausrichten, so dass die Vorhersagen unabhängig vom Alter des Bewerbers der gleichen Verteilung folgen.

Es zeigt sich, dass die Kreditvergabe in den verschiedenen Altersgruppen tatsächlich unterschiedlich ausfällt. Dies ist eine reine Beobachtung, und sagt nichts darüber, ob das Alter eine kausale Rolle spielt. Da wir unser Modell zwingen, unabhängig vom Alter zu analysieren, müssen wir akzeptieren, dass der Algorithmus für einige Altersgruppen weniger genau ist als für andere. Die einzige Möglichkeit, dies zu korrigieren, bestünde darin, die Vorhersagen vom Alter abhängig zu machen, was die angestrebte Unabhängigkeit zunichtemachen würde.

Hierbei gibt es zwei Definitionen von Fairness: Unabhängigkeit der Vorhersage vom Alter und gleich gute Vorhersagen für alle Altersgruppen. Beide Definitionen sind angemessen, aber mit ein wenig Mathematik kann man beweisen, dass sie nicht beide gleichzeitig erfüllt werden können.

Ist unser hypothetisches KI-gestütztes System zur Vorhersage von Kreditausfällen also fair und unbefangen beziehungsweise unparteiisch? Nun, ursprünglich musste jemand bei seiner Entwicklung Entscheidungen darüber treffen, auf welche Weise es gerecht sein soll. Die Wahl eines Weges schränkt den anderen ein. KI-Systeme sind letztlich menschengemachte Werkzeuge, und es ist die Nutzung dieser Werkzeuge, welche ihnen ihre ethischen Eigenschaften verleiht.

Ethische KI hat nicht allein mit KI zu tun

Warum sprechen wir dann ausdrücklich über ethische KI? Da es sich bei KI-Systemen um Werkzeuge handelt, muss dann nicht jede Software ethisch betrachtet werden?

Das von der Europäischen Kommission vorgeschlagene Gesetz über Künstliche Intelligenz setzt genau an diesem Punkt an: KI-Systeme sind breit definiert, um nahezu jedes automatisierte Entscheidungsfindungssystem zu umfassen, von komplexen tiefen neuronalen Netzwerkarchitekturen, Machine oder Deep Learning, bis hin zu einfachen statistischen Techniken und regelbasierten Ansätzen.

Genau dies ist der richtige Ansatz. In der Tat können dieselben Fairnesskriterien, die wir zur Bewertung von KI-Systemen verwenden, auch auf Systeme angewandt werden, die überhaupt keine KI einbeziehen, selbst auf rein menschliche Prozesse. Bei der Diskussion über „ethische KI“ geht es eigentlich um den verantwortungsvollen Umgang mit allen algorithmischen Systemen.

Der ganzheitliche Ansatz, der bei der Regulierung verfolgt wird, kann auch bei der Entwicklung KI-gestützter Systeme angewendet werden. Die Lösung für algorithmische Voreingenommenheit muss nicht algorithmisch sein. Beispielsweise hat Twitter kürzlich einen geschlechtsspezifisch und rassisch voreingenommenen Bildzuschnitt-Algorithmus korrigiert, indem der Algorithmus entfernt wurde und stattdessen die Twitter-Nutzer bestimmen können, wie ihre Bilder in den Timelines angezeigt werden. In einem Beitrag zur Ankündigung der Änderung stellten sie fest, dass „nicht alles auf Twitter ein guter Kandidat für einen Algorithmus ist, und in diesem Fall ist die Entscheidung, wie man ein Bild zuschneidet, eine, die am besten von Menschen getroffen wird.“

Moderne KI-Systeme unterscheiden sich von einfacheren algorithmischen Ansätzen unter anderem durch die Komplexität der Regeln, die sie aus den großen Datenmengen lernen können, anhand derer sie trainiert werden. Solche Systeme enthalten höchstwahrscheinlich unerwünschte Voreingenommenheit, die durch die Verwendung des Systems noch verstärkt werden kann. Kein kleines Set von Fairness-Metriken kann je alle potenziellen Schäden eines Systems erfassen, und es ist unerlässlich, auf unbeabsichtigte Folgen und entstehende Effekte zu achten.

Der verantwortungsvolle Einsatz von algorithmischen Entscheidungsprozessen ist ein kontinuierlicher Prozess. Wir stehen erst am Anfang, geeignete Normen, Praktiken und Regulierungen zu formulieren, aber es ist eine wichtige Aufgabe. Es ist zu hoffen, dass wir mehr reale Anwendungsbeispiele sehen werden, wo KI in verantwortungsvoller und fairer Weise genutzt wird. Technologie kann nur dann erfolgreich funktionieren, wenn alle mit einbezogen werden. Daher ist es wichtig, dass Entscheidungen über die faire Nutzung von Algorithmen nicht ausschließlich den Technologen überlassen werden, die die Algorithmen entwickeln.

Chris

Wallace

Research Lead

Cloudera Fast Forward Labs

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.