Über die Ethik von Algorithmen

Verantwortungsvolle KI für Europa (Teil 2/2)

Beeindruckend und für viele unerwartet schnell dringt die Künstlichen Intelligenz (KI) immer tiefer in unser Leben ein. Damit stellt sie auch unsere heutigen Vorstellungen davon, wie eine Gesellschaft funktioniert, was sie im Innersten zusammenhält, in Frage. 

Ethik und Künstliche Intelligenz: „Ethics in and by design“

Algorithmen treffen nicht mehr nur belanglose Entscheidungen, sondern zunehmend solche mit tiefgreifenden und direkten Auswirkungen auf unser Leben.

Anzeige

Im ersten Teil des Beitrags haben wir angesichts damit einhergehender Befürchtungen bewusst eine positive Zukunftsaussicht formuliert: Es gilt, eine Zukunft zu gestalten, in der KI dazu dient, Fehler zu korrigieren, positive Lösungen zu liefern und Optimismus und Hoffnung zu verbreiten.

Anwender:innen von KI-Systemen werden zunehmend darauf achten, wie ihre personenbezogenen Daten verwendet werden, welche Ziele das KI-System verfolgt und welchen Einfluss die maschinellen Entscheidungen auf das individuelle und kollektive Leben haben. Vertrauen wird daher immer wichtiger. Wir glauben, dass sich die Nachfrage nach verantwortungsvoller KI in den kommenden Jahren erheblich beschleunigt, zum Differenzierungsfaktor und schlussendlich zum Branchenstandard in Europa wird.

Dieser Beitrag erläutert, welche ethischen Überlegungen relevant sind und zeigt, dass eine Messbarkeit oft auch ein Resultat zunehmender Professionalisierung in diesem Bereich ist.

Anzeige

Kritikalität bei der Konformitätsbeurteilung

Die Verwendung eines beliebigen Werkzeugs fußt auf Vertrauen. Kaum jemand wird versuchen, mit einer Zange aus Kunststoff das Gleiche zu tun wie mit einer Zange aus Stahl. Das hierfür nötige Vertrauen wäre nicht ausreichend. KI-Systeme sind nichts anderes als komplexe Werkzeuge: sie bestehen meist aus Hardware, Software und Daten.

Um die Vertrauenswürdigkeit von KI-Systemen bewerten zu können, müssen einzelne Bereiche zusammenfassend messbar und damit objektivierbar gemacht werden. Daraus können überprüfbare Standards, Selbstverpflichtungen und Qualitätsanforderungen bei Ausschreibungen resultieren. Wir gehen davon aus, dass die Prüfungstiefe und verpflichtung maßgeblich von der Kritikalität des KI-Systems bestimmt werden wird. Maßgeblich ist hier ist die Prüfung der möglichen Gefährdung von Menschenleben sowie der Umfang der menschlichen Einfluss-, Konfigurations- und Kontrollmöglichkeiten auf das KISystem.

Der vielleicht wichtigste Aspekt für das Vertrauen in ein KI-System ist sein Wirkungskreis: Je mehr Menschen von einem KI-System direkt oder indirekt betroffen sind, umso größer sein Wirkungskreis. Der Wirkungskreis kann somit einerseits durch die Anzahl betroffener Menschen beziffert werden, andererseits durch den Abstand (“degree of separation”) zwischen Entwickler bzw. Anbieter und Betroffenen, sowie den potentiellen Einfluss auf Leib und Leben eines Individuums. Je mehr Menschen betroffen sind und je größer der Abstand, umso größer die Gefahr, bspw. bestimmte Gruppen von Menschen systematisch zu benachteiligen.

Dieser risikobasierte Ansatz schafft Orientierung bei der Notwendigkeit einer Konformitätsbewertung und lässt bewusst Raum für freiwillige Selbstverpflichtungen, (branchenspezifische) Gütesiegel oder freiwillige Zertifizierungen in Fällen unkritischer Anwendungsszenarien. Damit wird das Problem der Überregulierung vermieden und eine nutzenstiftende Zertifizierung mittels standardisierter Produkt- und Prozesskriterien gefördert. Was sind die wichtigsten Kriterien?

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Transparenz, Nachvollziehbarkeit, Nachprüfbarkeit, Verantwortlichkeit

Ein KI-System ist umso verständlicher, je mehr Einblicke es in interne Entscheidungsprozesse bietet und je besser es sie visualisiert. Je weniger Vorwissen hierfür nötig ist, umso besser.

Essentiell ist, dass die Entscheidungen des Systems denen von Menschen ähneln. Wir erwarten, dass das System wie ein Mensch entscheidet. Weicht ein KI-System unerwartet von der Entscheidung eines menschlichen Beobachters ab, dann muss es möglich sein, diese Abweichung möglichst einfach zu analysieren. Vorhandensein, Qualität und Menge derartiger Analysewerkzeuge kann leicht bewertet werden.

Auch die Transparenz eines KI-Systems ist messbar: Ein KI-System, dessen Hard- und Software-Komponenten vollständig oder zumindest teilweise Open Source sind, ist transparenter als ein KI-System, das lediglich über eine API angesprochen werden kann. Ein transparentes KI-System folgt den Anforderungen von “programming ethics” oder der “ethical source definition”.

Funktionale Sicherheit des KI-Systems, Zuverlässigkeit, Robustheit

Die Erfahrung mit einem KI-System stützt sich insbesondere auf die Genauigkeit des Algorithmus, dem so genannten Validitätswert. Damit eng verbunden ist die Frage des Anwenders, ob das KI-System wie beabsichtigt, zuverlässig und sicher funktioniert. Erfahrungen können durch Qualitätsmessungen objektivierbar gemacht werden, womit bestimmt werden kann, wie robust oder stabil ein KI-System in Hinblick auf dessen Entscheidungen ist. Führen bspw. ein paar geänderte Pixel dazu, dass ein KI-System ein Verkehrsschild nicht mehr korrekt erkennt?

Vermeidung von nicht-gewollten Folgewirkungen auf Andere

Die Kontrollierbarkeit eines KI-Systems ergibt sich daraus, wie schnell der Verantwortliche bemerkt, dass es etwas Falsches tut oder das KI-System (unbeabsichtigte) negative Folgewirkungen auf andere Systeme, Menschen oder die Umwelt hat, und er darauf reagieren kann (das KI-System abschalten oder das Problem beheben).

Einige Unternehmen haben ihre Prozesse und KI-Systeme bereits soweit optimiert, dass Probleme z.B. der Werbealgorithmen zuverlässig innerhalb weniger Tage festgestellt, analysiert und behoben werden. Das ist eine beachtliche Leistung, doch die wenigsten produktiv eingesetzten KI-Systeme entsprechen einem derart hohen Standard.

Schutz des Privaten, Datenschutz, Datensicherheit und Compliance

Die Rechtssicherheit eines KI-Systems setzt sich zusammen aus den Lizenzen seiner Komponenten und Daten sowie seinen rechtlichen Nutzungsmodalitäten. Produkte für Lizenz- und Compliance Management ermöglichen es, auch die Rechtssicherheit in Zahlen auszudrücken. Dazu gehören die zweckgebundene Datenerhebung, -verarbeitung und – speicherung nach EU-DSGV, entsprechenden Einverständniserklärungen sowie die notwendige Transparenz. Wer ist für Compliance-Verstöße und potentiell schädliche Auswirkungen eines KI-Systems verantwortlich? Hier wird richtungsweisend sein, wie der Diskurs rund um die Verantwortlichkeit von selbstfahrenden Autos entschieden wird.

Selbstbestimmung und Transparenz der Rolle des Anwenders

Bei der Interaktivität mit einem KI-System ist entscheidend, wie gut der Anwender in einen Dialog mit dem KI-System treten kann und inwieweit er die eigenen Wünsche präzisieren und die angestrebte Ausgabe des KI-Systems anpassen kann. Das bedingt auch, dass der Anwender weiß, dass er in seinem individuellen Anwendungskontext ein KI-System nutzt, wie seine Daten und Informationen verwendet werden und welche Handlungsoptionen ihm zur Verfügung stehen. Wirklich gut ist ein KI-System, wenn es bei Bedarf zusammen mit dem Benutzer iterativ die beste Lösung finden kann.

Gleichheit und Diskriminierungsfreiheit

Die Gerechtigkeit eines KI-Systems setzt sich unter anderem aus den Prinzipien Gleichheit, Diversität und Fairness zusammen. Zentral ist das Prinzip des individuellen oder gesellschaftlichen Handelns, welches jedem gleichermaßen sein Recht gewährt. Gleichheit meint hier v.a. Diskriminierungsfreiheit: Gleiches wird nicht ungleich behandelt und Ungleiches nicht gleich. Diversität bezieht sich sowohl auf die Entwickler*innen eines KI-

Systems, die idealerweise unterschiedliche Perspektiven einbringen und verschiedene Erfahrungshintergründe haben, als auch auf die repräsentative Vielfalt der für ein KI-System verwendeten Trainingsdaten. Fairness meint hier v.a. den gleichen Zugang aller Menschen zu den Vorteilen von KI-Systemen.

Weitergehende Kriterien

Die oben beschriebenen Punkte sollten als Mindestkriterien verstanden werden. Darüberhinaus gehende und damit freiwillige Kriterien ergänzen die Perspektive beispielsweise um Aspekte der Operabilität, Nutzerfreundlichkeit (“User Experience”), Kennzeichnungspflichten und der Nachhaltigkeit. Mittels aktuell verfügbarer Werkzeuge ist es möglich, präzise den Stromverbrauch eines KI-Systems zu bewerten. Damit sind KISysteme direkt miteinander vergleichbar.

In der Realität sind KI-Systeme oft in einem unreifen Zustand bereits produktiv im Einsatz. Daraus resultierende Probleme entspringen oft aus übersehenen ethischen Aspekten und werden dann meist nachträglich on-the-go gelöst. Diese nachträgliche Problemlösung ist erheblich teurer, als die Probleme zu antizipieren und von vornherein zu lösen.

Die Gestaltung einer verantwortungsvollen KI ist Gemeinschaftsaufgabe

Vertrauen ist gut, Offenheit ist besser. Offenheit ermöglicht gleichermaßen die technische und organisatorische Möglichkeit der Überprüfung, Kontrolle und Aufsicht von algorithmischen Systemen und dessen Entscheidungen. Der KI Park Deutschland wird diese Vision proaktiv gestalten. Er beschäftigt sich im Rahmen des Ethik-Reallabors mit OpenSource-Lösungsansätzen zur Analyse (z.B. Reverse Engineering, Input-Output-Analyse komplexer KI-Systeme, Explainable AI) von KI-Systemen sowie dem Aufbau offener Trainingsdatensätze mit einem Qualitätssiegel und Datenblatt für Herkunft und Güte von Daten.

Das Ethik-Reallabor soll eine experimentelle Form der Kooperation zwischen Wirtschaft, Wissenschaft, Start-ups, Politik und Zivilgesellschaft schaffen und verfolgt das Ziel, die Ethik der Algorithmen greifbar zu machen und die heutige Lücke zwischen normativem Diskurs und der praktischen Anwendung in Design und Code zu schließen. Damit schafft der KI Park Deutschland eine agile Möglichkeit der Konformitätsbewertung, die jederzeit an technologische Weiterentwicklungen angepasst werden kann. Die Funktion des EthikReallabor könnte somit darin bestehen, eine mögliche öffentliche Aufsicht und Zertifizierung von Algorithmen zu ergänzen. Um die Praxistauglichkeit und Marktfähigkeit möglicher Maßnahmen sicher zu stellen, lädt der KI Park Deutschland zur Mitarbeit ein. 

Prof. Dr. Markus Gabriel, Olly Salzmann (Deloitte), Christoph Bornschein (TLGG), Philipp Otto (iRights.Lab), Dr. Stefan Bordag (Tetrai)

Unser Ökosystem

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.