Künstliche Intelligenz (KI) kann das Leben der Menschen besser machen. Aber wie gelangen wir zu einer verantwortungsvollen KI? Dieser Beitrag stellt die Ethik der Algorithmen sowie eine werteorientierte Zukunftsperspektive vor.
Im November 2020 hat sich die Initiative KI Park Deutschland auf der “Rise of AI”-Konferenz vorgestellt. Sie will das Potenzial Künstlicher Intelligenz (KI) nutzbar machen. Dazu wird sie Unternehmen, Start-ups, Wissenschaft und Politik miteinander vernetzen und gemeinsame KI-Projekte auf den Weg bringen und so angewandte KI in Deutschland fördern. Ein zentraler Aspekt wird Ethik in der KI sein, denn nur wenn ethisch-moralische Grundsätze integriert sind, kommt die – verantwortungsvolle – Umsetzung der KI voran.
Aufmerksamkeit erregen aktuell besonders die USA und China mit ihren rasanten Fortschritten bei der Künstlichen Intelligenz. Die amerikanische KI-Landschaft wird geprägt durch eine Vielzahl von bereits etablierten KI-Unternehmen, vielversprechenden KI Start-ups und Scale-ups sowie führenden Herstellern von Halbleitern und Computerchips für KI-Systeme. Hier fließen hohe Wagniskapital-Summen in die Förderung von Start-Ups. Die chinesische KI-Szene profitiert von enormen Datenbeständen mit weitreichenden Möglichkeiten für das Trainieren von Algorithmen sowie den staatlichen Anstrengungen im Wettlauf um die Vormachtstellung im Bereich der KI. Deutschland und Europa kommt eine besondere Rolle zu. Es geht nicht darum, amerikanischen oder chinesischen KI Strategien nachzueifern, sondern einen verantwortungsvollen Umgang mit KI auf den Grundlagen europäischer Regeln und Werte zu entwickeln. Dies zu fördern, hat sich der KI Park Deutschland vorgenommen.
Denn Innovation und technologischer Fortschritt sind kein Selbstzweck und auch nicht per se gut. Die Erfolgsgeschichte von Technologie ist jene der Menschen, ihre komplexe Umwelt durch Rationalisierungen, Automatisierungen und zunehmender Selbstoptimierung zu bändigen und zu simplifizieren. Seit Mitte der fünfziger Jahre verspricht ihnen die KI-Forschung in regelmäßigen Abständen visionär, man stehe kurz vor einer dem Menschen gleichenden Intelligenz, der so genannten “Artificial General Intelligence” (AGI) oder “Singularity”. Dass Maschinen jedoch über regelbasierte Logik und Rationalität hinaus in komplexe Sphären der Emotionalität, Intuition, Assoziation und Spontanität vordringen können, erscheint aktuell weder machbar noch wünschenswert. Gerade weil es dennoch durchaus beeindruckend ist, was KI heute schon zu leisten vermag, zeigt uns der rasante Fortschritt der KI-Forschung auch, dass wir mit ihren Errungenschaften verantwortungsvoll umgehen müssen.
Die Ethik der Algorithmen
Eine nachhaltige und sozial akzeptable KI-Strategie muss ethisch begleitet werden. Darauf weisen sowohl das von der Bundesregierung (Stand: November 2018) herausgegebene Papier „Strategie Künstliche Intelligenz der Bundesregierung“ als auch auf europäischer Ebene die High-Level Expert Group on AI hin. Dies entspricht der internationalen Diskussion sowohl in der KI-Forschung als auch im Bereich der philosophischen Ethik der KI und disruptiver Informationstechnologien im Allgemeinen. Forschungsarbeiten in Berkeley und am Stanford Institute for Human Centered Artificial Intelligence haben gezeigt, dass die Umsetzung von KI-Systemen ohne „ethics in and by design“ nicht vorankommt.
KI-Systeme, von Menschen programmiert und produziert, stützen sich auf Denkmodelle, die menschliches Denken und Wahrnehmen zur Grundlage haben. Der Mensch baut auf diese Weise an Bildern seines eigenen Geistes. An dieser Stelle kommt die Ethik ins Spiel. Im Allgemeinen beschäftigt sich die Ethik als Teildisziplin der Philosophie mit der Frage, welche Handlungen aus moralischen Gründen erlaubt, welche geboten und welche verboten sind. Die Ethik beruht dabei auf der Anthropologie insofern, als der Mensch sein eigenes moralisches Nachdenken erforschen und korrigieren kann.
Ein aktuell diskutiertes Problem der Ethik der KI dreht sich um Bias, d.h. um Vorurteile und Fehlschlüsse, die in unseren kognitiven, menschlichen Apparat eingebaut sind. Sofern wir diese nicht durchschauen, gehen sie in unsere Daten als Signaturen ein, die von einer KI als Muster erkannt und weiterverwendet werden, ohne dass wir dies bemerken. Auf diese Weise kann ein KI-System zu Rück- und Fehlschlüssen führen, die uns bei der Gestaltung nicht bewusst waren. Überraschend und unerwartet kommt es dann während eines umfangreichen Einsatzes zu Fehlern. Ein etwas weniger “typisches” Beispiel einer Bias ist die Tendenz, dass für die Flächenschätzung von Krisen- und Katastrophengebieten öfters Saarlandgrößen herangezogen werden. Das führt zu einer häufigeren Nennung des Saarlandes in negativen Zusammenhängen im Vergleich zu anderen Bundesländern. Was diese Konnotation konkret in einem KI-System bewirkt, lässt sich ad-hoc nicht sagen, aber diese Art von Bias wurde sicherlich so nicht bedacht. Dies unterstreicht, dass sich ein Bias, der sich im Alltagsgebrauch eingeschlichen hat, nicht nur schwer zu erkennen ist, sondern sich unter Umständen auch in einem KI-System negativ äußern kann, da KI-Systeme immer von den Menschen lernen.
KI-Systeme können sich nicht durch ethische Fortentwicklung und Anpassung an neue historische Umstände selbst korrigieren, weil sie nicht an der menschlichen Lebensform teilnehmen. Deswegen bedürfen sie stets eines ethischen Updates und fundierter Ethikrichtlinien für eine verantwortungsvolle KI. Die High-Level Expert Group on AI hat im April 2019 entsprechende Leitlinien präsentiert. Gemäß dieser Leitlinien sollte eine verantwortungsvolle KI nicht nur ethisch unter Wahrung ethischer Grundsätze und Werte, rechtmäßig unter Beachtung aller anwendbaren Gesetze und Vorschriften sondern auch robust, sowohl aus technischer Sicht als auch unter Berücksichtigung des sozialen Umfelds, sein.
So sieht die Zukunft aus: KI als Wettbewerbsvorteil in Europa
Werte schaffen Werte. Wenngleich so manch einer geleitet von der “German Angst” beim Thema ethischer Regulierung von KI in Alarmbereitschaft geraten mag, schaffen moralisch transparente Werte jedoch ökonomischen, ökologischen und sozialen Mehrwert. Vertrauen und Transparenz in KI-Systeme wirken als Erfolgsfaktoren und sind entscheidend für die nachhaltige Implementierung einer verantwortungsvollen KI.
Im Mittelpunkt steht der Mensch: Menschen wenden Innovationen und Technologien an, weil sie auf einem klaren und sicheren Fundament aufbauen, das Vertrauen gewährleistet. Europa hat sich als Vorreiter für ethisch einwandfreie und “human-centered” Technologie positioniert, damit europäische Bürger:innen KI unter Achtung von Menschenrechten, Demokratie, Rechtsstaatlichkeit und Verteilungsgerechtigkeit nutzen können. Vertrauen ist die Marke Europas. Noch stärker als in der Vergangenheit ist Vertrauen zum Exportschlager europäischer KI-Initiativen geworden.
Digitale Souveränität Europas: Der Flickenteppich nationaler KI-Strategien wurde überwunden und ein europäisches Regelwerk gewährleistet einheitliche normative Standards. Mit regulatorischem und politischem Rückhalt, unterstützt durch eine staatliche Nachfrage und eine umfassende Finanzierung von verantwortungsvoller KI auch aus Mittelstand und Industrie haben sich disruptive KI-Anwendungen zur konkurrenzfähigen Alternative von amerikanischen und chinesischen Modellen gemausert. Durchgesetzt haben sie sich, weil sie als transparente Open-Source Produkte im digitalen Binnenmarkt durch state-of-the-Art “User Experience” überzeugten und dem Primat des Handelns von visionären Köpfen und mutigen Machern gefolgt sind.
Ethik setzt Standards: Prosperität hat sich in Europa nur realisieren lassen, weil KI-Systeme überprüfbar geworden sind. Sie werden so konstruiert, dass sie sicher und zuverlässig funktionieren sowie ethischen, rechtlichen und robusten Rahmenbedingungen genügen. Auf Basis eines breiten Beteiligungsprozesses unter Einbindung von Wirtschaft, Wissenschaft, Politik und Zivilgesellschaft wurden praxistaugliche und marktfähige Prüfverfahren entwickelt. Während KI in China immer noch vom Staat kontrolliert wird und die Vormachtstellung US-amerikanischer Big Tech Unternehmen erst vorsichtig reguliert wird, sind in Europa KI-Zertifizierungen durch unabhängige Prüfstellen längst Standard geworden.
Auch wenn diese Zukunftsszenarien noch in weiter Ferne erscheinen mögen, sehen wir dennoch in der jüngeren Vergangenheit erste Beispiele von KI-Leitlinien und Kodizes deutscher Unternehmen wie beispielsweise BMW, SAP, Telekom und Bosch. Die Grundsätze bieten einen Handlungsrahmen und Orientierung für Mitarbeiter:innen für den Einsatz und die Entwicklung von KI. In fast allen Fällen sind die Leitlinien jedoch noch nicht objektivierbar und messbar.
Nachdem dieser Text die Ethik der Algorithmen sowie eine werteorientierte Zukunftsperspektive diskutierte, wird sich der zweite Teil des Beitrags mit praktischen Überlegungen zu “Ethics in and by design” und einem Rahmenwerk beschäftigen, der eine verantwortungsvolle KI messbar und damit objektivierbar macht.
Prof. Dr. Markus Gabriel, Olly Salzmann (Deloitte), Christoph Bornschein (TLGG), Philipp Otto (iRights.Lab), Dr. Stefan Bordag (Tetrai)
Der 2. Teil erläutert, welche ethischen Überlegungen relevant sind und zeigt, dass eine Messbarkeit oft auch ein Resultat zunehmender Professionalisierung in diesem Bereich ist.