Serie Teil 2

Ein Regelwerk für KI: Wer soll sterben?

Zugegeben, der Titel klingt etwas martialisch, aber im Grunde genommen geht es hierbei um eine Entscheidung, die ständig getroffen werden muss. Natürlich geht es um Notfallsituationen und nicht um die Regel! Der zweite und somit vorletzte Teil unserer Reihe soll vorwiegend zum Nachdenken anregen und es ermöglichen, die eigene Haltung gegenüber Künstlicher Intelligenz leichter definieren zu können.

 Wo treten ethisch-moralische Problemfälle auf?

In vielen Bereichen finden wir schon heute zumindest den Übergang vom menschlichen Inputgeber zur KI. In der Kriegsführung kommen vermehrt Drohnen zum Einsatz. Diese sorgen zwar dafür, dass Piloten sich nicht mehr selbst in Gefahr bringen müssen, befreien sie aber nicht davon, Entscheidungen über Leben und Tod treffen zu müssen. Ws ist der nächste logische Schritt? Eine Roboter-Armee, die gegeneinander Krieg führen kann, bei dem keine menschlichen Opfer entstehen? Klingt erst einmal gut.

Anzeige

Aber: Würde das nicht auch die Hemmschwelle gegenüber kriegerischen Auseinandersetzungen deutlich senken?

Ein weiteres Beispiel: IBM Watson, einem Rechnerverbund des New Yorker IT-Unternehmens, gelang es, in Japan eine seltene Form der Leukämie bei einer Patientin zu diagnostizieren. Innerhalb von 10 Minuten durchsuchte Watson mehr als 20 Millionen Forschungsberichte, zog die richtigen Schlüsse und schlug sogar eine eigene Therapieform vor. Menschliche Ärzte hätten Wochen gebraucht, um überhaupt die entsprechende Genmutation zu finden, die mit der Krankheit in Verbindung stand. Klingt grandios.

Aber: Was, wenn Watson falsch gelegen hätte? Was, wenn Fehleinschätzungen von KI Menschenleben kosten? Wer trägt die Verantwortung?

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Wer spricht Recht?

Wenn eine Maschine für den Tod eines Menschen verantwortlich sein soll, schlägt das hohe Wellen. Wir kennen die Berichte von Unfällen mit Tesla-Modellen, die mit aktiviertem Autopiloten verunglückten. Hier gilt die gleiche Frage: Wer trägt die Verantwortung? Immernoch der Fahrer?

Anzeige

Nicht nur wirtschaftlich brisant, sondern auch unter moralischen Gesichtspunkten betrachtet bietet autonomes Fahren viel Gesprächsstoff. Eine häufige Fragestellung bezieht sich auf das Weichensteller-Dilemma. Bei diesem Dilemma geht es darum, ob ein Zug, der auf eine Gruppe von Menschen zufährt und nicht aufgehalten werden kann, per Weiche auf ein anderes Gleis gelotst werden soll, auf dem nur ein einzelner Mensch steht. Ferdinand von Schirach brachte dieses Dilemma ins Theater. Am Ende des Stückes „Terror“ sollen die Zuschauer über einen fiktiven Kampfpiloten richten, der eine vollbesetzte Passagiermaschine abschoss. Hintergrund dafür war die Annahme, dass diese entführt worden sei und in ein Fußballstadion mit tausenden Menschen gelenkt werden sollte. Der Großteil der Menschen (>80% in den meisten Fällen) würde den Piloten frei- und damit dem Verfassungsgericht widersprechen.

Fakt am Rande: Im Jahr 2006 wurde Paragraph 14 Absatz 3 des Luftsicherheitsgesetzes von 2005 vom Verfassungsgericht kassiert, da es gegen die Menschenwürde verstößt. Dieser Paragraph sollte oben geschildertes Dilemma eindeutig regeln und in Extremsituationen den Abschuss von Passagierflugzeugen ermöglichen. Das Verfassungsgericht urteilte: Menschenleben sind nicht gegeneinander aufzuwiegen.

Anwendungsgebiet autonomes Fahren

Bei Automobilherstellern gibt es solche Rechtsprechung noch nicht – dabei ist das genau hier besonders wichtig. Wie soll ein Auto entscheiden, ob es in einer ausweglosen Situation einen Rentner oder eine Gruppe Jugendliche überfährt, wenn schon menschliche Gehirne diese Aufgabe kaum bewäligen können? Irgendwohin muss das Auto ja fahren, wenn Bremsen keine Option ist. Im Jahr 2016 warb Mercedes damit, im Ernstfall immer dem Insassen den Vorrang zu geben. Das klingt besorgniserregend. Was für Unterscheidungen werden getroffen? Und: Entscheiden dann Oberklasse-Fahrzeuge anders als Mittelklasse-Wagen? Wer behält die Entscheidungshoheit? Der Hersteller? Der Fahrer? Der Gesetzgeber?

Ein von Filmstudenten produzierter fiktiver Werbespot (von dem sich Mercedes Benz ausdrücklich distanziert) wird jetzt, obwohl schon Jahre her, wieder aktuell. Im Spot entscheidet das Fahrzeug, einen kleinen Jungen zu überfahren – und klärt den geschockten Zuschauer erst am Ende darüber auf, dass dieser kleine Junge Adolf Hitler sein soll. Geworben wird für ein intelligentes Bremssystem; der Slogan „Erkennt Gefahren, bevor sie entstehen“ wird spielerisch aufgegriffen.

Genau darum geht es. Welche Daten werden mit einbezogen? Was ist, wenn das Dilemma mit Rentner und Jugendlichen durch Informationen wie Einkommen, Krankheitsgeschichte, soziale Stellung, polizeiliches Führungszeugnis o.Ä. ergänzt wird? Wie viele Daten sind nötig? Die Zeit, die ein Fahrzeug braucht, um all das auszurechnen, sollte dem Menschen genügen, das Steuer herumzureißen. Oder eben auch nicht herumzureißen.

Fakt ist: Es wird eine der größten Herausforderungen überhaupt, Maschinen Antworten auf Fragen beizubringen, die wir selbst kaum beantworten können.

Aber: Gleichzeitig wäre es fatal, eine Technologie nicht weiterzuentwickeln, die jährlich zigtausende Menschenleben retten könnte. Denn 90% aller tödlichen Unfälle passieren aufgrund menschlicher Fehler.

Den 1. Teil der Serie „Ein Regelwerk für KI: Revolution!“ finden Sie hier.

www.icrossing.de

 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.