Künstliche Intelligenz („KI“) ist schon heute aus unserer täglichen Routine kaum wegzudenken. Wir vertrauen KI beispielsweise beim automatisierten Fahren oder komplizierten Herstellungsprozessen von Produkten.
KI unterstützt, entertaint und beeindruckt. Das aktuell gehypte KI-Tool ChatGPT des Anbieters OpenAI kann beispielsweise die Relativitätstheorie erläutern, Bewerbungsanschreiben formulieren, Standardvertragsmuster für verschiedene Anwendungsgebiete erstellen oder (recht amüsant) Prominente nachahmen.
Es besteht Anpassungsbedarf
Die zukünftigen Einsatzgebiete, Potentiale und Markterwartungen für künstliche Intelligenz (KI) sind enorm. Deshalb ist es wichtig, sinnvolle rechtliche Rahmenbedingungen für den Einsatz von KI zu stecken. Unser aktuell geltendes Recht bietet hierfür allerdings nicht die richtigen „Werkzeuge“.
Laut einer Umfrage unter europäischen Unternehmen zum Einsatz von KI-gestützten Technologien aus dem Jahre 2020 ist die Haftung eines der größten Hindernisse für den Einsatz von KI durch europäische Unternehmen.
Momentan sind im Zusammenhang mit KI vor allem drei Vorschläge der EU-Kommission im öffentlichen Diskurs.
Der Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz („KI-Gesetz“), der Vorschlag für eine Richtlinie über KI-Haftung und der Vorschlag für eine Überarbeitung der Produkthaftungsrichtlinie. Während sich das KI-Gesetz primär mit der Gewährleistung der Sicherheit von KI und dem Schutz der Grundrechte beschäftigt, adressieren die Richtlinie über KI-Haftung und der Vorschlag für eine Überarbeitung der Produkthaftungsrichtlinie die Situation, wenn trotz aller Maßnahmen zur Mitigation ein Risikofall eintritt.
Inhaltliches Ziel der Bestrebungen zur Anpassung der Haftung im Bereich KI ist es, dass Opfer von durch KI verursachten Schäden den gleichen Schutz erhalten wie Opfer von Schäden, die durch Personen oder Produkte verursacht wurden. Eine Anpassung bestehender Rechtsnormen ist erforderlich, weil die aktuell geltenden Haftungsbestimmungen der EU-Mitgliedsstaaten genau diesen gleichartigen Schutz nicht abbilden können.
EU-Richtlinien sinnvoll?
Eine EU-weite Regelung macht in diesem Zusammenhang Sinn. Denn die national geltenden Haftungsbestimmungen der EU-Mitgliedsstaaten weichen teilweise deutlich voneinander ab. Passen die Mitgliedsstaaten ihre nationalen Bestimmungen in Eigenregie an, droht daher eine sog. Fragmentierung des Rechts innerhalb der EU. Dadurch wird Rechtsunsicherheit geschaffen. Eine Harmonisierung in diesem Bereich kann den EU-Binnenmarkt also stärken und somit Innovation fördern.
Einerseits, weil einheitliche Haftungsbestimmungen Transparenz erzeugen, die Durchsetzung von Schadensersatzansprüchen Geschädigter im Binnenmarkt vereinfachen und somit das Vertrauen der Gesellschaft in KI stärken. Andererseits, weil auch grenzüberschreitend tätige Unternehmen sich beim Einsatz von KI auf ein EU-weit geltendes Haftungsregime verlassen können. Dies verhindert Wettbewerbsverzerrungen. Ferner werden die Risiken beim Einsatz von KI innerhalb der EU für Unternehmen dadurch besser kalkulier- und somit leichter versicherbar. Das ist insbesondere für kleine und mitteständische Unternehmen von Vorteil, die für Innovation ein wichtiger Treiber sind – aber in der Regel nicht die Ressourcen haben, Haftungsrisiken ihrer Produkte in bis zu 27 verschiedenen Jurisdiktionen abschließend zu überblicken.
Bekannt und bewährt – Modernisierung der Produkthaftung
Zur Durchsetzung ihres ambitionierten Ziels setzt die EU insbesondere auf zwei Legislativmaßnahmen. Zunächst soll mit dem Vorschlag für eine Überarbeitung der Produkthaftungsrichtlinie die bereits seit vielen Jahren bekannte Produkthaftung auf die neue Herausforderung angepasst werden. Produkthaftung adressiert dann zukünftig über das Prinzip einer sog. Gefährdungshaftung auch den Fall, dass ein Schaden durch ein fehlerhaftes KI-System verursacht wurde.
Das Prinzip der Gefährdungshaftung ist nicht nur aus der Produkthaftung – sondern auch aus dem Straßenverkehr bekannt. Wer Halter eines KFZ ist, haftet für die von seinem KFZ ausgehenden Gefährdungen unabhängig davon, ob er die Schädigung vorsätzlich oder fahrlässig verursachte („verschuldensunabhängig“). Deswegen gibt es für den Betrieb von KFZ im Straßenverkehr auch ein Versicherungszwang. Ähnlich soll über die Modernisierung der Produkthaftungsrichtlinie auch die Haftung für fehlerhafte KI-Systeme aufgezogen werden. Wer fehlerhafte KI anbietet, verursacht dadurch eine Gefährdung und haftet daher unabhängig von einem Verschulden. Ob die Aktualisierung der Haftungsvorschriften sogar von einer Versicherungspflicht für KI-Systeme flankiert wird, steht noch nicht fest.
Neu: Richtlinie zur KI-Haftung
Daneben steht die neue Richtlinie zur KI-Haftung. Sie soll primär den Fall adressieren, dass der Schaden nicht durch eine fehlerhafte KI, sondern durch eine schädigende Handlung eines KI-Anbieters verursacht wurde (z.B. Folgen bestimmter Eingaben).
Nach aktuell geltendem Recht müssen Geschädigte dem Schädiger in einem solchen Fall sog. „außervertraglicher Haftung“ eine schadenverursachende Handlung bzw. Unterlassung sowie ein Verschulden (Stichwort: Vorsatz, Fahrlässigkeit) nachweisen. Die besonderen Merkmale der KI, wie z.B. Komplexität, Autonomie und Undurchsichtigkeit (der sogenannte „Blackbox“-Effekt), können die Durchsetzung von Schadensersatzansprüchen da erheblich erschweren oder sogar ganz verhindern. Zum Beispiel, weil man bereits den Schädiger nicht identifizieren – oder ihm keine schädigende Handlung bzw. kein Verschulden nachweisen kann.
Das Stopfen der Lücke
Eine übliche Gegenmaßnahme zur Beseitigung dieser Schieflage ist eine sog. „Beweislastumkehr“. Dann muss der Schädiger seine Nichtverantwortlichkeit darlegen und beweisen. Eine vollständige Beweislastumkehr ist nach Auffassung des EU-Gesetzgebers allerdings für Unternehmen zu einschneidend und kann daher Innovation verhindern. Deshalb sieht der aktuelle Richtlinien-Vorschlag eine mildere Variante vor: In bestimmten Fällen (Details siehe Art. 4 Abs. 1 lit. a) bis c) des Vorschlags) greift eine „widerlegbare Vermutung“ für (i.) sorgfaltspflichtwidriges Verhalten des KI-Anbieters und (ii.) einer Ursächlichkeit des Sorgfaltspflichtverstoßes für das KI-Ergebnis.
Laut Artikel 3 Abs. 1 der aktuellen Fassung kann ein Gericht bei sog. Hochrisiko-KI-Systemen (Definition siehe Art. 6 des KI-Gesetzes) außerdem die Offenlegung von Beweismitteln anordnen, wenn der Geschädigte seinen Anspruch „durch die Vorlage von Tatsachen und Beweismitteln plausibel darlegt“.
KI-Anbieter müssen also zukünftig Transparenz in Bezug auf Ihre KI-Produkte herstellen können, wenn sie sich erfolgreich gegen eine Inanspruchnahme Geschädigter verteidigen möchten. Gleichzeitig muss der unternehmenseigene Geheimnisschutz gewahrt bleiben. Die daraus folgenden Konsequenzen sollten KI-Anbieter im Auge behalten und frühzeitig in (Entwicklungs-)Prozessen adaptieren. Initiale Richtwerte für umzusetzende Maßnahmen können dem Pflichtenkatalog für Hochrisiko-KI-Systeme in Artikel 4 Abs. 2 der Richtlinie entnommen werden. Die Aufzählung ist momentan aber noch mit Vorsicht zu genießen. Denn die Begriffsbestimmungen der Richtlinie stehen noch nicht fest und damit ist der Anwendungsbereich der Norm noch nicht fix.
Und wann geht’s los?
Wann und in welcher Fassung die neuen Regelungen letztlich wirksam werden, ist noch ungewiss. Der EU-Gesetzgeber wird sich aller Voraussicht nach aber anschicken, die Vorschläge zeitnah „auf die Straße zu bringen“. Denn die ersten EU-Mitgliedsstaaten haben bereits nationale Bestrebungen zur Anpassung ihrer Haftungsbestimmungen erwogen oder sogar konkret geplant und damit droht eine alsbaldige Fragmentierung des Rechts.
Das Thema bleibt also brandaktuell und es lohnt sich für Privatpersonen wie Unternehmen, auf dem neuesten Stand zu bleiben. Wer KI zwischenzeitlich „live“ testen möchte, aber mit Relativitätstheorie nichts anfangen kann: Lassen Sie sich von ChatGPT doch die wirklich wichtigen Fragen unserer Zeit beantworten. Zum Beispiel, ob nun eigentlich Super- oder Batman stärker ist – glauben Sie mir, es lohnt sich.