KI-Sicherheit: Das richtige Maß zur Regulierung von KI finden

Systeme der Künstlichen Intelligenz (KI) haben enormes Potential und finden Anwendung in immer mehr Lebensbereichen. Doch wie sicher und beherrschbar sind die Systeme, die sich durch Lernen ständig verändern? Eine wirksame Regulierung muss gut dosiert sein.

Sprachassistenten, Übersetzungen auf Knopfdruck, Predictive Maintenance oder Bewerbermanagement-Systeme: Künstliche Intelligenz (KI) ist aus dem Alltag, privat wie beruflich, nicht mehr wegzudenken. Dabei steht die Technologie erst am Anfang ihrer Entwicklung, viele der künftigen Einsatzgebiete sind noch gar nicht abzusehen. Hier eröffnen sich große Chancen für Entwickler und Hersteller, mit Verbesserungen durch künstliche Intelligenz Wettbewerbsvorteile zu erzielen.

Wenn Algorithmen entscheiden

Die neue Technologie bringt neben Erleichterungen aber auch Unsicherheiten mit sich. Was bedeutet es, wenn Algorithmen über den Erfolg der Bewerbung oder die Bewilligung des Kreditantrages entscheiden? Wie verhält sich KI in Gefahrensituationen, etwa beim autonomen Fahren? An welcher Stelle muss ein menschlicher Entscheider eingreifen? Die Diskussionen sind häufig geprägt von der Forderung nach mehr Einblick und Transparenz. Während kaum jemand auf die Idee käme, vom Hersteller eines Autos eine Veröffentlichung der Konstruktionszeichnungen zu verlangen, wird bei Software im Zweifelsfall recht schnell der Ruf nach Offenlegung des Codes laut. Im ersten Fall begründet sich das größere Vertrauen nicht nur im Reifegrad der Technologie, sondern auch in dem Wissen, dass in der Automobilproduktion seit langem gesetzliche Vorgaben, Normen und Standards gelten. Auf Systeme der Künstlichen Intelligenz trifft dies in dem Maße noch nicht zu.

Anforderungen an KI-Systeme sollten klar und angemessen sein

Das verunsichert nicht nur die Anwender, sondern auch die Anbieter von KI-Systemen. Wenn nicht klar ist, welche Anforderungen künftig gelten, könnten neu entwickelte Produkte im Zweifelsfall nicht zugelassen oder müssten aufwändig nachgerüstet werden. So essentiell der Schutz der Anwender vor möglichen Gefahren durch KI-gestützte Produkte ist – zu große Hürden durch Regulierung könnten auf der anderen Seite Hersteller auch davon abhalten, in die Entwicklung der Zukunftstechnologie zu investieren. Der Aufwand etwa für eine Konformitätsbewertung muss vertretbar sein, sonst würden gerade kleinere Unternehmen abgehängt. Auch bei den Anforderungen ist es wichtig, nicht über das Ziel hinaus zu schießen. Wenn das Ziel ist, KI-bedingte, zusätzliche Gefährdungspotentiale zu begrenzen, dann sollten im Ergebnis KI-basierte Systeme oder Produkte genauso sicher sein wie die bisher genutzten Produkte oder Prozesse. Bestehende Prozesse mittels KI besser, zuverlässiger und sogar sicherer zu machen – das kann der Anspruch der Hersteller sein, es darf aber nicht Voraussetzung werden, um KI-basierte Systemen überhaupt im Markt zuzulassen. Ebenso wie Produkte ohne KI werden auch Produkte mit KI nicht völlig fehlerfrei arbeiten und das sollte auch nicht die Erwartung sein, wenn fehlerbehaftete Produkte an anderer Stelle in gewissem Maße toleriert werden.

Darauf verweist auch Bitkom e.V. in einer Stellungnahme zur Haftung für Systeme Künstlicher Intelligenz (1), die sich mit den aktuellen Diskussionen, insbesondere mit dem Weißbuch der EU-Kommission zur Künstlichen Intelligenz, auseinandersetzt. Die Bitkom-Bewertungen beziehen sich dabei ausdrücklich auf gegenwärtig bereits genutzte KI-Systeme. Die Autoren der Bitkom sehen das Gefährdungspotential von KI-basierten Systemen durch die bestehenden Haftungsvorschriften bereits abgedeckt und plädieren dafür, den bisher gültigen technologieneutralen Ansatz bei Haftungsbestimmungen beizubehalten. Haftung und mögliche Sanktionen sollten demnach am typischen Gefahrenpotential eines Geräts oder einer Handlung auszurichten sein.

Undurchschaubar und veränderbar: Was KI besonders macht

Dabei wird auch klar herausgestellt, worin die besonderen Herausforderungen der Bewertung von KI-Systemen bestehen. Während Eigenschaften wie Komplexität, Konnektivität und Autonomie auch auf viele andere Systeme und Umgebungen zutreffen, sind KI-Systeme im engeren Sinn durch ihre Veränderbarkeit, Datenabhängigkeit und Opazität charakterisiert. Mittels Machine Learning sind Systeme der Künstlichen Intelligenz in der Lage, auf Basis von Trainingsdaten selbstständig Muster und Zusammenhänge zu erkennen und Schlüsse zu ziehen. KI lernt und verändert sich! Sie kann sich – im Gegensatz zu Produkten ohne KI – auch Verändern, nachdem sie in Verkehr gebracht wurde und das ist im Vergleich zu herkömmlicher Software neu. Die Ergebnisse, also auch mögliche Fehlschlüsse oder Diskriminierungen, hängen dabei in erster Linie von den Daten ab, anhand derer das System lernt. Unter Opazität wird die Undurchschaubarkeit verstanden, mit der KI-Systeme zu ihren Ergebnissen gelangen. Das betrifft in besonderem Maße Methoden des Deep Learning mittels neuronaler Netze. Die zugrundeliegenden Verfahren sind so komplex, dass die Schlüsse nicht unmittelbar nachvollzogen und somit geprüft werden könnten.

Diese Besonderheiten erklären andererseits aber auch, warum Regulierungsbestrebungen, etwa auf EU-Ebene, auch bei der Technologie selbst ansetzen: Vergleichbar zu Produktionsprozessen sollen Regeln aufgestellt werden, wie sichere und vertrauenswürdige KI „produziert“, also entwickelt werden kann. Grundsätzlich sind klare Vorgaben und Prüfverfahren auch im Interesse der Hersteller, da dies das Vertrauen in die Produkte steigert.

Artikel zu diesem Thema

Weitere Artikel