Europa will bei der Anwendung Künstlicher Intelligenz globale Standards setzen. Dazu schlug die EU-Kommission am Mittwoch Regeln vor, die vor allem das Vertrauen in die Technologie stärken sollen.
Je höher die potenziellen Gefahren einer Anwendung, desto höher sind die Anforderungen. Für Regelverstöße sind hohe Strafen vorgesehen.
Es ist weltweit der erste Rechtsrahmen dieser Art für Anwendungen auf Grundlage maschinellen Lernens. In den kommenden Jahren dürften solche Anwendungen im Alltag immer wichtiger werden – zugleich gibt es jedoch ethische Bedenken, die Maschinen könnten unausgewogene oder gefährliche Entscheidungen treffen.
Deshalb betonten EU-Kommissionsvize Margrethe Vestager und EU-Binnenmarktkommissar Thierry Breton am Mittwoch immer wieder ein Wort: Vertrauen. «Bei künstlicher Intelligenz ist Vertrauen ein Muss und kein Beiwerk», sagte Vestager. Man könne das gesellschaftliche und wirtschaftliche Potenzial Künstlicher Intelligenz nur dann schöpfen, wenn die Menschen darauf vertrauen könnten, dass die Risiken minimiert seien. Bei der ersten Digitalisierungswelle sei Europa zwar nicht führend gewesen. Doch habe der Kontinent alles, um die zweite Welle anzuführen.
«Geht nach Europa», rief Breton Unternehmen zu, die KI nutzen wollen. Dort werde es eindeutige Vorgaben und somit rechtliche Sicherheit geben. Zudem sei Europa der Kontinent mit der größten Menge industrieller Daten, die Grundlage für Künstliche Intelligenz sind.
Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Sie werden schon jetzt in vielen Bereichen unseres Lebens eingesetzt. Zum Beispiel können solche Programme Aufnahmen von Computer-Tomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Selbstfahrende Autos versuchen so, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und auch Chatbots oder automatische Playlisten von Streamingdiensten arbeiten mit KI.
Ähnlich wie bei den Datenschutzregeln, die seit 2018 in der EU gelten und weltweit Nachahmer fanden, will die EU-Kommission auch beim Umgang mit Künstlicher Intelligenz globale Standards setzen. Doch müssen die EU-Staaten und das Europaparlament nun erstmal über die Vorschläge verhandeln. Es dürfte also noch einige Jahre dauern, ehe in der EU neue Regeln gelten. Bis dahin dürfte es – wie schon bei der Datenschutzgrundverordnung – viel Lobbyarbeit geben.
Kritische Stimmen
Kritische Stimmen kamen am Mittwoch vor allem aus der Wirtschaft. Iris Plöger vom Bundesverband der Deutschen Industrie sprach von «erheblichem Nachbesserungsbedarf». So sei der Begriff der
Hochrisiko-KI-Systeme zu weit gefasst. «Industrielle Einsatzfelder von KI müssen vom Anwendungsbereich der Verordnung ausgenommen werden», forderte Plöger. Sonst werde die Entwicklung innovativer KI-Anwendungen womöglich schon im Ansatz geschwächt.
Claus Oetter vom Verband Deutscher Maschinen- und Anlagenbau warnte: «Vor allem kleine und mittlere Unternehmen werden sich zukünftig häufiger fragen, ob sie nicht lieber auf Künstliche Intelligenz in ihren Programmcodes verzichten, weil der Verwaltungsaufwand zu groß wird.» Auch Oetter befürchtet, dass Innovationen ausgebremst werden könnten. Der Vorsitzende des KI-Bundesverbands Jörg Bienert forderte, dass der Begriff KI in den Vorschlägen der EU-Kommission klarer definiert werden müsse und sich auf selbstlernende Systeme konzentrieren sollte.
Immerhin: Unternehmen in Deutschland haben einer repräsentativen Umfrage des Digitalverbandes Bitkom zufolge immer weniger Vorbehalte gegen den Einsatz von KI. Demnach gaben 62 Prozent der befragten Verantwortlichen an, dass sie darin eher eine Chance sehen – vor einem Jahr waren es noch 55 Prozent. Doch nutzen bislang nur verhältnismäßig wenige Unternehmen, 8 Prozent der Befragten nämlich, Künstliche Intelligenz auch tatsächlich.
«Wer erkannt hat, wie wichtig Künstliche Intelligenz schon heute ist und insbesondere künftig sein wird, sollte jetzt investieren», sagte Bitkom-Präsident Achim Berg. Die neuen Regeln sollten sich auf Hochrisiko-Anwendungen konzentrieren. «Wir brauchen in Deutschland und Europa sichere und vertrauenswürdige KI – wir dürfen aber nicht alle und alles über einen Kamm scheren.»
Bundesjustizministerin Christine Lambrecht (SPD) nannte den Vorstoß der EU-Kommission einen «zentralen Wegweiser» im Umgang mit KI. «Der Vorschlag rückt die Grundrechte der Europäerinnen und Europäer in den Mittelpunkt: Der Schutz vor Diskriminierung und vor wahlloser Massenüberwachung sind wichtige rote Linien, die wir für den Einsatz von KI setzen müssen.»
Konkret legte die EU-Kommission vor allem Regeln für sogenannte Hochrisiko-Anwendungen vor. Dazu zählt die Behörde unter anderem kritische Infrastruktur wie den Verkehrssektor, Programme zur Personaleinstellung oder die Bewertung der Kreditwürdigkeit. So soll etwa verhindert werden, dass eine Software bestimmte Bewerbungen bei Einstellungsverfahren ohne objektiven Grund aussortiert. Bei derlei Anwendungen will die EU-Kommission deshalb hohe Anforderungen etwa an die Daten stellen, mit denen die Programme gefüttert werden. Zudem müssen Entscheidungen im Nachhinein nachvollziehbar sein, und es muss eine menschliche Aufsicht geben.
Auch die biometrische Identifikation im öffentlichen Raum, etwa an Bahnhöfen, soll nur in engen Grenzen und nach behördlicher Genehmigung erlaubt werden – etwa bei der Suche nach einem vermissten Kind oder einem drohenden Terroranschlag. Technologien wie das Sozialkredit-System aus China, das regelkonformes Verhalten belohnt und Fehlverhalten bestraft, soll gänzlich verboten werden.
Von den allermeisten KI-Anwendungen – beispielsweise Spam-Filter oder Computerspiele – gehen nach Ansicht der EU-Kommission jedoch keine oder nur geringe Risiken aus. Für sie sollen daher deutlich weniger strenge oder gar keine Auflagen gelten. Bei Chatbots müssen die Nutzer beispielsweise darüber informiert werden, dass sie nicht mit einem Menschen kommunizieren.
dpa