Internationaler Gipfel: Wie gefährlich wird Künstliche Intelligenz?

KI

Die britische Regierung organisiert in Bletchley Park einen internationalen Gipfel, um über die Gefahren von Künstlicher Intelligenz zu sprechen.

Bundeswirtschaftsminister Robert Habeck, US-Vizepräsidentin Kamala Harris und andere Politiker treffen sich dazu an diesem Donnerstag. Auch Vertreter mehrerer Unternehmen kommen – darunter Tech-Milliardär Elon Musk.

Anzeige

Worum geht es bei dem Gipfel?

Der britische Premierminister Rishi Sunak kündigte an, über Gefahren der neuen Technologien beraten zu wollen. Er verglich die künftigen Auswirkungen Künstlicher Intelligenz (KI) auf die Welt mit der Industriellen Revolution, der Entdeckung der Elektrizität oder der Erfindung des Internets. Sunak möchte sich mit Staaten und Unternehmen über mögliche Risiken austauschen. Gleichzeitig wirbt er mit der Aktion aber auch für Großbritannien als Wirtschaftsstandort.

Wie gefährlich wird Künstliche Intelligenz?

Sunaks Regierung warnt in einem Papier vor verschiedenen Szenarien. Für gefährliche Gruppen könne es leichter werden, Betrug zu begehen, Cyberattacken zu planen oder mit Falschinformationen die Gesellschaft zu beeinflussen. Grundsätzlich könne es für Terroristen einfacher werden, biologische oder chemische Waffen zu entwickeln, allerdings müssten sie immer noch an die nötigen Substanzen gelangen. In den kommenden 18 Monaten werde KI eher bestehende Risiken verstärken, aber keine ganz neuen Bedrohungsszenarien darstellen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Könnten Computer die Menschheit auslöschen?

Im extremen Fall – so jedenfalls Sunak – bestehe das Risiko, dass die Menschheit durch eine Art künstlicher Superintelligenz die Kontrolle verliere. Das müsse Menschen jetzt aber nicht den Schlaf rauben, manche Experten glaubten, dass das nicht passieren werde: «Aber egal, wie ungewiss und unwahrscheinlich diese Risiken sind: Wenn sie auftreten würden, wären die Konsequenzen äußert ernst.»

Anzeige

Manche Forscher halten es für irreführend, sich zu sehr auf das Existenzrisiko zu konzentrieren. Es sei eine «gefährliche Ablenkung von den Diskussionen, die wir führen müssen über die Regulierung von KI», sagte zum Beispiel Mhairi Aitken vom Alan Turing Institute dem Portal «Politico».

Ähnlich sieht es Sasha Costanza-Chock vom Berkman Klein Center der Harvard University und von der Organisation Algorithmic Justice League: «Wir müssen die Schäden reparieren, die schon angerichtet wurden.» Die Schlagzeile sei nicht, dass KI uns eines Tages töten könnte, sondern dass Menschen in Institutionen bereits in diesem Moment KI einsetzten, um Schäden anzurichten. Kritiker sehen etwa große Fragen beim Datenschutz, bei Urheberrechten oder der Diskriminierung von Menschen durch Algorithmen. Manche kritisieren auch die Arbeitsbedingungen von Leuten, die KI trainieren.

Einige fordern, Unternehmen müssten dringend stärker in die Verantwortung genommen werden. Beim Aufkommen sozialer Medien habe es relativ wenig staatliche Kontrolle gegeben, warnte Andrew Rogoyski von der Universität Surrey bei einem Parteitag der britischen Tories in Manchester. Das habe negative Einflüsse auf die mentale Gesundheit gehabt. Dieser Fehler sollte nicht nochmals gemacht werden.

Gibt es denn keine Regeln?

Die Politik wird allmählich aktiv. In den USA will Präsident Joe Biden mit einem rechtlichen Rahmen Risiken durch Software mit Künstlicher Intelligenz (KI) minimieren. Ein Präsidentenerlass von Montag sieht unter anderem vor, dass bei Programmen, die potenziell gefährlich für nationale Sicherheit, Wirtschaft oder Gesundheit werden könnten, die Entwickler die US-Regierung schon beim Anlernen der KI-Modelle unterrichten müssen. Auch werden sie Ergebnisse von Sicherheitstests mit den Behörden teilen müssen. Auch die Europäische Union will mit einer KI-Strategie einen rechtlichen Rahmen zur Regulierung der Technologie schaffen.

Sunak warnt vor einer voreiligen Regulierung: Man könne nicht schon Gesetze festschreiben, wenn man noch nicht wisse, wie etwas funktioniere. Mit seinem Gipfel will Sunak Großbritannien als wichtigen Akteur und Standort ins Gespräch bringen, dabei ist fraglich, wie viel bei dem Treffen wirklich herauskommen kann.

Welche Unternehmen sollte man kennen?

Besonders bekannt wurde in den vergangenen Monaten das Start-up OpenAI, das den Chatbot ChatGPT entwickelte. Die Software kann Sätze auf dem sprachlichen Niveau eines Menschen bilden. Sie schätzt dafür Wort für Wort ab, wie der Satz weitergehen könnte. Damit das funktioniert, werden solche Programme mit gewaltigen Mengen an Texten und Informationen angelernt. Neben zahlreichen Start-ups spielen auch die reichen Tech-Konzerne wie Google, Amazon, Microsoft, Meta und Apple mit ihren Ressourcen eine wichtige Rolle bei KI.

Was kann KI heute schon? Und was kann sie Gutes bringen?

Software mit Künstlicher Intelligenz ist bereits allgegenwärtig – aber meist eng auf Aufgaben spezialisiert. Sie steckt etwa in der Bildverbesserung, Autokorrektur, in Chatbots, die allmählich statt Hotlines genutzt werden sowie im Gesundheitswesen zum Beispiel zur Analyse von Symptomen. Deutschlands Digitalminister Volker Wissing findet, man müsse neben Risiken auch Chancen sehen. Sonst verliere man den Anschluss: «Wir müssen gemeinsam mit unseren Wertepartnern Standards setzen, die die Basis für eine neue Industrie bilden.»

Warum heißt es manchmal AI und manchmal KI?

Das ist lediglich eine Übersetzungsfrage. Im Deutschen spricht man von Künstlicher Intelligenz (KI), im Englischen von Artificial Intelligence (AI). Die Briten definieren es als Fähigkeit von Maschinen, ein bestimmtes Ziel durch Ausführung kognitiver Fähigkeiten zu erreichen.

Was kann der Gipfel erreichen?

Das ist fraglich. Sunaks Gipfel sehe professionell aus, schrieb die linksliberale Zeitung «The Guardian». Wenn man aber genauer hinschaue, müssten die Alarmglocken läuten. Sunak inszeniere sich als Führungsfigur, während er in seinem Land angesichts schlechter Umfragewerte unter Druck stehe. Mehrere Kritiker bemängeln in einem offenen Brief, dass zu wenige Vertreter der Zivilgesellschaft eingeladen worden seien. Stattdessen sei es eine Veranstaltung hinter verschlossenen Türen, die sich auf Spekulationen über existenzielle Risiken konzentriere – durch Systeme, die von genau den Unternehmen gebaut würden, die nun Einfluss auf deren Regulierung nehmen wollten.

dpa

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.