KI-Chatbots verschafften der künstlichen Intelligenz in kürzester Zeit eine ungeahnte Prominenz. Die Möglichkeiten sind enorm. Allerdings mahnen Experten einen verantwortungsbewussten Umgang mit der Technologie an. Doc Storage gehört auch dazu, fürchtet aber, dass es dafür bereits zu spät ist: Das Wettrüsten hat bereits begonnen.
Kommentar Doc Storage:
Der Mann, der weithin als Mitschöpfer der modernen künstlichen Intelligenz (KI) angesehen wird, hat seinen Job gekündigt und warnt vor den wachsenden Gefahren durch Entwicklungen auf diesem Gebiet: Der 75jährige Geoffrey Hinton gab in einer Erklärung gegenüber der New York Times seinen Rückzug von Google bekannt und betonte, er bedauere nun seine Arbeit dort. Er sagte an anderer Stelle, einige der Gefahren von KI-Chatbots seien »ziemlich beängstigend«. »Im Moment sind sie immer noch nicht intelligenter als wir, soweit ich das beurteilen kann. Aber ich denke, sie werden es bald sein.«
Dr. Hinton gab allerdings auch zu, dass sein Alter bei seiner Entscheidung, seinen Arbeitgeber zu verlassen, eine Rolle gespielt hatte. In einem Interview sagte er: »Ich bin 75, also ist es Zeit, in den Ruhestand zu gehen.« Dr. Hintons bahnbrechende Forschung zu neuronalen Netzen und Deep-Learning hat den Weg für aktuelle KI-Systeme wie ChatGPT geebnet. In der künstlichen Intelligenz sind neuronale Netze Systeme, die in der Art und Weise, wie sie Informationen lernen und verarbeiten, das menschliche Gehirn nachzuahmen versuchen. Sie ermöglichen es diesen Systemen, aus Erfahrungen zu lernen, wie es ein Mensch auch tun würde. Dies wird als tiefes Lernen bezeichnet. Der britisch-kanadische Kognitionspsychologe und Informatiker erklärte weiterhin, dass Chatbots bald den Informationsgehalt eines menschlichen Gehirns überholen könnten – wenn wir überhaupt in der Lage sind, diesen zu bestimmen. »Im Moment sehen wir Lösungen wie GPT-4, welches eine Person in der Menge seines Allgemeinwissens in den Schatten stellt. Und es stellt sie bei weitem in den Schatten. In Bezug auf Argumentationen und Diskussionen ist es noch nicht so gut, aber es eignet sich bereits für einfache Kommunikation. Angesichts der jetzigen Fortschrittsrate erwarten wir, dass sich die Dinge ziemlich schnell verbessern. Also müssen wir uns darum kümmern.«
In dem Artikel der New York Times bezog sich Dr. Hinton auf »bösartige Nutzer«, die versuchen würden, KI für »schlechte Dinge« einzusetzen. Als er um eine Konkretisierung gebeten wurde, antwortete er: »Dies ist nur eine Art Worst-Case-Szenario, eine Art Alptraumszenario. Sie können sich zum Beispiel vorstellen, dass ein bösartiger Nutzer wie der russische Präsident Wladimir Putin beschlossen hat, Robotern die Möglichkeit zu geben, ihre eigenen Teilziele zu erstellen.« Weiterhin warnte er davor, dass dies schließlich zu »Unterzielen wie `Ich muss mehr Kraft bekommen´ führen könnte. (…) Ich bin zu dem Schluss gekommen, dass sich die Art von Intelligenz, die wir entwickeln, sehr von der Intelligenz unterscheidet, die wir momentan haben. (…) Wir sind biologische Systeme, und stehen digitalen Systemen gegenüber. Der große Unterschied besteht darin, dass Sie bei digitalen Systemen viele Kopien derselben Gewichtungen haben, dasselbe Modell der Welt. (…) All diese Kopien können separat lernen, aber ihr Wissen sofort teilen. Es ist also, als hätte man eine beliebige Anzahl von Personen, und wenn eine einzige etwas lernt, wissen es automatisch alle anderen. Genau deshalb können Chatbots so viel mehr wissen als jede einzelne Person.«
KI: Vorteile & Möglichkeiten vs. Sicherheit & Kontrolle
Matt Clifford, der Vorsitzende der britischen Advanced Research and Invention Agency, sagte in einem persönlichen Beitrag zu einem Fernsehsender, dass Dr. Hintons Ankündigung »die Geschwindigkeit unterstreicht, mit der sich die KI-Fähigkeiten beschleunigen. (…) Diese Technologie bietet enorme Vorteile. Es ist allerdings wichtig, dass die Welt stark und nachhaltig in die Sicherheit und Kontrolle von KI investiert.«.
Dr. Hinton schließt sich einer tagtäglich wachsenden Zahl von Experten an, die Bedenken hinsichtlich KI äußern. Sowohl, was die Geschwindigkeit betrifft, mit der sie sich entwickelt, aber auch hinsichtlich der Richtung, in die sie sich entwickelt.
Im März forderte ein offener Brief, mit unterzeichnet von Dutzenden von Personen aus dem KI-Bereich, daneben unter anderem Elon Musk, eine Pause bei allen Entwicklungen, die weiter fortgeschritten sind als die aktuelle Version des KI-Chatbots ChatGPT. In der Pause sollten robuste Sicherheitsmaßnahmen entwickelt und umgesetzt werden können. Yoshua Bengio, ein weiterer großer Name in der KI, der zusammen mit Dr. Hinton und Yann LeCun den Turing Award 2018 für seine Arbeit zum Thema Deep-Learning gewann, unterzeichnete ebenfalls den Brief. Bengio schrieb, dass wir vor allem wegen der „unerwarteten Beschleunigung“ bei KI-Systemen »einen Schritt zurücktreten müssten«.
Allerdings sagte Dr. Hinton, dass er »kurzfristig« in der KI viel mehr Vorteile als Risiken sehen würde. »(…) Also denke ich nicht, dass wir aufhören sollten, dieses Zeug zu entwickeln.« Er sagte weiter, dass der internationale Wettbewerb eine Pause schwierig bis unmöglich machen würde. »Selbst wenn alle in den USA die Entwicklung stoppen, würde das vor allem für China Tag für Tag den Vorsprung vergrößern.« Dr. Hinton betonte, er sei ein Experte für Wissenschaft, nicht für Politik. Es liege in der Verantwortung der Regierungen sicherzustellen, dass KI entwickelt werde, »mit viel Vernunft, welche verhindert, dass diese Technologie abtrünnig wird«. Er betonte, er wolle Google nicht kritisieren, der Technologieriese habe bisher sehr verantwortungsvoll gehandelt. »Eigentlich möchte ich ein paar gute Dinge über Google sagen. Und die sind glaubwürdiger, wenn ich nicht für Google arbeite.« In einer Erklärung sagte Jeff Dean, Chefwissenschaftler von Google: »Wir bleiben einem verantwortungsbewussten Umgang mit KI verpflichtet.«
Nach den KI-Chatbots kommt die allgemeine künstliche Intelligenz
Allerdings ist es wichtig sich immer wieder daran zu erinnern, dass KI-Chatbots nur ein winziger Aspekt der künstlichen Intelligenz sind, auch wenn sie derzeit am beliebtesten und verbreitetsten sind. KI steckt beispielsweise hinter den Algorithmen, welche bestimmen, auf welche Video-Streaming-Plattformen man als nächstes wechseln soll. Sie wird bei der Personalsuche verwendet, um Bewerbungen zu filtern. Von Versicherern, um Prämien zu berechnen. Sie kann Krankheiten diagnostizieren, obwohl menschliche Ärzte zumindest zurzeit noch das letzte Wort haben. Wir sehen jedoch jetzt schon den Aufstieg von AGI (Artificial General Intelligence, allgemeiner künstlicher Intelligenz), welche mit etwas Training dazu gebracht werden kann, Probleme innerhalb eines weiten Aufgabenbereichs zu lösen. ChatGPT beispielsweise kann momentan nur Textantworten auf Anfragen anbieten. Allerdings sind die Möglichkeiten dahinter annähernd unbegrenzt.
Das Maß der KI-Beschleunigung hat selbst ihre Schöpfer überrascht. Seit Dr. Hinton im Jahr 2012 ein bahnbrechendes neuronales Netzwerk zur Bildanalyse aufgebaut hat, hat sich dieses dramatisch weiterentwickelt. Sogar Google-Chef Sundar Pichai sagte kürzlich in einem Interview, dass er selbst nicht annähernd verstehe, was der KI-Chatbot Bard tut. Man sollte sich nichts vormachen. Wir befinden uns gerade in einem sehr schnellen Zug, und die Sorge fährt mit, dass er eines Tages mit dem Bau seiner eigenen Gleise beginnen wird.
Auswahl von Kriterien nicht der KI überlassen
All jenen, die allerdings begeistert in diesem Zug mitfahren und sich über sein zunehmendes Tempo nur allzu unreflektiert freuen, sei die Lektüre von Computer Power and Human Reason ans Herz gelegt. Schon damals, vor 47 Jahren, hatte der Kollege Weizenbaum nach Jahren eigener Arbeiten an KI erkannt, dass die Möglichkeit, Rechnertechnik für eine Aufgabe zu programmieren, die auch von Menschen ausgeführt werden kann, für die Frage irrelevant ist, ob die Technik für eine bestimmte Aufgabe eingesetzt werden kann. Er definierte stattdessen, dass die Definition von Aufgaben und die Auswahl von Kriterien für deren Erledigung ein kreativer Akt ist, der auf menschlichen, und ausschließlich menschlichen Werten beruht. Diese können und dürfen nicht von Rechnern kommen. Er definiert hierfür den entscheidenden Unterschied zwischen Entscheiden und Wählen: Entscheiden ist eine Rechentätigkeit, also etwas, das schlicht programmiert werden kann. Eine Wahl ist jedoch grundsätzlich das Ergebnis des Urteilsvermögens, nicht der Berechnung. Er äußerte schon damals seine Befürchtung, dieser Unterschied würde durch den zunehmenden Einsatz von KI verwaschen und die Konsequenzen würden unumkehrbar werden. Vor allem problematisch hielt er die KI im Bereich der Militärtechnik, da er den Computer Zeit seines Lebens als »Kind des Militärs« gesehen hatte.
KI löst ein neues Wettrüsten aus
Also – alle Experten, deren erste und zweite Generation, empfehlen uns, im Umgang mit dieser Technologie sehr, sehr vorsichtig zu sein. Wir benötigen regulatorische Vorschriften, und wir brauchen Experten, die den Entwicklern auf die Finger schauen. Und zwar nicht nur allzu leicht zu begeisternde Informatiker, sondern auch und vor allem Philosophen, Psychologen, Ethiker und Anthropologen. Das größte Problem allerdings ist, dass sich ein einmal in die Welt gebrachter Humunkulus wie die KI nicht mehr so einfach ungeschehen machen lässt. Nicht nur die guten Jungs arbeiten an der Entwicklung, sondern laut Dr. Hinton auch die aus unserer Sicht bösen. Und die wird es einen feuchten Kehricht interessieren, wie die Bedenkenträger versuchen, die Möglichkeiten der KI einzuschränken. Wir werden ein neues Wettrüsten bekommen, wie damals nach der Einführung der Atomwaffe durch die Vereinigten Staaten. Jeder, der diese Technik bekommen will, wird sie sich beschaffen. Ich will weiß Gott keinen Teufel an irgendeine Wand malen, aber – passen Sie auf sich auf. Der Spruch von »man muss nicht alles machen, was auch machbar ist« hilft leider hier nicht mehr. Daran sollte jeder denken, der allzu begeistert seine trivialen Fragen an die (noch) harmlosen KI-Bots absetzt. Jetzt ist es sowieso zu spät…
Gruß
Doc Storage
Weiterführende Links: