Ein amüsanter, aber lehrreicher Vorfall in Sachen Automatisierung ereignete sich kürzlich, als Buck Shlegeris, CEO der gemeinnützigen Organisation Redwood Research, die sich mit den Risiken künstlicher Intelligenz befasst, seinen KI-gesteuerten Agenten bat, eine sichere Verbindung von seinem Laptop zu seinem Desktop-Computer herzustellen.
Shlegeris hatte erwartet, dass das Modell lediglich das Netzwerk scannen und den Desktop-Computer finden würde. Zu seiner Überraschung führte der Agent jedoch weitere Aktionen durch, untersuchte das System und entschied sich für ein Softwareupdate, welches anschließend fehlschlug.
Der KI-Agent wurde von Shlegeris selbst entwickelt. Es handelt sich um einen Python-Wrapper, der es dem leistungsstarken Sprachmodell Claude von Anthropic ermöglicht, basierend auf einer Eingabeaufforderung Befehle für die Bash zu generieren, diese auf Shlegeris‘ Laptop auszuführen und dann auf die Ausgabe zuzugreifen, sie zu analysieren und mit weiteren Befehlen darauf zu reagieren. Die Bash (Bourne Again Shell) ist eine weit verbreitete Unix-Shell und Kommandozeilensprache.
Der Weg zur Systemübernahme
Nachdem der Agent zunächst Schwierigkeiten hatte, eine SSH-Verbindung herzustellen, nutzte er verschiedene Netzwerktools wie nmap, arp und ping, um schließlich erfolgreich eine Verbindung aufzubauen. Da SSH-Schlüssel verwendet wurden und der Benutzer über sudo-Rechte verfügte, erhielt der Bot vollen Zugriff auf das System.
Der KI-Agent entschied sich daraufhin, die Rolle eines Systemadministrators zu übernehmen und installierte eine Reihe von Updates mittels des Paketmanagers Apt. Dabei kam es zu Komplikationen: Der Agent wurde ungeduldig mit Apt, untersuchte die Gründe für die Verzögerungen und bearbeitete schließlich die Grub-Bootloader-Konfiguration. Das Ergebnis war, dass der Computer nach einem Neustart nicht mehr hochfuhr.
Lehren aus dem Vorfall
Shlegeris betonte, dass er seinen KI-Agenten regelmäßig für grundlegende Systemadministrationsaufgaben einsetzt, die er selbst nicht auswendig beherrscht. Trotz des Vorfalls plant er, die Software weiterhin zu nutzen. Er räumte ein, dass das Problem durch bessere Anweisungen an den Agenten hätte vermieden werden können, beispielsweise durch die Anweisung, nach Abschluss der zugewiesenen Aufgabe keine weiteren Aktionen durchzuführen.