Große Sprachmodelle wie GPT-4 sind in der Lage sind, reale Sicherheitslücken zu erkennen und auszunutzen, indem sie lediglich Sicherheitshinweise lesen.
Ein Team von vier Wissenschaftlern der University of Illinois Urbana-Champaign (UIUC) führte eine Studie durch, in der sie die Fähigkeit von GPT-4 untersuchten, 15 bekannte Schwachstellen in Open-Source-Software zu exploitieren. Diese Schwachstellen umfassten Bugs in Webseiten, Containern und Python-Paketen, von denen viele als „hoch“ oder „kritisch“ eingestuft wurden. Das Experiment nutzte ein Agentensystem, das aus einem Sprachmodell, einem Framework namens ReAct und diversen Tools wie einem Terminal und Code-Interpreter bestand.
Open AI-KI effektiver als andere Modelle
GPT-4 erwies sich als außerordentlich effektiv und konnte 13 der 15 Schwachstellen erfolgreich ausnutzen. Im Vergleich dazu konnten andere Modelle, einschließlich GPT-3.5 und verschiedene kommerzielle und Open-Source-KI-Modelle, keine einzige Schwachstelle ausnutzen.
Daniel Kang, einer der Forscher, betont die Notwendigkeit, dass Organisationen bewährte Sicherheitspraktiken anwenden, um sich gegen solche Bedrohungen zu schützen. Henrik Plate, ein weiterer Sicherheitsforscher, fügte hinzu, dass, obwohl KI-basierte Bewertungen manuelle Überprüfungen nicht ersetzen sollten, sie dennoch als zusätzliche Informationsquelle dienen können, um größere Mengen an Malware-Signalen effizienter zu überprüfen.
Kosten und Zugänglichkeit
Die Kosten für die Durchführung eines erfolgreichen Angriffs mit einem LLM-Agenten wurden auf etwa 8,80 US-Dollar pro Exploit geschätzt, was wesentlich günstiger ist als die Einstellung eines menschlichen Penetrationstesters für dieselbe Aufgabe. Trotz der Bitte von OpenAI, die genauen Befehle nicht zu veröffentlichen, signalisierten die Forscher ihre Bereitschaft, diese Informationen auf Anfrage bereitzustellen.