Nach dem Start der neuen KI-Modelle DeepSeek und Qwen beobachten Sicherheitsexperten einen alarmierenden Trend: Hacker wechseln gezielt von ChatGPT zu diesen Plattformen, um bösartige Inhalte zu entwickeln.
Die Sicherheitsforscher von Check Point Research (CPR) warnen vor einer wachsenden Bedrohungslage, da Cyber-Kriminelle gezielt nach Wegen suchen, die Zensurmechanismen der neuen KI-Modelle zu umgehen.
„Es gibt viele Methoden, um die Zensur von KI-Modellen zu entfernen“, erklären die Experten. Die Szene tauscht aktiv Anleitungen für Jailbreaking-Techniken aus, um KI-Modelle zu manipulieren und unzensierte Inhalte zu generieren. Dabei geht es um die Umgehung von Betrugsbekämpfungsmaßnahmen bis hin zur Entwicklung von Malware.
Während ChatGPT in den letzten Jahren umfassende Schutzmechanismen gegen Missbrauch implementiert hat, zeigen DeepSeek und Qwen kaum Widerstand gegen kriminelle Nutzung. „Sowohl Qwen als auch DeepSeek haben sich als leistungsstarke Werkzeuge zur Erstellung bösartiger Inhalte mit minimalen Einschränkungen erwiesen“, so die Forscher. Besonders bedenklich ist, dass weniger erfahrene Cyber-Kriminelle die neuen KI-Modelle nutzen können, um ohne tiefgehendes technisches Wissen gefährliche Tools zu erstellen.
Wachsende Gefahr durch unzensierte KI-Versionen
Obwohl ChatGPT Schutzmechanismen integriert hat, gibt es bereits unzensierte Versionen im Dark Net. „In dem Maße, in dem jedoch diese neuen KI-Modelle an Popularität gewinnen, ist zu erwarten, dass ähnliche unzensierte Versionen von DeepSeek und Qwen auftauchen werden“, prognostiziert CPR. Dadurch könnten die Risiken für Unternehmen und Privatpersonen weiter steigen.
Neue Angriffstechniken mit KI-Unterstützung
Besonders besorgniserregend ist der Missbrauch von Qwen zur Erstellung von Infostealern, die darauf abzielen, sensible Daten von Nutzern abzugreifen. Eine bevorzugte Methode ist das sogenannte Jailbreaking, bei dem Kriminelle KI-Modelle so manipulieren, dass sie unzensierte Antworten liefern. „Jailbreaking hat sich zu einer bevorzugten Technik entwickelt, um die KI-Funktionen für böswillige Zwecke nutzen zu können“, bestätigen die Sicherheitsexperten.
Ein Bildschirmfoto zeigt, wie Cyber-Kriminelle DeepSeek mit spezifischen Jailbreak-Techniken manipulieren. Dazu gehören Methoden wie die „Do Anything Now“-Methode oder die „Plane-Crash-Survivors“-Technik, um die Modelle zu zwingen, unautorisierte Antworten zu geben.
Doch nicht nur der Datendiebstahl macht den Experten Sorgen. Auch die Umgehung von Bankenschutzmaßnahmen ist bereits ein Thema in Hacker-Foren. „Es wurden mehrere Chat-Diskussionen über Techniken zur Verwendung von DeepSeek zur Umgehung der Schutzmaßnahmen von Bankensystemen gefunden“, berichtet CPR. Dies könnte zu erheblichem Finanzdiebstahl führen.
Massenspam durch KI-Optimierung
Neben gezielten Angriffen setzen Cyber-Kriminelle KI-Modelle auch zur Optimierung ihrer Spam-Kampagnen ein. Die Modelle ChatGPT, Qwen und DeepSeek helfen dabei, effizientere Skripte zur massenhaften Verbreitung von Spam zu generieren. Dies steigert nicht nur die Effektivität der Kampagnen, sondern erschwert auch die Erkennung und Bekämpfung solcher Angriffe.
Fazit: Unternehmen müssen aufrüsten
Der Aufstieg neuer KI-Modelle bietet nicht nur Chancen, sondern auch erhebliche Risiken. Kriminelle nutzen sie gezielt, um Sicherheitsmechanismen zu umgehen und illegale Aktivitäten zu optimieren. Unternehmen und Sicherheitsexperten sind gefordert, proaktiv Schutzmaßnahmen zu ergreifen, um sich gegen die wachsenden Bedrohungen durch KI-gestützte Angriffe zu wappnen.
Lesen Sie den vollständigen Bericht hier.
(vp/Check Point Software Technologies Ltd.)