Künstliche Intelligenz: Das neue Lieblingswerkzeug der Hacker?

Cyberkriminelle, Hacker, Künstliche Intelligenz, KI

Cyberkriminelle nutzen Chat GPT und andere Künstliche Intelligenzen zunehmend für ihre Zwecke aus. Darauf deuten tausende Posts im Darknet hin, wie Sicherheitsforscher von Kaspersky berichten.

Wer mehr über aktuelle Trends im Bereich der Cyberkriminalität wissen will, sollte sich in den Foren im Darknet umsehen. Hier tauschen sich Hacker aus, stellen ihre neuesten Malwares vor und bieten ihre Dienste zum Kauf an. Damit stellen die Beiträge in den Darknet-Foren auch für Cybersicherheitsforscher eine wichtige Informationsquelle dar, die Rückschlüsse auf potenzielle Bedrohungsszenarien zulässt.

Anzeige

Auch die Sicherheitsforscher von Kaspersky behalten das Darknet im Auge und so konnten sie im Laufe des vergangenen Jahres einen bedenklichen Trend beobachten, bei dem Künstliche Intelligenzen wie ChatGPT immer häufiger von Kriminellen missbraucht werden. Bereits im September 2023 wurde berichtet, dass im Darknet erfolgreiche Phishing-E-Mails angepriesen wurden, die von KI-Chatbots erstellt wurden. Auch Jailbreaks beliebter KI-Tools waren zu diesem Zeitpunkt bereits im Angebot. Besonders auffällig ist die Vorliebe der Cyberkriminellen für ChatGPT und das Large Language Model (LLM). Beide Tools können zwar Aufgaben vereinfachen und den Zugang zu Informationen verbessern, bergen aber auch neue Sicherheitsrisiken, da Cyberkriminelle sie für böswillige Zwecke nutzen können, etwa um Malware zu entwickeln.

Die Auswertung der beobachteten Foren durch die Sicherheitsforscher bei Kaspersky ergab nun, dass besonders bösartige Chatbots wie FraudGPT ein wiederkehrendes Thema in den Diskussionen in Dark-Web-Foren waren. Hier zählten die Forscher fast 3.000 Beiträge im Laufe des Jahres, die im März 2023 ihren Höhepunkt erreichten. Auch gestohlene ChatGPT-Konten sind ein beliebtes Thema, mit ebenfalls mehr als 3.000 Beiträgen.

Dem Kaspersky-Bericht zufolge gab es zwischen Januar und Dezember 2023 in Cybercrime-Foren regelmäßig Diskussionen über die Nutzung von ChatGPT für illegale Aktivitäten. In einem Beispiel ging es darum, wie GPT zur Generierung polymorpher Malware verwendet werden kann, die schwerer zu erkennen und zu analysieren ist als normale Malware. In einem anderen Beitrag wurde vorgeschlagen, die OpenAI-API zu verwenden, um Code mit bestimmten Funktionen zu generieren und dabei die Sicherheitsprüfungen zu umgehen. Obwohl noch keine Malware entdeckt wurde, die diese Methode nutzt, ist das theoretisch möglich.

Anzeige

Bedenklich ist auch, dass ChatGPT Aufgaben lösen kann, für die bisher Fachwissen erforderlich war, wodurch die Einstiegshürde in die Cyberkriminalität immer weiter sinkt. Wird zusätzlich noch KI zur Selbstoptimierung in eine Malware eingebaut, können die Viren aus dem Nutzerverhalten lernen und ihre Angriffe entsprechend anpassen.

Auch Phishing-Kampagnen lassen sich durch den Einsatz von KI optimieren. KI-gesteuerte Bots erstellen personalisierte Phishing-E-Mails, die Nutzer zur Preisgabe sensibler Daten verleiten sollen. Cyberkriminelle nutzen darüber hinaus sogenannte Deepfakes, bei denen Künstliche Intelligenz eingesetzt wird, um hyperrealistische Abbilder bekannter Persönlichkeiten zu erstellen, mit denen ahnungslose Nutzer getäuscht werden sollen.

Darüber hinaus stellten die Forscher fest, dass in vielen cyberkriminellen Foren bereits ChatGPT-ähnliche Tools für Standardaufgaben integriert sind, wobei Jailbreaks genutzt werden, um zusätzliche Funktionen freizuschalten. Im Jahr 2023 wurden 249 Angebote zum Verkauf dieser Prompt-Sets entdeckt.

Der Bericht von Kaspersky zeigt, dass Künstliche Intelligenz in den kommenden Jahren immer mehr zur Herausforderung für die Cybersicherheit werden wird und sowohl die Verantwortlichen in Unternehmen und Behörden als auch die Strafverfolger sich darauf einstellen müssen, auch gegen KI-gestützte Bedrohungen vorzugehen.

www.8com.de

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.