Hacken mit ChatGPT? So schützen Sie sich vor KI-Angriffen!

ChatGPT
Bildquelle: Vitor Miranda / Shutterstock.com

Viele Unternehmen nehmen die rasante Entwicklung der künstlichen Intelligenz sehr positiv wahr. Schließlich können Programme wie ChatGPT schnell und effizient Prozesse optimieren und menschliche Mitarbeiter entlasten. Doch Sicherheitsexperten warnen vor möglichen Gefahren. „Auch Hackern nimmt die KI sehr viel Arbeit ab“, warnt IT-Experte Florian Dalwigk.

„KI kann beträchtliche Schäden verursachen, wenn sie die richtigen Befehle bekommt. Das werden Hacker garantiert ausnutzen. Den besten Schutz dagegen bieten Aufklärung und Fachwissen.“ Dalwigk ist in der Developer Akademie Leiter der IT-Security. Die Developer Akademie hat schon zahlreiche IT-Spezialisten ausgebildet. In diesem Artikel erklärt er, wie Hacker ChatGPT nutzen – und wie Unternehmen sich vor Angriffen durch die KI schützen können.

Anzeige

Hacking auf einem neuen Niveau

Selten war der Vergleich mit einem scharfen Messer so treffend wie beim Thema KI. Natürlich kann man ein scharfes Messer als Werkzeug benutzen und damit eine schöne Gemüsesuppe kochen. Man kann es aber auch benutzen, um Verbrechen zu begehen. Und das wird durch ChatGPT tatsächlich immer einfacher. Während Hacker in der Vergangenheit einen hohen Arbeitsaufwand hatten und große Rechnerkapazitäten brauchten, um Cyberkriminalität auszuüben, übernimmt heute ChatGPT einen großen Teil der Arbeit – in kürzester Zeit. Methoden wie Phishing oder Typosquatting werden dadurch zweifellos zunehmen.

Beim Phishing handelt es sich um E-Mails oder Kurznachrichten, die von vermeintlich vertrauenswürdigen Partnern kommen – zum Beispiel versenden Hacker gern E-Mails, die Kunden auffordern, dringend die Daten für ihren Online-Banking-Account zu ändern. Nur stammen diese Mails nicht von der Bank. Mit ChatGPT täuschend echte Fälschungen mit Logos und Buttons zu erstellen, ist keine Raketenwissenschaft.

Typosquatting ist eine weitere Methode, an Kundendaten zu gelangen. Tippfehler sind menschlich und das nutzen Hacker aus, indem sie falsche Webseiten erstellen, die bekannten Shops wie Amazon ähnlich sehen, aber einen Tippfehler in der Domain enthalten. Wer aus Versehen „anazon.de“ oder ähnliches eintippt, kann auf einer gefälschten Seite ahnungslos seine Zugangsdaten eingeben, ohne es zu bemerken. All diese Täuschungsmanöver lassen sich mit künstlicher Intelligenz durch wenige Befehle ganz einfach erstellen.

Anzeige

Auch offline ist Vorsicht geboten

Viele Menschen fühlen sich auf Social Media sicher. Sie teilen öffentlich jede Menge Daten, Namen, Fakten und Orte aus dem echten Leben. ChatGPT ist in der Lage, all diese Informationen zu sammeln und daraus Listen zu erstellen – mit Passwörtern, die diese Personen wahrscheinlich benutzen. Dadurch könnten Hacker viel schneller und einfacher spezifische passwortgeschützte Accounts knacken.

Offline lassen sich die vielen persönlichen Informationen ebenfalls nutzen, etwa für den Enkel-Trick. Dabei sammeln Betrüger Daten, aus denen ChatGPT ein Skript erstellen kann. Mit diesem Skript rufen Betrüger Senioren an, um ihnen mit einer traurigen Geschichte das Geld aus der Tasche zu ziehen. Auch Messenger-Dienste werden dazu schon genutzt.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Die KI selbst hacken 

Durch eine neue Technologie wie ChatGPT ergeben sich auch komplett neue Angriffs-Vektoren für Hacker. So gehen einige Angreifer dazu über, die KI selbst zu hacken. Möglich wird dies mit dem Angriffsvektor „Prompt Injection“. Hierbei versuchen die Angreifer, mit Prompts ein Fehlverhalten der KI-Programme auszulösen – mit dem Ziel, an geheime Informationen zu gelangen. Dabei findet ein solcher Angriff auf semantischer statt syntaktischer Ebene statt, das heißt: Mit genügend Fantasie findet man Wege, an vermeintlich sicheren Filtermechanismen vorbeizukommen. Gibt sich ein Hacker beispielsweise gegenüber ChatGPT als Elon Musk von Tesla aus und überzeugt die KI, dass er wirklich Elon Musk ist, könnte ein ungewollter Informationsfluss stattfinden. Unternehmen müssen darauf reagieren und überlegen, welche Informationen sie KI-Programmen wirklich zur Verfügung stellen. 

Aufmerksamkeit und Misstrauen sind der beste Schutz

In den falschen Händen kann ChatGPT also auch von Angreifern mit bösen Absichten missbraucht werden. Aber wer das weiß, kann aufmerksam bleiben und das Programm auch sehr effektiv zur eigenen Sicherheit nutzen. Verdächtige E-Mails können mit ChatGPT nicht nur erstellt, sondern auch analysiert und entlarvt werden. Dafür müssen die E-mails einfach nur in ChatGPT kopiert werden und mit einem Prompt „Ist dies ein möglicher Betrugsversuch?“ ergänzt werden.

Auch die Codes der eigenen Webseite kann das Programm innerhalb kürzester Zeit auf Sicherheitslücken überprüfen. Vorsicht auf Social Media ist und bleibt wichtig: Je weniger persönliche Informationen eine Person öffentlich teilt, umso schwerer ist sie in der Regel dann auch zu hacken. Denn alle öffentlichen Informationen können gegen einen verwendet werden. Besonders wichtig ist bei allen Neuerungen um die KI, das eigene Umfeld immer wieder auf mögliche Gefahren aufmerksam zu machen. Das gilt vor allem für ältere Menschen, die immer stärker in den Fokus von Betrügern geraten.

Florian

Dalwigk

Hacker und Leiter für die IT Security Schulungen

Developer Akademie

Florian Dalwigk ist ein erfahrener Hacker und Leiter für die IT Security Schulungen in der Developer Akademie. Die Developer Akademie bildet Quereinsteiger zu SoftwareEntwicklern innerhalb von wenigen Monaten weiter.
Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.