Das Risiko von Cyberattacken steigt rasant – für jedes einzelne Unternehmen. Der Grund: Gehörten in der Vergangenheit bestimmte Branchen zu den bevorzugten Zielscheiben, nehmen die Hacker mittlerweile jedes Unternehmen ins Visier, das potenziell in der Lage ist, Lösegeld zu bezahlen.
Hinzu kommt, dass die Cyberkriminellen mit Hilfe generativer KI-Systemen wie ChatGPT ungleich mehr Attacken in kürzerer Zeit durchführen können. Daniel Hofmann, CEO von Hornetsecurity, erklärt, weshalb generative KI-Modelle zum Angriffsturbo werden und wie ein guter Schutz aussehen sollte.
Perfide Tricks
Der Cyber Security Report 2023 zeigt, dass die häufigste Angriffsmethode nach wie vor das (Spear-) Phishing ist. Diese Social-Engineering-Attacken zielen auf den Menschen als größte Schwachstelle ab und setzen auf Momente der Unaufmerksamkeit sowie mangelndes Wissen. Sie treffen uns über Massenaussendungen oder auch über individualisierte Spear-Phishing-Mails.
War der Aufwand, Angriffsketten abzudecken, bislang für Hacker sehr groß, machen es generative KI-Systeme den Cyberkriminellen mittlerweile um ein Vielfaches leichter. Sie nutzen die KI-Modelle, um die Spear-Phishing-Angriffsketten zu automatisieren. So kann beispielsweise das System allein mit der E-Mail-Adresse eines möglichen Opfers im Internet nach weiteren Informationen wie der Position im Unternehmen suchen. Da solche KI-Systeme beliebig skalierbar sind, können Hacker in kürzester Zeit unzählige Varianten von Spear-Phishing-Nachrichten erzeugen und an viele verschiedene Zielopfer versenden.
KI und Maschinelles Lernen werden zum Täuschungsturbo
Doch das ist längst nicht das Ende der Fahnenstange: Durch Maschinelles Lernen werden die KI-Tools für Hacker noch attraktiver. Denn die Algorithmen versetzen die Tools in die Lage, sich selbst fortlaufend zu optimieren sowie neues und aktuelles Wissen dazuzulernen. Damit lassen sich der Erfolg von Spear-Phishing-Angriffen messen und nachfolgende E-Mails entsprechend anpassen. Und noch mehr: Wurde ein Account bereits gehackt, kann in einem E-Mail-Thread auf frühere Nachrichtenkontexte zurückzugriffen werden, um diese in Folgemails zu integrieren. Mittels selbstlernender Algorithmen haben die Hacker aber auch die Möglichkeit, in kurzer Zeit viele verschiedene Angriffsmöglichkeiten zu testen und die vorhandenen IT-Schwachstellen aufzuspüren.
KI-basierte Deepfake-Technologien erleichtern es den Hackern und Betrügern auch, mit Sprache und Video „kreativ“ zu werden – und zum Beispiel täuschend echte Nachahmungen zu erstellen. Mit sogenanntem Voice-Phishing (Vishing) führen sie dann ihre Opfer hinters Licht. Mit den neuesten KI-Tools reichen wenige Minuten aus, um die Fakes aus Audio- oder Videomaterial zu erstellen.
Es ist höchste Zeit!
Auf Unternehmen, Behörden, Institutionen und Versorgungsbetriebe rollt eine neue Welle KI-gestützter Cyberangriffe zu. Umfassende IT-Sicherheitstechnologien sind ein absolutes Muss. Dazu gehören E-Mail-Filter, Firewalls, Netzwerk- und Daten-Überwachungstools sowie regelmäßige Software-Patches. Wichtig dabei ist, auf innovative Security-Werkzeuge zu setzen, die KI zur Angriffserkennung nutzen. Um die Risiken von Kontoübernahmen und Identitätsdiebstahl zu senken, empfiehlt sich zudem eine Zwei-Faktor-Identifizierung (2FA) wie FIDO2 (Fast IDentity Online).
Doch Security-Technologien allein reichen nicht aus! Unternehmen und Behörden müssen eine nachhaltige Sicherheitskultur etablieren. Es geht darum, die Mitarbeiter einerseits gezielt für Cyber-Gefahren zu sensibilisieren und ihnen andererseits die entsprechenden Mittel an die Hand zu geben, um solche Angriffe erkennen zu können. Ein Weg dorthin ist ein dezidiertes und kontinuierliches Security Awareness Training. Fest steht: Nur wer sich auf technischer sowie auf Mitarbeiterebene auf die Angriffswellen vorbereitet, kann das Risiko maßgeblich senken!