Die Auswirkungen von ChatGPT auf die IT-Security

KI gegen KI?

KI gegen KI, ChatGPT, IT-Security

Die Einsatzgebiete von ChatGPT sind äußerst vielfältig. Begeisterte Nutzer lassen sich etwa Märchen schreiben oder lösen juristische Probleme aus Examen. Auch Programmieren und Coden kann das Tool mittlerweile ganz passabel. Die Suche mithilfe von Internet-Suchmaschinen wird ebenfalls gerade revolutioniert. Bisher taten sich die Such-Algorithmen noch schwer, mit Native-Language-Anfragen umzugehen, weshalb man sich mit abstrakten Stichpunkten begnügen musste.

ChatGPT hingegen löst natürlich klingende Fragestellungen wie „Nenne mir bitte alle Hotels in Salzburg vom 03. bis 05. März für zwei Personen in der Preisklasse von 80 bis 150 Euro pro Nacht“ ohne größere Probleme.

Anzeige

Doch der Fortschritt in der Technologie hat natürlich seine Schattenseiten. Mittlerweile loten nicht nur normale Nutzer, sondern auch immer häufiger Cyberkriminelle die zahlreichen Möglichkeiten der neuen Technologie aus. Auf Knopfdruck könnte ChatGPT etwa täuschend echte Phishing-Mails verfassen. Sicherheitsexperten haben zudem in Experimenten dargelegt, wie einfach es ist, mit ChatGPT polymorphe Malware zu erstellen. Diese adaptiert dabei ihren Code ständig, sodass herkömmliche Virenscanner – die auf Mustererkennung basieren – sie nicht erkennen.

Mit ChatGPT sind selbst technisch wenig bedarfte Cyberkriminelle in der Lage, automatisiert unzählige Varianten einer solchen Schadsoftware zu erzeugen und zu verbreiten. Auch wenn Open AI natürlich versucht, solchem Missbrauch den Riegel vorzuschieben, bleibt der einzige Weg, sich zu schützen, ebenfalls mit KI nachzurüsten.

Das Wettrüsten hat schon begonnen

Zukunftsweisende Security-Systeme verwenden bereits seit einiger Zeit KI als Unterstützung bei der Bedrohungserkennung. Anhand von Machine Learning versuchen sie Codeschnipsel zu identifizieren, die denen bekannter Malware ähneln. Zudem basieren die meisten Abwehrmechanismen heutzutage auf Verhaltenserkennung: Sie untersuchen Aktivitäten im Netzwerk, um dubiose Vorgänge aufzuspüren. Sollte ein Mitarbeiter ohne jeden Grund plötzlich große Datenmengen herunterladen oder ein Kunde kleine Geldbeträge auf viele unterschiedliche Konten einzahlen, schlägt das System Alarm. Vor allem Banken setzen solche Algorithmen oft zur Betrugserkennung ein. Als Antwort darauf zielen Cyberkriminelle darauf ab, diese Erkennungsmethoden auszutricksen und täuschen möglichst unauffälliges Verhalten vor. Ihre Vorgehensweisen werden dabei immer komplexer und schwieriger aufzuspüren.

Fazit: Nur KI-gestützte Sicherheitssysteme sind gegen KI-Angriffe sicher

Unternehmen müssen in Zukunft damit rechnen, dass Angreifer vermehrt auf künstliche Intelligenz setzen. Öffentliche Projekte wie ChatGPT sind dabei nicht die einzigen Tools, die ihnen zur Verfügung stehen. Im Darknet existieren zahlreiche, höchst professionell aufgestellte Organisationen, die wie Service-Unternehmen agieren. Sie besitzen erhebliche finanzielle Ressourcen und können ansprechende Gehälter auszahlen, um Fachpersonal aus der Industrie abzuwerben. Einige KI-Experten können einer solchen Verlockung nicht widerstehen und wechseln auf die kriminelle Seite. Das Wettrüsten geht also weiter und beschleunigt sich immer mehr. Am Ende gewinnt dann die KI mit dem besseren Algorithmus. Gerade deshalb sollten Unternehmen schon jetzt in eine sichere Zukunft mit moderner Schutztechnologie investieren, damit sie nicht auf dem falschen Fuß erwischt werden.

Wolfgang

Kurz

CEO und Founder

indevis IT-Consulting and Solutions GmbH

Wolfgang Kurz, Dipl.-Ing., Jahrgang 1973, gründete die indevis GmbH noch während seines Studiums der Elektrotechnik in München, Abschlussjahrgang 2000. Er ist ausgewiesener Experte im Bereich Infrastruktur und Rechenzentrum und verantwortete bis 2019 den technischen Bereich bei indevis, insbesondere die Entwicklung sowie den Betrieb der indevis Managed Security Services. 
Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.