Cyberangriffe finden nicht mehr nur manuell statt. Hacker verwenden schon heute generative KI für ihre Angriffe und lassen sich schädlichen Code automatisiert erstellen.
Wir sollten von den Hackern lernen und hier Feuer mit Feuer bekämpfen. Wenn Hacker generative KI für Angriffe verwenden, müssen wir sie eben auch nutzen, um uns besser zu verteidigen.
Diese innovative Technologie spielt bereits eine ausschlaggebende Rolle im Kampf um unsere Daten. Es ist schon heute möglich, KI-Modelle zum automatisierten Suchen und Finden von Sicherheitslücken in Softwarecode sowie zu deren Problembehebung zu nutzen. Entwickler können so auf automatisierte Lösungsvorschläge zurückgreifen und brauchen nur noch einen Bruchteil der Zeit zur Fehlerbehebung. Ihre Verwendung macht Anwendungen nicht nur sicherer, sondern reduziert auch die Arbeitslast der Mitarbeitenden stark, wodurch sie Zeit für andere Aufgaben gewinnen, die ansonsten vielleicht zu kurz kommen.
Doch bei der Wahl des KI-Tools ist Vorsicht geboten. Öffentlich zugängliche KI, die mit ungefilterten Datensätzen trainiert wurde, bringt hier oftmals mehr Schaden als Nutzen. Denn deren Datenbasis wird allgemein nicht von Experten geprüft und kann Fehler enthalten, die anschließend von der KI reproduziert werden. Stattdessen braucht es Tools, die auf Responsable AI basieren, die mit von Sicherheitsexperten sorgfältig kuratierten Daten trainiert wurde. Diese Daten sollten außerdem aus genau dem Umfeld stammen, in dem die KI eingesetzt wird. Sensible Attribute der Daten, die zum Training verwendet werden, gilt es zu anonymisieren oder zu maskieren.
Zudem ist die Verwendung kryptografischer Techniken für die Datenverschlüsselung sinnvoll. Nur so wird KI auch für Entwickler ein wirklich wertvolles Tool.
www.veracode.com