IBM entwickelt Werkzeuge gegen Hackerangriffe durch „böse“ KI

Wer sagt, daß KI immer nur im Guten verwendet wird? Forscher haben herausgefunden: Auch künstliche Intelligenz kann ausgetrickst werden. Das stellt die sogenannte „Adversarial AI“, zu Deutsch „gegnerische künstliche Intelligenz“, deutlich unter Beweis.

Dabei handelt es sich um ein Hacking-Verfahren, bei dem durch externe Personen die neuronalen Netze der KI-Systeme infiltriert und Daten gezielt verfälscht oder verändert werden. Ein Beispiel aus dem autonomen Fahren macht dies anschaulich: während für das menschliche Auge ein Stoppschild auch als Negativabzug beziehungsweise Umkehrbild erkennbar ist, führt es im Datenpool einer künstlichen Intelligenz dazu, dass sich das Positiv- und Negativbild gegenseitig aufheben und das Stoppschild so übersehen wird. Eine fatale Schwäche, die schlimm enden kann.

Anzeige

IBM Security hat darauf mit der Adversarial Robustness Toolbox (ART) reagiert, einer Open-Source-Sammlung, die Entwicklern Hilfestellung leistet, um sich gegen KI-Infiltrationen zu rüsten. Die Toolbox vereint bisher gewonnene Kenntnisse und Methoden und ist plattformunabhängig nutzbar, was vorhergehende Modelle nicht leisten konnten. Mit ART können außerdem Angriffe gegen das KI-System durchgeführt und die effektivste Verteidigung gegen die Attacken als Baustein für eine verbesserte Abwehr genutzt werden. Mit jedem neuen Änderungsvorschlag durch ART wird damit die Verteidigung besser und die KI robuster gegen böswillige Angriffe.

ART von IBM soll über GitHub frei verfügbar sein und kann abgerufen werden unter: https://github.com/IBM/adversarial-robustness-toolbox

Anzeige
Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.