Trend Micro kündigt neue Funktionen seiner Cybersecurity-Lösungen für Unternehmen und Privatanwender an. Diese schützen alle Umgebungen vor der wachsenden Bedrohung durch Angriffe und Betrugsversuche mittels Künstlicher Intelligenz (KI).
Deepfakes (täuschend echt wirkende, mit Hilfe von Künstlicher Intelligenz manipulierte Bild-, Audio- oder Videoaufnahmen) stellen ein erhebliches Risiko für Unternehmen und Einzelpersonen dar. Gelingt ein Betrug mittels unentdeckter Deepfakes, kann dies zu finanziellen Einbußen, Rufschädigung, rechtlichen Problemen, Arbeitsplatzverlust, Identitätsdiebstahl und sogar Schäden für die psychische oder physische Gesundheit der Betroffenen führen. In einer kürzlich von Trend Micro durchgeführten Studie gaben 36 Prozent der Verbraucher an, schon einen Betrugsversuch mittels Deepfake erlebt zu haben. Auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt vor entsprechend gefälschten Videos.
Aktuelle Erkenntnisse von Trend Research zeigen, dass sich Cyberkriminelle zunehmend mit KI befassen. Dies führt zu einer Zunahme von KI-basierten Tools im kriminellen Untergrund, die günstiger und leichter zugänglich sind als je zuvor. Mit diesen können Kriminelle jeglicher Qualifikationsstufe, Angriffe in großem Umfang starten. Folgen sind Erpressungen, Identitätsdiebstahl, Betrug oder Verbreitung von Fehlinformationen. Die Technologie wird zudem missbraucht, um „Human Verification“-Systeme und biometrische Sicherheitsmaßnahmen wie die Gesichtserkennung zu überwinden.
„Leicht verfügbare, qualitativ hochwertige GenAI-Anwendungen sind heute in der Lage, fotorealistische Videoinhalte zu erstellen, die ein Publikum täuschen oder in die Irre führen können“, erklärt Dan Ayoub, Analyst bei Gartner (1). „Angesichts der niedrigen Einstiegshürden für die erfolgreiche Nutzung dieser Tools und ihrer zunehmenden Raffinesse, ist die Entwicklung eines methodischen Ansatzes zur Erkennung von GenAI-Deepfake-Inhalten notwendig geworden.“
Daher kommt der Erkennung und Bekämpfung dieser KI-basierten Methoden eine zentrale Bedeutung bei der Kontrolle der Angriffsoberfläche für Unternehmen und dem Senken des allgemeinen Cyberrisikos für Verbraucher zu. In einer kürzlich durchgeführten Umfrage von Trend Micro äußerten sich 71 Prozent der Befragten negativ über Deepfakes und geben an, dass diese vor allem zu Betrugszwecken eingesetzt werden.
Schutz vor Deepfakes in der Security-Plattform
Die neue Deepfake-Erkennungstechnologie, die in Kürze innerhalb der Trend Vision One-Plattform verfügbar ist, nutzt fortschrittliche Methoden, um KI-generierte Inhalte zu erkennen. Diese Technologie steht auch Verbrauchern im kostenlosen Trend Micro Deepfake Inspector zur Verfügung.
Die Plattform geht über Techniken wie die Analyse von Bildrauschen und Farberkennung hinaus und analysiert zusätzlich Elemente des Benutzerverhaltens, um einen stärkeren Ansatz zur Erkennung und Unterbindung von Deepfakes zu bieten. Nach der Erkennung alarmiert Trend Micro sofort die Sicherheitsteams des Unternehmens. Diese können aus den gewonnenen Erkenntnissen lernen, Mitarbeiter schulen und proaktive Maßnahmen ergreifen, um zukünftige Angriffe zu verhindern.
Trend Micro Deepfake Inspector hilft dabei, festzustellen, ob ein Teilnehmer einer Live-Videokonversation eine Deepfake-Technologie verwendet und macht den Benutzer darauf aufmerksam, dass die Person in der Konversation möglicherweise jemand anderes ist. Die Analyse findet in Echtzeit und lokal auf dem Endgerät statt, sodass die Daten und die Privatsphäre der Nutzer jederzeit geschützt sind.
Die Einführung der neuen Lösungen von Trend Micro ist Teil der Mission des Unternehmens, seine Kunden auch im KI-Zeitalter umfassend zu schützen. Zur Unterstützung einer Zero-Trust-Strategie hat Trend Micro bereits kürzlich neue Funktionen für Trend Vision One veröffentlicht. Diese umfassen:
- Zentralisierte Verwaltung des Zugriffs und der Nutzung von generativer Künstlicher Intelligenz (GenAI) durch Mitarbeiter
- Überprüfung von Prompts, um Datenlecks und bösartige Injektionen zu verhindern
- Filtern von GenAI-Inhalten, um Compliance-Anforderungen zu erfüllen
- Abwehr von Large Language Model (LLM)-Angriffen
„Unsere jüngsten Untersuchungen zeigen mehrere neue Deepfake-Tools, die es Cyberkriminellen auf allen Ebenen leicht machen, schädliche Betrügereien und Social Engineering zu starten und Sicherheitsmaßnahmen zu umgehen“, berichtet Udo Schneider, Governance, Risk & Compliance Lead, Europe bei Trend Micro. „Mit neuen Funktionen zur Erkennung von Deepfakes und anderen Formen des KI-Betrugs setzen wir uns federführend für die Sicherheit unserer Kunden ein. Wie schon bei früheren Veränderungen in der Bedrohungs- und IT-Landschaft haben wir die Herausforderung, KI zu sichern, erkannt und uns ihr gestellt.“
(pd/Trend Micro)