Künstliche Intelligenz (KI) und Large Language Models (LLM) sind in aller Munde – insbesondere ChatGPT sorgt täglich für Schlagzeilen und erhitzte Gemüter. Eines scheint dabei sicher: KI kann ungemein nützlich sein – vor allem im Kampf gegen Internet-Scammer und Finanzbetrüger. Immer mehr Unternehmen vertrauen daher auf entsprechende Werkzeuge, um ihre KYC-Prozesse (Know Your Customer) zu digitalisieren und die Legitimität von Zugriffen zu überprüfen.
Mit KI-basierten Tools lassen sich beispielsweise Analyse und Verarbeitung von Benutzerdaten sowie Transaktionen automatisieren. Unternehmen können auf diese Weise ihr Onboarding verbessern und Engpässe im System vermeiden. Ebenso können Nutzer mit Sanktionslisten abgeglichen werden, um Betrugsabsichten und verdächtige Aktivitäten in Echtzeit anzuzeigen.
Allerdings führt jede technologische Innovation unweigerlich auch zu neuen Betrugsmethoden, die Lücken in Regulierungen und Gesetzen ausnutzen. Das zeigen auch die jüngsten Entwicklungen im Bereich KI und LLM. Folgende fünf Trends zeichnen sich bereits jetzt ab:
1. Social Engineering wird einfacher und schneller
ChatGPT und ähnliche Tools haben die Produktivität erhöht – jedoch leider auch die von Cyber-Kriminellen. Diese betreiben immer häufiger Social Engineering mithilfe von KI-basierten Tools, um sich beispielsweise erfolgreich als reale Personen bei Romance Scams auszugeben. Auch bei Phishing-Angriffen erstellen sie verstärkt mithilfe von künstlicher Intelligenz gefälschte Dokumente wie Rechnungen, Verträge und Vermögensbilanzen – oftmals noch personalisierter und genauer als die Originale. Bisher enthielten solche gefälschten Dokumente zudem häufig Rechtschreib- oder Grammatikfehler und waren damit leichter als Betrug zu erkennen. Mithilfe von KI lassen sich solche Fehler jedoch leichter vermeiden und die Grenze zwischen echten und falschen Dokumenten verschwimmt immer mehr.
2. Cyberkriminalität erfordert kaum mehr technisches Know-how
Früher mussten Cyberkriminelle Software und Code verstehen, um glaubwürdige Dokumente oder Websites für ihre Betrugsversuche zu erstellen. Mithilfe der nutzerfreundlichen KI-basierten Tools können Cyberkriminelle auch mit wenig IT-Wissen und oft sogar ohne Programmierkenntnisse Malware, schädliche VBA-Skripte (Visual Basic for Appliances) und realistische Chatbots erstellen, um Opfer noch schneller und effektiver zu manipulieren.
3. Anspruchsvolle Dokumentenfälschung
Nicht nur LLM gehören zu den aktuellen KI-Trends. Auch Bilder, Stimmen und sogar ganze 3D-Modelle lassen sich glaubwürdig mit künstlicher Intelligenz erstellen. Damit sind Betrüger in der Lage, Pässe und andere offizielle Dokumente zu fälschen. Generative KI-Modelle vereinfachen Identitätsdiebstahl und den Zugriff auf sensible Dokumente sowie die darin enthaltenen biometrischen Informationen. Ohne strenge Security-Checks oder moderne Gesichtserkennungssoftware wird es also schwieriger für Unternehmen, Dokumente auf ihre Echtheit zu überprüfen.
4. Chatverlauf als Risiko für den Datenschutz
Eine der großen ChatGPT-Schlagzeilen kam im März 2023 als Italiens Datenschutzbehörde den Zugang zu ChatGPT im Land zwischenzeitlich gesperrt hatte. Grund war eine weitere Gefahr bei der Nutzung des Tools: Die Plattform enthielt einen Fehler, durch den der Chatverlauf und persönliche Daten für andere Benutzer sichtbar waren – Klarnamen, Adressen, Passwörter sowie alle Eingaben in das LLM waren betroffen. Diese Lücke im System öffnete Betrügern Tür und Tor, sich diese Daten zu eigen zu machen und sich als die betreffenden Personen auszugeben.
5. Manipulierte Informationen
Was ist wahr und was ist gefälscht? Das ist nicht nur in Bezug auf klassische Betrugsfälle immer schwieriger zu erkennen. Die Gefahr durch „Fake News“ wird voraussichtlich exponentiell zunehmen, während die manipulierten Inhalte immer authentischer klingen. Auch Datenbanken müssen in dieser Hinsicht sorgfältiger auf ihren Wahrheitsgehalt überprüft werden. Unternehmen sollten sich keinesfalls ausschließlich auf LLM verlassen, um beispielsweise ihre KYC-Prozesse und Geldwäsche-Checks durchzuführen. Unzählige Informationen – gerade in Bezug auf Sanktionslisten – lassen sich in den LLM manipulieren und führen so zu falschen Schlussfolgerungen.
www.idnow.io