Microsoft intensiviert den Kampf gegen Betrug und Missbrauch auf seinen Plattformen. Zwischen April 2024 und April 2025 konnte der Technologiekonzern Betrugsversuche im Wert von 4 Milliarden Dollar (etwa 3,68 Milliarden Euro) vereiteln, 49.000 betrügerische Partnerschaftsanmeldungen ablehnen und rund 1,6 Millionen Bot-Anmeldeversuche pro Stunde blockieren.
Die Evolution KI-gestützter Cyber-Betrügereien
Künstliche Intelligenz senkt die technische Einstiegshürde für Betrüger und Cyberkriminelle. Tools machen es einfacher und kostengünstiger, überzeugende Inhalte für Cyberangriffe in immer schnellerem Tempo zu generieren. Die für Betrugsversuche eingesetzte KI-Software reicht von legitimen Apps, die für böswillige Zwecke missbraucht werden, bis hin zu speziellen Betrugs-Tools aus dem Cybercrime-Untergrund.
KI-Tools können das Web nach Unternehmensinformationen scannen und so Cyberkriminellen helfen, detaillierte Profile von Mitarbeitern oder anderen Zielen zu erstellen. Dies führt zu äußerst überzeugenden Social-Engineering-Ködern. In einigen Fällen locken Betrüger Opfer in zunehmend komplexe Betrugsszenarien mit gefälschten KI-optimierten Produktbewertungen und KI-generierten Schaufenstern, bei denen komplette Websites und E-Commerce-Marken inklusive gefälschter Unternehmensgeschichten und Kundenbewertungen erstellt werden.
Nach Angaben des Microsoft Anti-Fraud Teams finden KI-gestützte Betrugsangriffe weltweit statt, wobei ein Großteil der Aktivitäten aus China und Europa, insbesondere Deutschland, stammt. Dies liegt teilweise an Deutschlands Status als einem der größten E-Commerce- und Online-Dienstleistungsmärkte in der Europäischen Union. Je größer ein digitaler Marktplatz in einer Region ist, desto wahrscheinlicher ist ein proportionaler Grad an versuchtem Betrug.
E-Commerce-Betrug nimmt zu
Betrügerische E-Commerce-Websites können mit KI und anderen Tools, die minimales technisches Wissen erfordern, in Minuten eingerichtet werden. Früher brauchten Angreifer Tage oder Wochen, um überzeugende Websites zu erstellen. Diese betrügerischen Websites imitieren oft legitime Seiten, was es für Verbraucher schwierig macht, sie als Fälschung zu identifizieren.
Durch KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen werden Kunden getäuscht und glauben, mit einem echten Händler zu interagieren. Dies nutzt das Vertrauen der Verbraucher in bekannte Marken aus. KI-gestützte Kundendienst-Chatbots fügen eine weitere Täuschungsebene hinzu, indem sie überzeugend mit Kunden interagieren und Rückbuchungen durch Verzögerungstaktiken hinauszögern.
Microsoft hat robuste Verteidigungsmechanismen in seinen Produkten und Diensten implementiert. Microsoft Defender for Cloud bietet umfassenden Bedrohungsschutz für Azure-Ressourcen, einschließlich Schwachstellenbewertungen und Bedrohungserkennung für virtuelle Maschinen. Microsoft Edge verfügt über Website-Tippfehler-Schutz und Domänen-Imitationsschutz mittels Deep-Learning-Technologie, um Benutzer vor betrügerischen Websites zu schützen.
Job- und Beschäftigungsbetrug im Visier
Die rasante Entwicklung der generativen KI hat es Betrügern erleichtert, gefälschte Anzeigen auf verschiedenen Jobplattformen zu erstellen. Sie generieren gefälschte Profile mit gestohlenen Anmeldedaten, gefälschte Stellenangebote mit automatisch generierten Beschreibungen und KI-gestützte E-Mail-Kampagnen, um Arbeitssuchende zu phishen. KI-gestützte Interviews und automatisierte E-Mails erhöhen die Glaubwürdigkeit von Jobbetrügereien.
Um dies zu verhindern, sollten Jobplattformen eine Multi-Faktor-Authentifizierung für Arbeitgeberkonten einführen und verfügbare Betrugserkennungstechnologien nutzen, um verdächtige Inhalte zu erkennen. Betrüger fragen oft nach persönlichen Informationen, wie Lebensläufen oder sogar Bankdaten, unter dem Vorwand, die Informationen des Bewerbers zu überprüfen.
Tech-Support-Betrug: Eine anhaltende Bedrohung
Bei Tech-Support-Betrug handelt es sich um eine Art von Betrug, bei dem Betrüger Opfer dazu verleiten, unnötige technische Supportdienste zur Behebung nicht existierender Geräte- oder Softwareprobleme in Anspruch zu nehmen. Die Betrüger können dann Fernzugriff auf einen Computer erhalten und auf alle dort gespeicherten Informationen zugreifen.
Mitte April 2024 beobachtete Microsoft Threat Intelligence, wie die finanziell motivierte und auf Ransomware fokussierte Cyberkriminellengruppe Storm-1811 die Windows Quick Assist-Software missbrauchte, indem sie sich als IT-Support ausgab. Microsoft stellte fest, dass Storm-1811 legitime Organisationen durch Voice Phishing (Vishing) imitierte, um Opfer zu überzeugen, ihnen über Quick Assist Zugang zu ihren Geräten zu gewähren.
Quick Assist ist ein Tool, das es Benutzern ermöglicht, ihr Windows- oder macOS-Gerät über eine Fernverbindung mit einer anderen Person zu teilen. Microsoft hat Maßnahmen ergriffen, um Angriffe von Storm-1811 und anderen Gruppen zu mindern, indem identifizierte Konten und Mandanten, die mit nicht authentischem Verhalten in Verbindung stehen, gesperrt wurden.
Microsofts proaktiver Ansatz zur Betrugsprävention
Aufbauend auf der Secure Future Initiative (SFI) verfolgt Microsoft einen proaktiven Ansatz, um sicherzustellen, dass Produkte und Dienste „betrugssicher durch Design“ sind. Im Januar 2025 wurde eine neue Betrugsbekämpfungsrichtlinie eingeführt: Microsoft-Produktteams müssen nun Betrugsbekämpfungsbewertungen durchführen und Betrugskontrollen als Teil ihres Designprozesses implementieren.
Microsoft arbeitet aktiv daran, Betrugsversuche mit KI und anderen Technologien zu stoppen, indem es umfangreiche Erkennungsmodelle entwickelt. Diese basieren auf KI, wie maschinellem Lernen, um aus Betrugsversuchen zu lernen und diese abzuwehren. Das Unternehmen hat produktinterne Sicherheitskontrollen entwickelt, die Benutzer vor potenziell bösartigen Aktivitäten warnen.
Verbesserter Schutz in Quick Assist
Um Tech-Support-Betrug zu bekämpfen, hat Microsoft Warnmeldungen in Quick Assist integriert, die Benutzer vor möglichen Tech-Support-Betrügereien warnen, bevor sie jemandem Zugriff gewähren, der vorgibt, eine autorisierte IT-Abteilung oder andere Support-Ressource zu sein.
Windows-Benutzer müssen nun das Sicherheitsrisiko der Gewährung von Fernzugriff auf das Gerät lesen und bestätigen. Microsoft blockiert durchschnittlich 4.415 verdächtige Quick Assist-Verbindungsversuche täglich, was etwa 5,46% der globalen Verbindungsversuche entspricht.
Empfehlungen zum Schutz vor Betrug
Microsoft empfiehlt Unternehmen, Remote Help anstelle von Quick Assist für internen technischen Support zu verwenden. Remote Help ist für die interne Nutzung innerhalb einer Organisation konzipiert und enthält mehrere Funktionen, die die Sicherheit verbessern und das Risiko von Tech-Support-Hacks minimieren.
Verbraucher sollten vorsichtig sein bei:
- Impulskäufen: Betrüger erzeugen durch „zeitlich begrenzte“ Angebote und Countdown-Timer ein Gefühl der Dringlichkeit
- Vertrauen in gefälschte soziale Beweise: KI generiert gefälschte Bewertungen und Testimonials
- Klicks auf Anzeigen ohne Überprüfung: Viele Betrugsseiten verbreiten sich über KI-optimierte Social-Media-Anzeigen
- Missachtung der Zahlungssicherheit: Direkte Banküberweisungen oder Kryptowährungszahlungen vermeiden
Arbeitsuchende sollten die Legitimität von Arbeitgebern überprüfen, auf häufige Warnsignale für Jobbetrügereien achten und keine persönlichen oder finanziellen Informationen an nicht verifizierte Arbeitgeber weitergeben.