Richtlinien großer Social-Media-Betreiber in Bezug auf die Verwendung von KI-Bots sowie technischer Mechanismen zur Durchsetzung dieser Regeln können von KI-Bots leicht umgangen werden. Das haben Wissenschaftler der University of Notre Dame in umfangreichen Tests herausgefunden.
Acht Plattformen im Visier
KI-Bots können legitimen Zwecken dienen, etwa im Marketing oder im Kundenservice. Doch einige sind dafür ausgelegt, öffentliche Diskussionen zu manipulieren, zu Hassreden anzustiften, Fake News zu verbreiten oder zu betrügen und zu fälschen. Soziale Medien versuchen zwar, das zu verhindern, doch viele Bots sind so geartet, dass sie sich von den Hindernissen, die die Betreiber errichten, nicht aufhalten lassen.
Die Computerwissenschaftler haben acht Plattformen ins Visier genommen: LinkedIn, Mastodon, Reddit, TikTok, X und die Meta-Plattformen Facebook, Instagram und Threads. Darauf starteten sie Bots, um die Wirksamkeit der Maßnahmen gegen schädliche Bots zu testen. Das ernüchternde Ergebnis: Keiner davon wurde erkannt.
„Als Computerwissenschaftler wissen wir, wie diese Bots erstellt werden, wie sie sich einklinken und wie bösartig sie sein können. Aber wir hofften, dass die Social-Media-Plattformen diese Bots blockieren oder abschalten würden und es kein wirkliches Problem geben würde. Also haben wir uns angesehen, was die Plattformen nach eigener Aussage tun, und dann getestet, ob sie ihre Richtlinien tatsächlich durchsetzen“, sagt Experte Paul Brenner.
Meta bietet besten Schutz
Die Forscher haben festgestellt, dass es am schwierigsten war, Bots auf den Meta-Seiten zu starten. Sie benötigten mehrere Versuche, deren Mechanismen zur Durchsetzung von Richtlinien zu umgehen. Obwohl die Forscher drei Suspendierungen hinnehmen mussten, gelang es ihnen beim vierten Versuch, einen Bot zu starten und einen Test-Post zu veröffentlichen. Die einzige andere Plattform, die einen gewissen Schutz bot, war TikTok, da oft CAPTCHAs verwendet werden.
„Bei Reddit, Mastodon und X war es ganz einfach. Sie setzen ihre Richtlinien offensichtlich nicht effektiv durch“, urteilt Brenner. Dabei waren es keine Experten, die die Bots einschleusten, sondern Praktikanten, die nur über eine minimale Ausbildung verfügten. Trotzdem waren sie in der Lage, die Test-Bots mithilfe von Technologien zu starten, die für die Öffentlichkeit leicht zugänglich sind.
Insgesamt kommen die Forscher zu dem Schluss, dass keine der acht getesteten Social-Media-Plattformen ausreichenden Schutz und Überwachung bietet, um die Nutzer vor böswilligen Bot-Aktivitäten zu schützen. Brenner fordert Gesetze, wirtschaftliche Anreizstrukturen, Benutzerschulungen und technologische Fortschritte, um die Öffentlichkeit vor böswilligen Bots zu schützen.
(pd/pressetext)