Studie

KI-Warnung macht Social-Web-User höflicher

Künstliche Intelligenz (KI) kann Social-Media-User davon abhalten, verletzende Kommentare zu schreiben. Etwa ein Drittel der Anwender hört auf das System, wenn es sie vor der Schärfe ihrer Nachrichten warnt. Das ergibt eine Studie der Online-Plattform OpenWeb. Algorithmen können dabei helfen, Cybermobbing zu stoppen.

“Technologie kann einen Einfluss auf das menschliche Verhalten haben. Maschinen können lernen und auf Menschen reagieren. Dadurch können sie sicherere Umgebung für uns schaffen, ohne dabei die freie Meinungsäußerung zu verhindern. Wir glauben, dass es genauso wichtig ist, gutes Verhalten zu ermutigen, wie Cybermobber zu entfernen”, sagt OpenWeb-CEO Nadav Shoval.

Anzeige

OpenWeb hat auf mehreren Online-Plattformen analysiert, wie sich eine KI auswirkt, die Nutzer warnt, bevor sie einen besonders boshaften Kommentar posten. Mehr als 400.000 Kommentare von etwa 50.000 Anwendern haben die Analysten untersucht. Dabei hat sich herausgestellt, dass 34 Prozent der Nutzer, die eine Warnung erhalten hatten, ihre Kommentare tatsächlich änderten.

Mehr höfliche Kommentare

36 Prozent haben jedoch ihre verletzende Nachricht einfach gepostet, auch auf die Gefahr hin, wegen Verstößen gegen die Richtlinien von der Plattform gesperrt zu werden. Ein Viertel hat auch versucht, den Algorithmus zu täuschen, beispielsweise mit absichtlichen Rechtschreibfehlern.

Von den Usern, die auf die KI gehört haben, veränderten 54 Prozent den Inhalt so, dass er nicht mehr verletzend war. 45 Prozent haben einzelne Elemente entfernt und ihren Kommentar nur leicht abgeschwächt. Acht Prozent haben ihre Nachricht komplett umgeschrieben. Insgesamt haben sich laut OpenWeb die höflichen und überlegten Diskussionsbeiträge durch den Einsatz von KI um 12,5 Prozent vermehrt.

Anzeige

www.pressetext.com

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.