Instant-Messaging-Dienst Snapchat hat schnell auf Kritik der „Washington Post“ bezüglich der Nutzung von GPT geantwortet. Der auf GPT basierte Chatbot für Snapchat+Abonnenten soll auf unsichere und unangemessene Weise reagiert haben. Daraufhin brachte Snapchat neue Tools auf den Markt, darunter einen altersgerechten Filter und Einblicke für Eltern, um das KI-Chatbot-Erlebnis sicherer zu machen.
KI wird in Schach gehalten
Snapchat habe nach dem Start erfahren, dass Nutzer versucht hatten, „den Chatbot dazu zu bringen, Antworten zu geben, die nicht unseren Richtlinien entsprechen“, heißt es. Daraufhin brachte Snapchat Tools auf den Markt, um die KI-Antworten in Schach zu halten.
Der Bot habe allerdings in nur 0,01 Prozent der Fälle Antworten in einer „nicht konformen“ Sprache gegeben, so Snapchat. Verherrlichung von Gewalt, Nutzung bestimmter sexueller Begriffe, illegaler Drogenkonsum, sexueller Missbrauch von Kindern, Mobbing, Hassreden, abfällige oder voreingenommene Aussagen, Rassismus und Frauenfeindlichkeit gelten als „nicht konform“.
Antworten nur mit Altersangabe
Snapchat hat einen neuen Filter integriert, der die KI-Software das Geburtsdatum der Nutzer erkennen lässt, sodass sie altersgerechte Antworten liefert. Das Unternehmen sagt, dass der Chatbot „konsequent das Alter berücksichtigt“, wenn er sich mit den Nutzern unterhält. Es sei auch geplant, in den kommenden Wochen Eltern oder Erziehungsberechtigten mehr Einblicke in die Interaktionen von Kindern mit dem Bot zu geben.
Die neue Funktion teilt mit, ob Kinder mit der KI kommunizieren und wie häufig diese Interaktionen stattfinden. Sowohl der Erziehungsberechtigte als auch die Jugendlichen müssen sich für die Verwendung des sogenannten „Family Centers“ entscheiden, um diese Kindersicherungsfunktionen zu nutzen. In einem Blog-Beitrag warnt Snapchat, der Chatbot sei kein „echter Freund“. Benutzer werden auch über die Speicherung ihrer EIngaben informiert, wenn sie den Chat mit dem Bot starten.
www.pressetext.com