Menschen interagieren mit Agenten der Künstlichen Intelligenz (KI), wie etwa einem Chatbot, unterschiedlich, je nachdem, welche Infos sie zuvor über ihn bekommen haben. Wenn man jemandem sagt, dass ein konversationsfähiger KI-Agent zur Unterstützung der psychischen Gesundheit entweder einfühlsam, neutral oder manipulativ ist, beeinflusst das die Art und Weise, wie er mit ihm kommuniziert und wie stark er dem Agenten vertraut.
Das haben Medienwissenschaftler des Massachusetts Institute of Technology (MIT) und der Arizona State University herausgefunden.
Fürsorglich oder bösartig
Die meisten User, denen gesagt wurde, der KI-Agent sei fürsorglich, glaubten, dass dies tatsächlich der Fall war und bewerteten deren Leistung höher als diejenigen, denen man eingeredet hatte, er sei manipulativ. Gleichzeitig hielten weniger als die Hälfte der Benutzer, denen gesagt wurde, dass der Agent manipulativ sei, den Chatbot tatsächlich für bösartig. Das deutet nach Ansicht der Forscher darauf hin, dass Menschen möglicherweise versuchen, das Gute in der KI zu sehen – genauso, wie sie es bei ihren Mitmenschen tun.
Die Stimmung in Gesprächen zwischen Benutzern und KI wurde mit der Zeit positiver, wenn der Benutzer glaubte, die KI sei einfühlsam, während das Gegenteil bei Benutzern eintrat, die sie für schändlich hielten. “Wenn wir Benutzern sagen, welche Eigenschaften ein KI-Agent hat, verändert das nicht nur ihr mentales Modell, sondern auch ihr Verhalten”, sagt Pat Pataranutaporn, Doktorand in der Fluid-Interfaces-Gruppe des MIT Media Lab. “Und da die KI auf den Benutzer reagiert, ändert sich deren Verhalten, wenn der Nutzer sein Verhalten ändert.”
KI-Blackbox verstehen
Die Forscher wollten herausfinden, wie viel von der Empathie und Effektivität, die Menschen in der KI sehen, auf subjektiver Wahrnehmung und wie viel auf der Technologie selbst beruht. Sie wollten auch untersuchen, ob man durch Vorabinformation die subjektive Wahrnehmung einer Person manipulieren kann. “Die KI ist eine Blackbox, daher neigen wir dazu, sie mit etwas anderem zu assoziieren, das wir verstehen können”, so Pataranutaporn.
In einem praktischen Test hat das Team um Pataranutaporn 310 Probanden jeweils 30 Minuten lang mit einem KI-Konversationsbegleiter für psychische Gesundheit interagieren lassen. So sollte festgestellt werden, ob sie ihn einem Freund empfehlen würden. Anschließend wurden die Agenten und ihre Erfahrungen damit von den Probanden bewertet. Sie wurden in drei Gruppen unterteilt.
Die erste bekam vor dem Gespräch neutrale Infos über den Agenten, die zweite, dass er wohlwollende Absichten habe und sich um das Wohlergehen des Benutzers kümmere, und der dritten Gruppe wurde gesagt, der Agent habe böswillige Absichten und würde versuchen, Benutzer zu täuschen. Nur 44 Prozent derjenigen, die negative Infos über den Agenten bekommen hatten, glaubten ihm, während 88 Prozent derjenigen in der positiven Gruppe und 79 Prozent derjenigen in der neutralen Gruppe glaubten, die KI sei einfühlsam oder neutral.
www.pressetext.com