Chatbots sind längst fester Bestandteil der digitalen Kommunikation – vor allem im Verkauf und Kundenservice. Doch wie sollten diese Programme gestaltet sein, damit sie effektiv funktionieren?
Eine aktuelle Untersuchung des Wirtschaftswissenschaftlers Scott Schanke von der University of Wisconsin-Milwaukee gibt darauf differenzierte Antworten – und zeigt: Nicht immer ist „menschlich“ besser (via Pressetext).
Chatbots im Secondhand-Verkauf: Menschlich oder maschinell?
Beim Verkauf gebrauchter Kleidung testete Schanke verschiedene Versionen eines Chatbots – manche nüchtern und eindeutig als Maschine erkennbar, andere mit menschlichen Eigenschaften wie einem Namen, kleinen Pausen oder sogar Witzen. Die Ergebnisse waren eindeutig: „Werden die Bots dagegen menschenähnlich gestaltet, versucht der Kunde zu handeln wie mit einem richtigen Verkäufer, um den besten Preis herauszuschlagen.“ Eine allzu menschliche Anmutung regt offenbar zum Feilschen an – was aus Verkäufersicht eher ungünstig ist.
Im Gegensatz dazu wirken nüchterne, sachliche Bots vertrauenswürdiger, weil sie nicht den Verdacht erwecken, es handele sich um eine verkaufspsychologische Masche. Der Eindruck von Seriosität kann so gestärkt werden.
Anthropomorphismus: Ein zweischneidiges Schwert
Interessanterweise zeigt sich in anderen Anwendungsfeldern eine gegenteilige Wirkung. In einer weiteren Studie setzte Schanke einen Chatbot für eine Organisation für soziale Gerechtigkeit in Minneapolis ein, um Spenden einzuwerben. Auch hier gab es unterschiedliche Grade der Menschlichkeit in der Gestaltung des Bots. Das Ergebnis: „Wenn Chatbots jedoch zu menschlich wirken, ist die Wahrscheinlichkeit geringer, dass potenzielle Spender ihre Brieftaschen öffnen“, so Schanke.
Der Grund dafür liegt offenbar in der emotional aufgeladenen Natur solcher Spendenaufrufe. „Ein hohes Maß an Anthropomorphismus sowie ein hohes Maß an emotionalen Appellen sind kontraproduktiv, da es sich bereits um einen emotionalen Kontext handelt. Auf potenzielle Spender wirkt das eher aggressiv“, erklärt der Forscher.
Die Zukunft: Chatbots mit vertrauter Stimme
Ein besonders spannender Aspekt der Forschung sind Sprachklone – also Chatbots, die nicht nur wie Menschen sprechen, sondern sogar die Stimme des Nutzers nachahmen können. In Experimenten ließen Schanke und sein Team Versuchspersonen mit solchen Bots telefonieren. Das überraschende Ergebnis: Selbst wenn den Probanden gesagt wurde, dass die Bots nicht vertrauenswürdig seien, glaubten sie den Informationen – wenn der Bot ihre eigene Stimme nutzte.
„Bots wirkten vertrauenswürdiger, wenn sie die Stimme des Teilnehmers imitierten und mit seiner eigenen Stimme sprachen.“ Diese Erkenntnis eröffnet faszinierende, aber auch ethisch brisante Möglichkeiten in der Weiterentwicklung von KI-Kommunikation.
Fazit: Kein One-Size-Fits-All
Die Studien zeigen, dass der Erfolg von Chatbots stark vom jeweiligen Einsatzgebiet abhängt. Im kommerziellen Kontext können nüchtern programmierte Bots Vertrauen fördern, während übertriebene Menschlichkeit kontraproduktiv sein kann. Umgekehrt sollten emotionale Kontexte mit technischer Zurückhaltung begegnet werden. Noch weiter geht der Einsatz von Sprachklonen – mit potenziell hoher Wirkung, aber auch hohem Diskussionsbedarf.