Wie menschlich sollen Chatbots sein?

Chatbot-Gestaltung ist verkaufsentscheidend

Chatbot

Chatbots sind längst fester Bestandteil der digitalen Kommunikation – vor allem im Verkauf und Kundenservice. Doch wie sollten diese Programme gestaltet sein, damit sie effektiv funktionieren?

Eine aktuelle Untersuchung des Wirtschaftswissenschaftlers Scott Schanke von der University of Wisconsin-Milwaukee gibt darauf differenzierte Antworten – und zeigt: Nicht immer ist „menschlich“ besser (via Pressetext).

Anzeige

Chatbots im Secondhand-Verkauf: Menschlich oder maschinell?

Beim Verkauf gebrauchter Kleidung testete Schanke verschiedene Versionen eines Chatbots – manche nüchtern und eindeutig als Maschine erkennbar, andere mit menschlichen Eigenschaften wie einem Namen, kleinen Pausen oder sogar Witzen. Die Ergebnisse waren eindeutig: „Werden die Bots dagegen menschenähnlich gestaltet, versucht der Kunde zu handeln wie mit einem richtigen Verkäufer, um den besten Preis herauszuschlagen.“ Eine allzu menschliche Anmutung regt offenbar zum Feilschen an – was aus Verkäufersicht eher ungünstig ist.

Im Gegensatz dazu wirken nüchterne, sachliche Bots vertrauenswürdiger, weil sie nicht den Verdacht erwecken, es handele sich um eine verkaufspsychologische Masche. Der Eindruck von Seriosität kann so gestärkt werden.

Anthropomorphismus: Ein zweischneidiges Schwert

Interessanterweise zeigt sich in anderen Anwendungsfeldern eine gegenteilige Wirkung. In einer weiteren Studie setzte Schanke einen Chatbot für eine Organisation für soziale Gerechtigkeit in Minneapolis ein, um Spenden einzuwerben. Auch hier gab es unterschiedliche Grade der Menschlichkeit in der Gestaltung des Bots. Das Ergebnis: „Wenn Chatbots jedoch zu menschlich wirken, ist die Wahrscheinlichkeit geringer, dass potenzielle Spender ihre Brieftaschen öffnen“, so Schanke.

Anzeige

Der Grund dafür liegt offenbar in der emotional aufgeladenen Natur solcher Spendenaufrufe. „Ein hohes Maß an Anthropomorphismus sowie ein hohes Maß an emotionalen Appellen sind kontraproduktiv, da es sich bereits um einen emotionalen Kontext handelt. Auf potenzielle Spender wirkt das eher aggressiv“, erklärt der Forscher.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Die Zukunft: Chatbots mit vertrauter Stimme

Ein besonders spannender Aspekt der Forschung sind Sprachklone – also Chatbots, die nicht nur wie Menschen sprechen, sondern sogar die Stimme des Nutzers nachahmen können. In Experimenten ließen Schanke und sein Team Versuchspersonen mit solchen Bots telefonieren. Das überraschende Ergebnis: Selbst wenn den Probanden gesagt wurde, dass die Bots nicht vertrauenswürdig seien, glaubten sie den Informationen – wenn der Bot ihre eigene Stimme nutzte.

„Bots wirkten vertrauenswürdiger, wenn sie die Stimme des Teilnehmers imitierten und mit seiner eigenen Stimme sprachen.“ Diese Erkenntnis eröffnet faszinierende, aber auch ethisch brisante Möglichkeiten in der Weiterentwicklung von KI-Kommunikation.

Fazit: Kein One-Size-Fits-All

Die Studien zeigen, dass der Erfolg von Chatbots stark vom jeweiligen Einsatzgebiet abhängt. Im kommerziellen Kontext können nüchtern programmierte Bots Vertrauen fördern, während übertriebene Menschlichkeit kontraproduktiv sein kann. Umgekehrt sollten emotionale Kontexte mit technischer Zurückhaltung begegnet werden. Noch weiter geht der Einsatz von Sprachklonen – mit potenziell hoher Wirkung, aber auch hohem Diskussionsbedarf.

Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Pauline Dornig verstärkt seit Mai 2020 das Team des IT Verlags als Online-Redakteurin. (pd)
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.