Studie

Mit KI auf Du und Du – was macht das mit uns?

KI, Freund

Ein Gespräch mit einem KI-Chatbot führen wie mit einem Menschen, das können sich bislang nur wenige in Deutschland vorstellen. Bei den 30- bis 44-Jährigen ist es allerdings schon jeder Zehnte.

Das sind Ergebnisse der ersten empirischen Studie zu gesellschaftlichen, kognitiven und sozialen Auswirkungen generativer KI (Künstliche Intelligenz) in Deutschland. Das Institut für Demoskopie Allensbach hat im Auftrag der Telekom Menschen repräsentativ zur Nutzung und potenziellen Auswirkungen von digitalen Assistenten und sozialen Bots auf Alltag und Gesellschaft befragt. Unter anderem machten die Meinungsforscher bei vielen KI-Nutzern ein Spannungsfeld zwischen Bequemlichkeit und Skepsis aus. Es ist bequem, KI-Ergebnissen zu vertrauen, auch wenn man sich der Fehleranfälligkeit bewusst ist.

Anzeige

Eine Gesprächspartnerin, die immer da ist, nie krank wird und meist höflich zustimmt – so präsentiert sich generative KI. Zudem weiß sie scheinbar fast alles. Das macht attraktiv: Bereits jeder Vierte in Deutschland über 16 Jahren nutzt generative KI, etwa in Form von KI-Chatbots z.B. für Recherche, Texterstellung oder Übersetzungen. 39 Prozent der Anwender nutzen KI-Chatbots sogar täglich oder mindestens einmal wöchentlich. Tendenz steigend. Erstaunlich bei einer Technologie, die gerade einmal zwei Jahre alt ist. Eine so schnelle Verbreitung und bedenkenlose Nutzung gab es noch nie.

Die Studie „KI-Assistenten und wir. Fast Food Wissen und virtuelle Liebe.“ setzt sich ausführlich mit den Auswirkungen der Technologie auseinander. Basis sind Daten einer quantitativen repräsentativen Umfrage unter mehr als 1.000 Menschen über 16 Jahren deutschlandweit. Eine qualitative Befragung von KI-Experten und technikaffinen Konsumenten rundet das Bild ab.

63 Prozent der KI-Nutzer sind fasziniert davon, was generative KI heute schon leisten kann. “Dass die Nutzer generativer KI von deren Leistungsfähigkeit so verbreitet begeistert sind, erklärt auch, dass über zwei Drittel davon ausgehen, dass sie diese Tools in Zukunft noch häufiger nutzen werden”, sagt Dr. Steffen de Sombre, Studienleiter Allensbach. Die Beurteilung, ob diese Technologie eher eine Chance oder ein Risiko ist, hängt stark von der eigenen Nutzung ab. Vielnutzer sehen eher die Chancen. Nichtnutzer die Risiken.

Anzeige

Smarte Begleiter: Sind Maschinen die besseren Freunde?

Im Dialog mit digitalen Assistenten entsteht bereits heute häufig das Gefühl eines Austauschs mit einem echten Menschen. 22 Prozent – und damit mehr als jeder Fünfte – der häufigen Nutzer haben im Dialog schon einmal vergessen, dass sie mit einer Maschine sprechen. Diese schwierige Unterscheidung zwischen einem menschlichen Gegenüber und einer Maschine bereitet der Mehrheit der Nutzer Sorgen.

Dennoch ist KI kein Ersatz für Freunde. Den qualitativ befragten Nutzern fehlen dafür doch noch menschliche Ausstrahlung, Persönlichkeit, Empathie und die ganze Palette der emotionalen Schwingungen. Die befragten Experten weisen zudem darauf hin, dass vor allem auch gemeinsame reale Erfahrungen fehlen, die eine wichtige Komponente einer Freundschaft sind. Große Einsamkeit kann dabei durch die Kommunikation mit einem KI-Chatbot gelindert werden. Die Experten halten das aber nicht für eine nachhaltige Lösung. Im Vergleich zu echten menschlichen Begegnungen ist diese Form der Kommunikation doch defizitär.

KI als Psychotherapeut oder Beichtvater – eher (noch) nicht.

Ein interessanter Widerspruch entspinnt sich bei der Frage, ob digitale Chatbots die Rolle eines Psychotherapeuten übernehmen können. Dieses Gedankenspiel trifft in der quantitativen Befragung überwiegend auf starke Ablehnung. Rund zwei Drittel der Personen, die von KI-Chatbots zumindest schon mal gehört haben, würden den Einsatz von KI zu diesem Zweck sogar generell verbieten. Dagegen können sich die befragten Experten einen Einsatz als Unterstützung bei einer Behandlung, langen Wartezeiten auf einen Therapieplatz oder als Diagnose-Tool zukünftig vorstellen. Als eigenständiges Tool, um psychische Probleme zu therapieren, lehnen aber auch Experten KI-Chatbots ab.

Einen Vorteil sehen jedoch auch die Nutzer: 29 Prozent sagen, dass sie mit einem KI-Chatbot über alles sprechen könnten, ohne dass es peinlich wird. Das kann auch in der Psychotherapie ein Vorteil sein, bestätigen die Experten.

Doch grundsätzlich vertrauen sich die Menschen bei heiklen Themen wie Beziehungsproblemen, Verliebtheit, schweren Krankheiten, religiösen Überzeugungen – wenn überhaupt – weiterhin lieber ihren Freunden an als einem Bot. Nur 0,6 Prozent der Nutzer von generativer KI haben den künstlichen Assistenten schon einmal bei privaten Problemen wie Liebeskummer oder Einsamkeit um Rat gefragt. Andererseits kann sich jeweils rund jeder Zehnte die Nutzung für Beziehungstipps, Glaubens- und Gewissensfragen oder einfach als Gesprächspartner vorstellen.

Am häufigsten werden KI-Chatbots derzeit dafür genutzt, Informationen zu suchen, Texte zu übersetzen, erstellen oder überarbeiten zu lassen sowie sich etwas erklären oder zusammenfassen zu lassen. Rund zwei Drittel der Anwender finden es besonders hilfreich, dass durch solche Programme viel Wissen unkompliziert und leicht verständlich zugänglich sei.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Ich. Ich. Ich. KI widerspricht nicht.

52 Prozent der Nutzer befürchten, dass sich die zunehmende Kommunikation mit KI-Programmen auf den persönlichen Umgang der Menschen miteinander auswirken wird. Der möglicherweise zunehmende Verlust der Konfliktfähigkeit und Kommunikationskompetenzen sowie der Fähigkeiten der Interaktion wird von den Experten als kritischer Punkt thematisiert. In der Kommunikation mit einer KI geht es stets einseitig um die Bedürfnisse des Nutzers. Dadurch könnte in realen Beziehungen verlernt werden, Widerspruch auszuhalten und Konflikte auszutragen. Weil das echte Gegenüber – anders als eine KI – auch Bedürfnisse und Wünsche hat.

Es liegt jedoch auch ein großer Vorteil in der „menschenähnlich“ gestalteten Kommunikation mit KI. Sie bietet eine einfache und intuitive Handhabung. Dies kann Hemmschwellen reduzieren und so den Zugang zu neuen Technologien erleichtern.

„KI bietet uns neue Chancen, löst aber nicht jedes Problem von selbst. Diese Technologie erlaubt uns, bekannte Herausforderungen schneller zu adressieren. Und effizienter. Chatbots mit generativer KI zum Beispiel liefern uns Impulse und Perspektiven per Knopfdruck”, sagt Claudia Nemat, Vorstandsmitglied Technologie und Innovation bei der Telekom. „Im Mittelpunkt unserer technischen Fortschritte müssen immer Menschen stehen. Es geht um praktische Lösungen für die Herausforderungen unserer Zeit.“

Fast Food Wissen: Was so eloquent klingt, muss richtig sein.

Tools wie Perplexity, You.com oder SearchGPT verändern unsere Informationssuche und den Umgang mit Wissen. Wir müssen nicht mehr suchen und uns durch lange Linklisten quälen. Wir finden Antworten. Gutgeschrieben, plausibel klingend und prägnant. Werden wir eine Gesellschaft der ersten Antwort? Oder recherchieren wir weiter?

Mehr als die Hälfte der Nutzer (55 Prozent) hält den Output von KI-Assistenten für vertrauenswürdig. Bei Anwendern, die Chatbots häufig nutzen, liegt die Zahl mit 64 Prozent sogar noch höher.

Antworten werden nur noch dann geprüft, wenn ein Anfangsverdacht besteht. Bequemlichkeit schlägt hier die Skepsis. Doch immerhin die Hälfte der Nutzer (48 Prozent) prüft zumindest gelegentlich, ob die Antworten auch wirklich stimmen. Die befragten Experten warnen davor, dass die sprachlich gute Formulierung der Antworten den Anschein von Korrektheit und Vollständigkeit erzeugen kann.

Medienkompetenz wird immer wichtiger: Sei mutig und nutze Deinen eigenen Verstand.

Der Vermittlung von Medienkompetenz kommt in Zukunft eine noch höhere Bedeutung zu, sagen die Experten. Der Aspekt, KI-Ergebnisse nicht kritiklos hinzunehmen, sollte explizit behandelt werden. Sonst könnten diese Systeme sogar eine Gefahr für die Demokratie werden. Knapp zwei Drittel der Personen, die zumindest schon mal von KI-Chatbots gehört haben, machen sich Sorgen, dass sie durch diese Programme in ihren Ansichten und Meinungen manipuliert werden. Experten sehen gerade durch die Personalisierung von Informationen steigende Manipulationsgefahren. Der Informationszuschnitt wird zunehmend individualisiert. Dies wiederum kann Meinungsblasen verstärken. Dazu trägt ebenfalls bei, dass die großen generativen KI-Systeme im Wesentlichen mit Daten aus dem frei verfügbaren Internet trainiert werden und diskriminierende Ansichten trotz Filter einfließen.

„Sei mutig und nutze Deinen eigenen Verstand, gerade auch nach der ersten KI-Antwort. Dieses Motto gilt mehr denn je“, kommentiert Claudia Nemat.

Umso wichtiger werden analytisches Denken und eigenes Wissen, denn sie sind die Basis, um KI-Ergebnisse auf ihre Richtigkeit hin überprüfen zu können. Das macht Quellenangaben, wie sie z.B. Tools wie Perplexity bieten, extrem wichtig.

Warum beschäftigt sich die Telekom mit diesen Themen?

Unsere Netze verbinden Menschen und eröffnen den Zugang zu digitalen Technologien. Einer der größten Trends unserer Zeit ist generative KI. Die nutzen wir im Unternehmen in vielfältiger Form. Und dazu bieten wir unseren Kunden für Geschäft und Alltag zahlreiche Lösungen an. Wir als Telekom sehen es zusätzlich als Teil unserer digitalen Verantwortung, den KI-Trend zu begleiten und zu hinterfragen. Mit unserer Studie wollen wir aufklären, Hemmschwellen senken und Menschen den Einstieg in das immer komplexer werdende Thema KI erleichtern.

Die Studie steht in einer Reihe mit unserer Initiative zur digitalen Verantwortung. Und auch mit den selbstbindenden KI-Leitlinien, die sich die Deutsche Telekom schon 2018 gegeben hat. Zudem engagiert sich die Telekom Stiftung in Sachen Bildung – besonders in den Mint-Fächern (Mathematik, Informatik, Naturwissenschaften, Technik) und im Umgang mit digitalen Medien.

(pd/Telekom)

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.