Von Künstlicher Intelligenz (KI) generierte Schlagzeilen stoßen bei Nachrichtenkonsumenten auf nur wenig Interesse. Zu dem Schluss kommen Sacha Altay und Fabrizio Gilardi von der Universität Zürich. Details sind in „PNAS Nexus“ nachzulesen.
Tests mit 16 Schlagzeilen
Für ihre Studie wurden zwei vorregistrierte Online-Experimente mit 4.976 Teilnehmern aus den USA und Großbritannien durchgeführt. Auf diese Weise haben die Forscher die Auswirkungen der Kennzeichnung von Schlagzeilen als „KI-generiert“ untersucht. Die Teilnehmer bewerteten 16 Schlagzeilen, die entweder wahr, falsch, von KI oder von Menschen generiert waren.
In der ersten Studie wurden die Teilnehmer zufällig einer der folgenden Bedingungen zugeordnet: Keine Schlagzeile war als KI-generiert gekennzeichnet; KI-generierte Schlagzeilen waren als KI gekennzeichnet; menschlich generierte Schlagzeilen waren als KI gekennzeichnet; und falsche Schlagzeilen waren als falsch gekennzeichnet.
Vorbehalte gegenüber Teilen
KI-generierte Schlagzeilen haben die Probanden weniger gut einschätzen können. Auch waren sie weniger bereit, sie zu teilen – unabhängig davon, ob die Schlagzeilen wahr oder falsch waren und ob sie von Menschen oder KI erstellt wurden. Die Kennzeichnung als KI-generiert hatte einen dreimal geringeren Effekt als die Kennzeichnung von Schlagzeilen als falsch.
Die abneigende Haltung der Teilnehmer beruht laut den Wissenschaftlern auf der Erwartung, dass Schlagzeilen, die als KI-generiert gekennzeichnet sind, komplett von KI ohne menschliche Aufsicht erstellt wurden. Den Autoren zufolge sollte, um maximale Wirkung zu erzielen, falscher KI-generierter Inhalt als falsch und nicht nur als KI-generiert gekennzeichnet werden.
(pd/pressetext)