Die zunehmende Verwendung von Künstlicher Intelligenz (KI) zur Erstellung von Texten, Bildern und Videos löst sowohl bei Journalisten als auch bei Mediennutzern Besorgnis aus.
Forschungen von T.J. Thomson von der RMIT University zeigen, dass die Angst vor der Verbreitung irreführenden oder manipulierten Inhalts eine der größten Herausforderungen für den modernen Journalismus darstellt. „Die Sorge, dass KI zur Verbreitung irreführender oder täuschender Inhalte eingesetzt wird, steht ganz oben auf der Liste der Herausforderungen für Journalisten und Leser, Hörer oder Nutzer von Fernsehen und Video“, erklärt Thomson. (via Pressetext)
Fehlende Vorbereitung in Redaktionen
Die Untersuchung von Thomsons Team basiert auf einer dreijährigen Analyse relevanter Forschungsergebnisse. Dabei wurde festgestellt, dass Journalisten oft nicht ausreichend geschult sind, um KI-generierte oder -bearbeitete Inhalte zu erkennen. Dies führt dazu, dass solche Inhalte unbewusst in den medialen Kreislauf gelangen und an das Publikum weitergegeben werden. Ein zentraler Grund dafür ist das Fehlen klarer Verifikationsprozesse in vielen Redaktionen, insbesondere im Umgang mit nutzergeneriertem oder von der Community bereitgestelltem Material.
Ein weiteres Problem ist das mangelnde Bewusstsein für den wachsenden Einsatz von KI in Bild- und Videobearbeitungssoftware sowie in Kameratechnologien. „KI wird manchmal eingesetzt, ohne dass die Journalisten oder Nachrichtenagenturen es überhaupt bemerken“, so Thomson. Laut einer Umfrage gab jeder vierte Mediennutzer an, bereits KI-generierte Inhalte in der Berichterstattung bemerkt zu haben, während die Hälfte der Befragten unsicher war, ob sie bereits mit solchen Inhalten konfrontiert wurden.
KI und das Vertrauen der Mediennutzer
Ein besonderes Misstrauen besteht gegenüber KI-generierten News-Avataren, die Nachrichten präsentieren. „Dies deutet auf einen potenziellen Mangel an Transparenz seitens der Nachrichtenorganisationen bei der Nutzung generativer KI oder auf einen Mangel an Vertrauen zwischen Nachrichtenagenturen und Publikum hin“, stellt Thomson fest. Während die meisten Befragten keine Einwände gegen die Nutzung von KI für grafische Elemente wie Infografiken hatten, lehnten sie es weitgehend ab, dass eine KI in Form eines Avatars Nachrichten vermittelt.
Ein weiteres Problem sind bestehende Vorurteile in KI-generierten Materialien. Bekannt ist, dass viele KI-Systeme Vorurteile gegenüber Frauen und nicht-weißen Personen enthalten. Doch auch andere, weniger offensichtliche Verzerrungen kommen zum Vorschein. Beispielsweise bevorzugen viele KI-Modelle städtische gegenüber ländlichen Umgebungen, stellen Frauen seltener in spezialisierten Berufen dar oder berücksichtigen Menschen mit Behinderungen kaum. „Diese Vorurteile existieren aufgrund menschlicher Vorurteile, die beim Training der Software übernommen werden“, erklärt Thomson.
Der Einsatz von KI in den Medien ist ein zweischneidiges Schwert: Einerseits bietet sie Effizienz und neue Möglichkeiten, andererseits birgt sie erhebliche Risiken für die Glaubwürdigkeit und Genauigkeit der Berichterstattung. Medienorganisationen sollten verstärkt auf Transparenz setzen und ihre Redaktionen besser darin schulen, KI-generierte Inhalte zu erkennen. Nur so kann das Vertrauen des Publikums langfristig erhalten bleiben.