Plagiatsforscherin: Detektoren für KI-Texte keine Lösung

KI Textte

Ein nicht deklarierter Einsatz von KI-Textgeneratoren wie ChatGPT zum Beispiel in Abschlussarbeiten bleibt aus Expertensicht vorerst schwer nachweisbar.

«Die Hoffnung, dass es eine einfache Softwarelösung zum Enttarnen von KI-Texten gibt, wird sich nicht erfüllen», sagte die Berliner Plagiatsforscherin Debora Weber-Wulff (Hochschule für Technik und Wirtschaft) der Deutschen Presse-Agentur. «Es gibt zwar sehr viel angebliche Detektoren-Software, aber sie tut nicht das, was sie soll.» Manche der Hersteller hätten Mängel auch selbst eingeräumt und auf Grenzen der Verlässlichkeit hingewiesen.

Anzeige

ChatGPT ist ein Chatbot, der auf Nutzerbefehle hin Texte auf dem Sprachniveau eines Menschen formulieren und etwa Informationen zusammenfassen kann. Die Veröffentlichung Ende 2022 löste einen Hype um Künstliche Intelligenz (KI) aus – und im Hochschulbereich auch Sorgen vor unkritischer Verwendung oder gar Täuschung durch Studierende. Mittlerweile gibt es auch Programme, mit denen man so erstellten Texten auf die Schliche kommen soll.

Weber-Wulff hat an einer Studie mitgearbeitet, für die 14 angebliche KI-Detektoren getestet wurden. Demnach lieferten diese Tools keine verlässlichen Ergebnisse, wenn es um die Frage ging, ob ein Mensch oder eine Maschine einen Text verfasst hat. Davon berichtete das Forschungsteam Ende 2023 im «International Journal for Educational Integrity». Die Studie macht als Kernproblem aus, dass rund jeder fünfte mit KI erzeugte Text nicht als solcher erkannt wurde.

dpa

Anzeige
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.