ChatGPT-Entwickler OpenAI hat relativ unbemerkt den Stecker seines KI-Erkennungstool AI Classifier gezogen. Die Erklärung hierzu stand nicht etwa in einer neuen Ankündigung, sondern in einer Notiz, die dem Blogpost hinzugefügt wurde, in dem das Tool zuerst angekündigt wurde. Der Link zu OpenAIs Klassifikator ist nicht mehr verfügbar.
„Wir arbeiten daran, das Feedback zu berücksichtigen und erforschen derzeit effektivere Provenance-Techniken für Text und haben uns verpflichtet, Mechanismen zu entwickeln und einzusetzen, die es den Nutzern ermöglichen zu verstehen, ob Audio- oder visuelle Inhalte KI-generiert sind“, schreibt OpenAI.
OpenAI kündigte damals die Markteinführung seines KI-Detektor an und behauptete, es könne zwischen von einem Menschen und einer KI geschriebenen Texten unterscheiden. Schon damals bezeichnete OpenAI den Klassifikator jedoch als „nicht völlig zuverlässig“ und fügte hinzu, dass die Auswertungen eines „Challenge-Sets“ englischer Texte 26 % der von KI geschriebenen Texte korrekt als „wahrscheinlich von KI geschrieben“ identifizierten, während der von Menschen geschriebene Text in 9 % der Fälle fälschlicherweise als von KI geschrieben eingestuft wurde.
OpenAI gab an, dass der AI Classifier bei Texten mit weniger als 1.000 Zeichen unzuverlässig ist, dass er von Menschen geschriebene Texte fälschlicherweise als von KI geschrieben einstuft und dass auf neuronalen Netzen basierende Klassifikatoren außerhalb ihrer Trainingsdaten schlecht abschneiden.
Ein Sektor, der sehr an einer genauen Erkennung von KI interessiert ist, ist das Bildungswesen. Seit dem Start von ChatGPT im November haben Pädagogen Alarm geschlagen, weil Schüler den Chatbot zum Schreiben von Aufsätzen verwenden.