Der Versuch eines Anwalts in New York, den Chatbot ChatGPT bei der Recherche für einen Fall zu verwenden, ist auf spektakuläre Weise schiefgegangen. Ein von ihm eingereichter Antrag enthielt Verweise auf Fälle wie «Petersen gegen Iran Air» oder «Martinez gegen Delta Airlines», die frei erfunden waren. Dem Anwalt zufolge wurden die angeblichen Urteile und Aktenzeichen dazu von ChatGPT ausgegeben. Der zuständige Richter in dem Fall setzte eine Anhörung für Anfang Juni an.
In dem Fall reichte ein Passagier Klage gegen die Fluggesellschaft Avianca ein, weil er von einem Servierwagen am Knie verletzt worden sei. Die Airline beantragte, die Klage abzuweisen. In dem Gegenantrag im März verwies die Anwaltskanzlei des Klägers auf verschiedene frühere Entscheidungen. Bei sechs davon konnten die Avianca-Anwälte jedoch keine Belege für deren Existenz finden.
Der Klägeranwalt gab nun in einer Stellungnahme unter Eid an, er habe das Gericht nicht täuschen wollen, sondern sich nur auf Zusicherungen von ChatGPT verlassen, dass die Fälle authentisch seien. Der Chatbot habe dazu auch Texte angeblicher Urteile ausgegeben, die von seiner Kanzlei dem Gericht im April vorgelegt wurden. Diese Dokumente enthielten ihrerseits auch Verweise auf Fälle, die sich als frei erfunden herausstellten. In den USA gibt es Datenbanken mit Urteilen, mit denen die Angaben von ChatGPT hätten überprüft werden können.
In den vergangenen Monaten sorgten Chatbots wie ChatGPT für neuen Hype um Anwendungen auf Basis künstlicher Intelligenz. Solche Software wird auf Basis gewaltiger Datenmengen antrainiert und bildet Sätze, indem sie Wort für Wort schätzt, wie sie weitergehen sollten. Experten warnen, dass die Technik durch diese Funktionsweise auch frei erfundene Informationen ausgeben kann, die für den Nutzer echt aussehen können. Zugleich wird Anwalt oft als einer der Berufe genannt, die von solcher KI-Technologie besonders stark verändert werden könnten, weil sie Informationen schnell auswerten und Texte formulieren kann, die von einem Menschen stammen könnten.
dpa