Drei Autoren klagen gegen Anthropic, Entwickler des KI-gestützten Chatbot Claude, wegen KI-Training mit ihren Büchern.
Das auf künstliche Intelligenz spezialisierte Unternehmen Anthropic wurde laut Reuters vor einem kalifornischen Bundesgericht von drei Autoren verklagt, die behaupten, das Unternehmen habe ihre Bücher und Hunderttausende anderer Bücher missbraucht, um seinen KI-gestützten Chatbot Claude zu trainieren.
In der am Montag eingereichten Klage der Schriftsteller und Journalisten Andrea Bartz, Charles Graeber und Kirk Wallace Johnson heißt es, Anthropic habe raubkopierte Versionen ihrer und anderer Werke verwendet, um Claude beizubringen, auf menschliche Aufforderungen zu reagieren. Ein Sprecher von Anthropic sagte am Dienstag, das Unternehmen sei sich der Klage bewusst und prüfe die Beschwerde, lehnte aber unter Hinweis auf den anhängigen Rechtsstreit eine weitere Stellungnahme ab. Ein Anwalt der Autoren lehnte eine Stellungnahme ebenfalls ab.
Es haben bereits mehrere bildenden Künstlern, Nachrichtenagenturen und Plattenfirmen Klagen gegen Technologieunternehmen eingereicht, die deren Werke zum Training ihrer generativen künstlichen Intelligenzsysteme verwendet werden. Verschiedene Autorengruppen haben OpenAI und Meta Platforms (META.O) verklagt, weil die Unternehmen ihre Arbeit angeblich missbraucht haben, um die ihren Chatbots zugrunde liegenden großen Sprachmodelle (Large Language Model LLM) zu trainieren.
Die am Montag eingereichte Klage ist die zweite gegen Anthropic nach einer Klage von Musikverlegern im vergangenen Jahr wegen des angeblichen Missbrauchs urheberrechtlich geschützter Songtexte zum Training von Claude.
Die Autoren erklärten in ihrer Klage, dass Anthropic „ein Multimilliarden-Dollar-Geschäft aufgebaut hat, indem es Hunderttausende von urheberrechtlich geschützten Büchern gestohlen hat“. Anthropic hat finanzielle Unterstützung von Quellen wie Amazon, Google und dem ehemaligen Kryptowährungsmilliardär Sam Bankman-Fried erhalten.
Der Klage zufolge waren die Werke der Autoren in einem Datensatz mit raubkopierten Büchern enthalten, den Anthropic zum Trainieren von Claude verwendete. In der Klage wird ein nicht näher bezifferter Schadenersatz und eine Anordnung gefordert, Anthropic die missbräuchliche Verwendung der Werke der Autoren dauerhaft zu untersagen.