Das KI-Unternehmen Anthropic, bekannt für den Chatbot Claude, setzt bei Stellenausschreibungen eine bemerkenswerte Einschränkung: Bewerber müssen zusichern, dass sie keine KI-Assistenten für ihre Bewerbungsunterlagen verwenden. Wie argumentiert die Firma das?
„Wir ermutigen unsere Mitarbeiter zwar zur KI-Nutzung im Arbeitsalltag, möchten aber im Bewerbungsprozess Ihre persönliche Motivation und nicht-KI-gestützte Kommunikationsfähigkeiten kennenlernen“, heißt es in den Stellenausschreibungen. Bewerber müssen explizit bestätigen, dass sie dieser Vorgabe zustimmen.
Die Regelung findet sich in nahezu allen aktuell etwa 150 ausgeschriebenen Positionen, von Softwareentwicklung über Finanzen bis hin zu Kommunikation und Vertrieb. Nur wenige technische Rollen wie „Mobile Product Designer“ sind davon ausgenommen.
Paradoxe Situation
Die Ironie dieser Situation wurde vom Open-Source-Entwickler Simon Willison aufgedeckt (via 404 Media): Ausgerechnet ein Unternehmen, das mit Claude einen der führenden KI-Assistenten entwickelt, sieht sich gezwungen, deren Einsatz im eigenen Rekrutierungsprozess zu unterbinden. Dabei geht es vor allem darum, eigenständiges Denken und authentische Kommunikation sicherzustellen.
Fraglich bleibt allerdings die praktische Durchsetzbarkeit dieser Regelung. Die von Anthropic und Konkurrenten entwickelten Sprachmodelle erzeugen mittlerweile Texte, die von menschlicher Kommunikation kaum zu unterscheiden sind.
Gleichzeitig steht Anthropic in der Kritik: Im vergangenen Jahr ignorierte der firmeneigene Datencrawler systematisch Zugriffseinschränkungen und scrapte einige Websites millionenfach – ausgerechnet um Trainingsdaten für jene KI-Modelle zu sammeln, deren Einsatz man nun bei Bewerbungen untersagt.