Studie

KI-Mitarbeiterüberwachung ist kontraproduktiv

Überwachung

Unternehmen, die das Verhalten und die Produktivität ihrer Mitarbeiter mit KI überwachen, müssen damit rechnen, dass diese sich öfter beschweren, weniger produktiv sind und eher kündigen wollen.

Das gilt allerdings nicht, wenn Arbeitgeber dies glaubwürdig als Unterstützung für die Entwicklung der Arbeitnehmer darstellen. Zu dem Ergebnis kommen Forscherteam der Cornell University in einer Studie, die in “Communications Psychology” erschienen ist.

Anzeige

Tests mit 1200 Teilnehmern

In vier Experimenten mit insgesamt fast 1200 Teilnehmern haben die Forscherinnen Rachel Schlund und Emily Zitek untersucht, ob es eine Rolle spielt, ob Menschen oder KI und verwandte Technologien die Überwachung durchführen, und ob der Kontext, in dem sie eingesetzt wird – zur Leistungsbewertung oder zur Unterstützung der Entwicklung – die Wahrnehmung beeinflusst.

Überwachungsinstrumente, die zunehmend körperliche Aktivitäten, Gesichtsausdrücke, den Tonfall sowie die mündliche und schriftliche Kommunikation verfolgen und analysieren, führen laut Studie dazu, dass Menschen einen größeren Verlust an Autonomie empfinden als bei der Überwachung durch Menschen.

Firmen und andere Organisationen, die solche Technologien einsetzen, um zu beurteilen, ob Mitarbeiter nachlässig sind, Kunden gut behandeln oder Verfehlungen begehen, sollten die unbeabsichtigten Folgen bedenken, die zu Widerstand führen und die Leistung beeinträchtigen können, heißt es. Bei der US-Bank Wells Fargo führte die technologische Mitarbeiter-Überwachung gar zu Gegenmaßnahmen von Mitarbeitern, die daraufhin vor Kurzem entlassen wurden, wie pressetext berichtete.

Automatisierte Datenanalyse

Die Akzeptanz der KI-Überwachung wird jedoch erhöht, wenn die überwachten Mitarbeiter das Gefühl haben, von den Tools unterstützt statt in ihren Leistungen beurteilt zu werden, wobei sie dabei mangelnden Kontext und fehlende Genauigkeit befürchten, heißt es von den Wissenschaftlerinnen.

“Wenn Künstliche Intelligenz und andere fortschrittliche Technologien zu Entwicklungszwecken eingesetzt werden, gefällt es den Menschen, dass sie daraus lernen und ihre Leistung verbessern können. Das Problem tritt auf, wenn sie das Gefühl haben, dass die Bewertung automatisch erfolgt, direkt aus den Daten, und sie nicht in der Lage sind, sie in irgendeiner Weise zu kontextualisieren”, resümiert Mitautorin Emily Zitek.

(pd/pressetext)

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.