Einem Roboter sollte das Lügen in manchen Fällen, konkret für das Allgemeinwohl, erlaubt sein. Zu dem Ergebnis kommt eine Studie der George Mason University um den Kognitionsforscher Andres Rosero. Er hat drei Arten von Lügen untersucht, die ein Roboter gegenüber einem Menschen anwenden könnte.
Erstens eine geäußerte Unwahrheit, die nichts mit ihm zu tun hat. Zweitens könnte der Roboter verbergen, dass er in der Lage ist, etwas Bestimmtes zu tun. Drittens schließlich könnte er behaupten, etwas zu können, das er nicht kann.
Drei kurze Szenarien getestet
Die Forscher schrieben kurze Szenarien und präsentierten diese Geschichten im Rahmen einer Online-Umfrage 498 Personen. Die Teilnehmer wurden gefragt, ob das Verhalten des Roboters irreführend war, und ob sie glaubten, dass dieses Verhalten in Ordnung ist. Zusätzlich wollten die Forscher wissen, ob das Verhalten des Roboters gerechtfertigt werden kann. Beim ersten Szenario verbarg der Roboter die Tatsache, dass er während seiner Arbeit Videos aufgezeichnet hatte. Nur 23,6 Prozent der Studienteilnehmer rechtfertigten dieses Verhalten damit, dass durch die Videos mehr Sicherheit gewährleistet sei oder so die Qualität der Arbeit des Roboters überwacht werden könne.
Bei dem Szenario, das in einer Fabrik spielte, beschwerte sich der Roboter über die Arbeit und meinte unter anderem, dass er am nächsten Tag angeschlagen sein werde. Damit vermittelte er seinen menschlichen Kollegen, dass ein Roboter Schmerzen verspüren kann. Nur 21,6 Prozent der Befragten fanden die Lügen des Roboters in Ordnung, denn damit könne eine Verbindung zu den menschlichen Kollegen hergestellt werden.
Roboter in Schutz genommen
Alle Arten von Lügen wurden von den Befragten als irreführend bewertet. Trotzdem gab es bei der Beurteilung deutliche Unterschiede. Im Schnitt wurde die ersten Art eher akzeptiert. Das galt jedoch nicht bei den beiden anderen Arten von Lügen. 58 Prozent gingen davon aus, dass Lügen bei einem Roboter gerechtfertigt sind, wenn es sich dabei um jemanden anderen handelt, also die Gefühle dieses Menschen geschont oder ein Schaden verhindert wird. Das gilt dann zum Beispiel, wenn ein medizinischer Roboter eine ältere Frau mit Alzheimer weiter glauben lässt, dass ihr Mann noch am Leben sei.
Auch meinten die Studienteilnehmer häufig, dass nicht der Roboter für seine Lügen verantwortlich ist. 80,1 Prozent nahmen den lügenden Haushaltsroboter in Schutz, der seine Videoaufzeichnungen verborgen hatte. Diese Befragten gingen vielmehr davon aus, dass der Hausbesitzer oder der Programmierer für dieses Verhalten verantwortlich wären. Details sind in „Frontiers in Robotics and AI“ veröffentlicht.
(pd/pressetext)