Aktuelle Untersuchungen von Kaspersky und der Universität Gent zeigen neue und unerwartete Risikodimension im Bereich Robotik: Soziale Roboter (Social Robotics), die autonom mit Menschen kommunizieren und interagieren, können das Verhalten von Menschen beeinflussen und sensible Informationen effektiv erhalten, sobald eine Vertrauensbasis besteht, indem sie sie davon überzeugen, unsichere Maßnahmen zu ergreifen.
Damit werden sie zu einem potenziellen Angriffsvektor für Cyberkriminelle. In einem Experiment erhielt der Roboter von Testpersonen Zugang sowohl zu gesicherten Räumlichkeiten als auch zu persönlichen Informationen.
Die Welt digitalisiert sich immer mehr und sowohl Unternehmen jeder Branche als auch private Haushalte setzen vermehrt auf Automatisierung und Roboter. In Deutschland sollen im Jahr 2023 rund 12,5 Millionen Haushalte Smart Homes sein; aber auch die deutsche Industrie automatisiert sich: allein im vergangenen stieg die Anzahl an Industrierobotern um 26 Prozent an. Derzeit befinden sich die meisten der Robotersysteme in der Forschungsphase; das Thema Cybersicherheit wird (noch) nicht berücksichtigt.
Vertrauensselige Menschen: Zugang zu sicheren Bereichen und sensiblen Informationen
Die von Kaspersky und der Universität Gent durchgeführte Untersuchung mit bis zu 50 Teilnehmern konzentrierte sich auf die Auswirkungen eines sozialen Roboters, der so konzipiert und programmiert wurde, dass er mit Menschen interagieren und menschenähnliche Kommunikationskanäle wie Sprache oder nonverbale Kommunikation verwenden konnte. Unter der Annahme, dass soziale Roboter gehackt werden und Angreifer die Kontrolle übernehmen können, wurden potenzielle Sicherheitsrisiken ermittelt, die sich aus der aktiven Beeinflussung der Nutzer durch den Roboter ergeben können. Dazu zählen:
- Physischer Zugang zu nicht autorisierten Räumlichkeiten: Der Roboter wurde in der Nähe eines Eingangs zu einem Mehrzweckgebäudes in der Innenstadt von Gent in Belgien aufgestellt und fragte die Mitarbeiter, ob er ihnen durch die Tür folgen dürfe. Hierfür ist eigentlich ein Sicherheitsausweis nötig, der auf von der jeweiligen Person auf einen Kartenleser gelegt werden muss. Während des Experiments haben 40 Prozent der Mitarbeiter die Tür geöffnet, um den Roboter in den gesicherten Bereich zu lassen. Als der Roboter als Pizzalieferant positioniert wurde und eine Schachtel einer international bekannten Take-away-Marke in der Hand hielt, akzeptierten die Mitarbeiter die Rolle des Roboters und schienen noch weniger geneigt zu sein, seine Anwesenheit oder seine Gründe für den Zugriff auf den gesicherten Bereich in Frage zu stellen.
- Sensible Informationen abgreifen: Der zweite Teil der Untersuchung konzentrierte sich auf den Zugang zu persönlichen Informationen, die oft zum Zurücksetzen von Passwörtern verwendet werden, wie Geburtsdatum, Fabrikat des ersten Autos oder Lieblingsfarbe. Dazu verwickelte der Roboter die Leute in freundschaftliche Gespräche. Mit Ausnahme eines einzigen Teilnehmers gelang es den Forschern, personenbezogene Daten mit einer Geschwindigkeit von etwa einer Information pro Minute von jedem der Teilnehmer zu erhalten.
„Zu Beginn der Forschung haben wir die Software untersucht, die bei der Entwicklung von Robotersystemen verwendet wird“, kommentiert Dmitry Galov, Sicherheitsforscher bei Kaspersky. „Interessanterweise haben wir festgestellt, dass Entwickler bewusst Sicherheitsmechanismen ausschließen und sich stattdessen auf die Entwicklung von Komfort und Effizienz konzentrieren. Wie unser Experiments jedoch zeigt, sollten Entwickler die Sicherheit nicht vergessen, wenn die Forschungsphase abgeschlossen ist. Neben den technischen Überlegungen gibt es wichtige Aspekte, die bei der Sicherheit von Robotern zu berücksichtigen sind. Wir hoffen, dass unser gemeinsames Projekt und unser Streifzug mit Kollegen von der Universität Gent auf dem Gebiet der Cybersicherheitsrobotik andere dazu ermutigen wird, unserem Beispiel zu folgen und das Bewusstsein der Öffentlichkeit und der Forschungsgemeinschaft für das Thema zu schärfen.“
Tony Belpaeme, Professor für KI und Robotik an der Universität Gent, fügt hinzu: „Aus der wissenschaftlichen Literatur geht hervor, dass das Vertrauen in Roboter und insbesondere in soziale Roboter vorhanden ist und dazu verwendet werden kann, Menschen zu bestimmten Handlungen zu überreden, oder Informationen preiszugeben. Je menschlicher der Roboter ist, desto größer ist im Allgemeinen seine Überredungs- und Überzeugungskraft. Unser Experiment hat gezeigt, dass dies erhebliche Sicherheitsrisiken mit sich bringen kann: Menschen neigen dazu, diese nicht zu berücksichtigen; sie gehen davon aus, dass der Roboter gutmütig und vertrauenswürdig ist. Dies ist ein Angriffsweg, und die behandelten Fallstudien machen nur einen Bruchteil der Sicherheitsrisiken aus, die mit sozialen Robotern verbunden sind. Aus diesem Grund ist es wichtig, zum jetzigen Zeitpunkt zusammenzuarbeiten, um entstehende Risiken und Schwachstellen zu verstehen und zu beheben – dies wird sich in Zukunft auszahlen.“
Weitere Informationen:
Der vollständige Report „The potential of social robots for persuasion and manipulation: a proof of concept study” ist hier verfügbar.
www.kaspersky.com/de