Social Robots: Kaspersky-Experiment zeigt blindes Vertrauen und Sicherheitsrisiken

40 Prozent gewähren Social Robots unautorisierten Zutritt

15. Oktober 2019, 8:13 Uhr | Von Dr. Jörg Schröper.

Aktuelle Untersuchungen von Kaspersky und der Universität Gent zeigen neue und unerwartete Risikodimension im Bereich Robotik: Soziale Roboter (Social Robotics), die autonom mit Menschen kommunizieren und interagieren, können das Verhalten von Menschen beeinflussen und sensible Informationen effektiv erhalten, sobald eine Vertrauensbasis besteht. Dies gelingt, indem sie sie davon überzeugen, Maßnahmen zu ergreifen, die die Sicherheit gefährden. Damit werden sie zu einem potenziellen Angriffsvektor für Cyberkriminelle. In einem Experiment erhielt der Roboter von Testpersonen Zugang sowohl zu gesicherten Räumlichkeiten wie auch zu persönlichen Informationen.

Die Welt digitalisiert sich immer mehr und sowohl Unternehmen jeder Branche wie auch private Haushalte setzen vermehrt auf Automatisierung und Roboter. In Deutschland sollen im Jahr 2023 rund 12,5 Millionen Haushalte Smart Homes sein. Auch die deutsche Industrie automatisiert sich: Allein im vergangenen stieg die Anzahl an Industrierobotern um 26 Prozent an. Derzeit befinden sich die meisten der Robotersysteme in der Forschungsphase; das Thema Cybersicherheit ist meist (noch) nicht berücksichtigt.

Die von Kaspersky und der Universität Gent durchgeführte Untersuchung mit bis zu 50 Teilnehmern konzentrierte sich auf die Auswirkungen eines sozialen Roboters, der so konzipiert und programmiert wurde, dass er mit Menschen interagieren und menschenähnliche Kommunikationskanäle wie Sprache oder nonverbale Kommunikation verwenden konnte. Unter der Annahme, dass soziale Roboter gehackt werden und Angreifer die Kontrolle übernehmen können, wurden potenzielle Sicherheitsrisiken ermittelt, die sich aus der aktiven Beeinflussung der Nutzer durch den Roboter ergeben können.

Dazu zählte etwa der physische Zugang zu nicht autorisierten Räumlichkeiten. Der Roboter wurde in der Nähe eines Eingangs zu einem Mehrzweckgebäudes in der Innenstadt von Gent in Belgien aufgestellt und fragte die Mitarbeiter, ob er ihnen durch die Tür folgen dürfe. Dazu ist eigentlich ein Sicherheitsausweis nötig, der auf von der jeweiligen Person auf einen Kartenleser gelegt werden muss. Während des Experiments haben 40 Prozent der Mitarbeiter die Tür geöffnet, um den Roboter in den gesicherten Bereich zu lassen. Als der Roboter als Pizzalieferant positioniert wurde und eine Schachtel einer international bekannten Take-away-Marke in der Hand hielt, akzeptierten die Mitarbeiter die Rolle des Roboters und schienen noch weniger geneigt zu sein, seine Anwesenheit oder seine Gründe für den Zugriff auf den gesicherten Bereich infrage zu stellen .

Sensible Informationen abgreifen: Der zweite Teil der Untersuchung konzentrierte sich auf den Zugang zu persönlichen Informationen, die oft zum Zurücksetzen von Passwörtern dienen, etwa Geburtsdatum, Fabrikat des ersten Autos oder Lieblingsfarbe. Dazu verwickelte der Roboter die Leute in freundschaftliche Gespräche. Mit Ausnahme eines einzigen Teilnehmers gelang es den Forschern, personenbezogene Daten mit einer Geschwindigkeit von etwa einer Information pro Minute von jedem der Teilnehmer zu erhalten.

"Zu Beginn der Forschung haben wir die Software untersucht, die bei der Entwicklung von Robotersystemen verwendet wird", kommentiert Dmitry Galov, Sicherheitsforscher bei Kaspersky. "Interessanterweise haben wir festgestellt, dass Entwickler bewusst Sicherheitsmechanismen ausschließen und sich stattdessen auf die Entwicklung von Komfort und Effizienz konzentrieren. Wie unser Experiments jedoch zeigt, sollten Entwickler die Sicherheit nicht vergessen, wenn die Forschungsphase abgeschlossen ist. Neben den technischen Überlegungen gibt es wichtige Aspekte, die bei der Sicherheit von Robotern zu berücksichtigen sind. Wir hoffen, dass unser gemeinsames Projekt und unser Streifzug mit Kollegen von der Universität Gent auf dem Gebiet der Cybersicherheitsrobotik andere dazu ermutigen wird, unserem Beispiel zu folgen und das Bewusstsein der Öffentlichkeit und der Forschungsgemeinschaft für das Thema zu schärfen."

Tony Belpaeme, Professor für KI und Robotik an der Universität Gent, fügt hinzu: "Aus der wissenschaftlichen Literatur geht hervor, dass das Vertrauen in Roboter und insbesondere in Social Roboter vorhanden ist und dazu verwendet werden kann, Menschen zu bestimmten Handlungen zu überreden, oder Informationen preiszugeben. Je menschlicher der Roboter ist, desto größer ist im Allgemeinen seine Überredungs- und Überzeugungskraft. Unser Experiment hat gezeigt, dass dies erhebliche Sicherheitsrisiken mit sich bringen kann. Menschen neigen dazu, diese nicht zu berücksichtigen. Sie gehen davon aus, dass der Roboter gutmütig und vertrauenswürdig ist. Dies ist ein Angriffsweg, und die behandelten Fallstudien machen nur einen Bruchteil der Sicherheitsrisiken aus, die mit sozialen Robotern verbunden sind. Aus diesem Grund ist es wichtig, zum jetzigen Zeitpunkt zusammenzuarbeiten, um entstehende Risiken und Schwachstellen zu verstehen und zu beheben - dies wird sich in Zukunft auszahlen."

Der vollständige Report "The potential of social robots for persuasion and manipulation: a proof of concept study? ist verfügbar unter securelist.com/robots-social-impact/94431/. Weitere Informationen stehen unter www.kaspersky.com bereit.

Dr. Jörg Schröper ist Chefredakteur der LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Emerson Network Power (neu)

Weitere Artikel zu Basler AG

Weitere Artikel zu Atos IT Solutions and Services

Matchmaker+