Interview mit Carsten Hoffmann, Forcepoint

Neue Gefahren durch Deepfakes

28. Februar 2020, 07:00 Uhr   |  Von Dr. Wilhelm Greiner.

Neue Gefahren durch Deepfakes

Sicherheitsforscher warnen neuerdings verstärkt vor sogenannten "Deepfakes", also mittels KI erstellter und damit oft täuschend echt wirkender Audio- und Videodateien. LANline diskutierte den neuen Angriffsvektor mit dem Security-Experten Carsten Hoffmann. Hoffmann leitet als Manager Sales Engineering bei Forcepoint seit 2017 das technische Team in Zentraleuropa. Gemeinsam mit Partnern erarbeitet sein Team Sicherheitslösungen für Unternehmen.

LANline: Herr Hoffmann, für alle, die den Begriff noch nicht gehört haben: Was versteht man unter "Deepfakes", und wie unterscheiden sie sich von herkömmlichen Fälschungen oder "Fakes"?

200227_Forcepoint_Carsten_Hoffmann
©

"Wir müssen lernen, wem wir trotz Photoshop und Deepfakes nach wie vor vertrauen können", betont Forcepoint-Sicherheitsexperte Carsten Hoffmann. Bild: Forcepoint

Carsten Hoffmann: Fälschungen von Audio- und Videodateien kennt man, seit es Audio und Video gibt, aber mit Deepfakes hat das eine neue Qualität erreicht. Der Zusatz "Deep" bezieht sich auf Deep Learning: Hier kommt KI zum Einsatz, um Fakes schnell und in hoher Qualität zu produzieren. Vorher war das mit extrem hohem Aufwand verbunden.

LANline: Welche Verbreitung haben Deepfakes als Angriffswerkzeug Krimineller bereits gefunden, und welche Entwicklung erwarten Sie?

Carsten Hoffmann: Wir haben schon Angriffe auf Unternehmen mittels Deepfakes beobachtet. Ein statistischer Überblick über die Verbreitung liegt uns noch nicht vor, die Angriffsart ist noch zu jung. Die Technologie dafür gibt es erst seit zwei, drei Jahren. Anfangs war das aufwendige Arbeit für Experten, inzwischen gibt es aber bereits Deepfakes as a Service. Wir gehen deshalb davon aus, dass Deepfake-Angriffe dieses Jahr in relevanter Menge auftreten werden.

LANline: Wie muss man sich den Ablauf eines solchen "Deepfake as a Service"-Angriffs vorstellen?

Carsten Hoffmann: Eine typische Angriffsvariante wäre die Fortschreibung von CEO Fraud (Chefbetrug, auch Business E-Mail Compromise oder kurz BEC genannt, d.Red.) mit den Mitteln der Videotechnologie. Bislang haben Kriminelle den CEO oder CFO imitiert und per E-Mail, Chat oder Anruf eine Zahlung angewiesen. Dies geht nun mittels einer gefälschten Videobotschaft, was natürlich vertrauenswürdiger wirkt. Dabei entstand laut FBI zwischen 2016 und 2019 in den USA bereits ein Schaden von rund 26 Milliarden Dollar durch betrügerische Business-E-Mails.

LANline: Wie kann man sich gegen Deepfakes zur Wehr setzen?

Carsten Hoffmann: Deepfakes sind kein Angriff auf die Technik, sondern auf den Menschen - die eigentliche Schwachstelle ist der Mensch. Das Problem liegt vor allem darin, dass die Technologie neu ist und es deshalb noch keinen Lerneffekt gibt. Photoshop ist 30 Jahre alt, die allermeisten Anwender wissen also, dass man Bilder leicht fälschen kann. Nur auf Foto hin würde deshalb niemand eine Zahlung freigeben. Wissen macht immun gegen solche Angriffe, aber diese Immunisierung ist bei Deepfakes noch nicht gegeben.

LANline: Heißt das, Sie erwarten dass es nur ein bestimmtes Zeitfenster gibt, in dem Deepfakes Schaden anrichten können, bevor diese "Immunisierung" greift?

Carsten Hoffmann: Es gibt nach wie vor Menschen, die auf Hütchenspieler hereinfallen, und auch Heiratsschwindler werden immer erfolgreich sein. Aber hier hat eine neue Technologie eine neue Phase des Betrugs eingeleitet. Unsere Aufgabe ist es deshalb, Unternehmen zu helfen, sich dagegen zu wehren.

LANline: Welche Maßnahmen gegen Deepfakes empfehlen Sie?

Carsten Hoffmann: Security ist zum großen Teil Psychologie. Deshalb sind Aufklärungskampagnen nötig, möglichst realitätsnah und mit Echtzeit-Trainings, dann ist der Lerneffekt deutlich höher. Phishing-Attacken nutzen zum Beispiel meist den E-Mail-Kanal. Man könnte also bei erkannten Phishing-Mails den enthaltenen Link durch einen Link auf eine Intranet-Seite ersetzen, die den Nutzer, der darauf klickt, dann aufklärt: "Hier wären Sie auf einen Phishing-Angriff hereingefallen!" Deepfakes sollte man auf jeden Fall in Security-Awareness-Kampagnen mit aufnehmen, zumindest für Mitarbeiter in unternehmenskritischen Funktionen. Denn solche Angriffe sind in aller Regel auf konkrete Zielpersonen gerichtet.

LANline: Sollten solche Awareness-Kampagnen auch Erläuterungen umfassen, an welchen Fehlern im Detail Unternehmensmitarbeiter Deepfakes identifizieren können?

Carsten Hoffmann: Eine Abwehr, die sich darauf stützt, Deepfakes anhand fehlerhafter Details wie etwa unnatürlichem Blinzeln zu erkennen, ist der falsche Ansatz. Selbst wenn man heute eine Fälschung anhand eines solchen Details erkennen kann, ist der Fehler beim nächsten Deepfake-Video behoben. Anhaltspunkte sind vielmehr ein suspekter Inhalt oder ein ungewöhnliches Übermittlungsmedium.

LANline: Das heißt also, Unternehmen müssen ihre Awareness-Schulungen neu ausrichten?

Carsten Hoffmann: Awareness-Schulungen müssen sich weiterentwickeln in Richtung dessen, was wir bei Forcepoint "Human-Centric Security" nennen. Es geht nicht nur um digitale Kompetenz, sondern um das Erkennen verdächtiger Inhalte unabhängig von der jeweils verwendeten Technik. Das gilt nicht nur für Endanwender im Unternehmen, sondern für die Bevölkerung allgemein. Wenn die breite Masse blind einem Video vertraut, das zeigt, wie zum Beispiel ein DAX-Vorstand etwas Illegales tut, dann kann das direkte Auswirkungen auf den Aktienkurs haben. Aktienkursmanipulationen mittels Deepfakes sind deshalb künftig ein konkretes Risiko, ebenso wie Wahlmanipulationen. Letztlich geht es um Vertrauen: Wenn ich - trotz Photoshop - einem Bild in einer Nachricht vertraue, dann deshalb, weil ich der Quelle vertraue. Wir müssen lernen, wem wir trotz Photoshop und Deepfakes nach wie vor vertrauen können, dann werden wir gegen Angriffe resistenter.

LANline: Herr Hoffmann, vielen Dank für das Gespräch.

Dr. Wilhelm Greiner ist freier Mitarbeiter der LANline.

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Retarus verbessert Schutz vor CxO-Fraud
Sieben Cybersecurity-Prognosen für 2020 
Die Schattenseite der KI

Verwandte Artikel

CEO Fraud

Cybercrime

Forcepoint