Schutz vor Deepfakes

Die Schattenseite der KI

20. Februar 2020, 07:00 Uhr   |  Gerhard Raffling | Kommentar(e)

Die Schattenseite der KI

Es ist faszinierend und erschreckend zugleich, was mit Hilfe künstlicher Intelligenz möglich ist - mit krimineller Energie werden Fakes zur Realität. Die Rede ist von sogenannten "Deepfakes".

Barack Obama beschimpft in einem Video offen den aktuellen US-Präsidenten Donald Trump. Mark Zuckerberg schildert in einem Kurzvideo, dass er seinen Einfluss Spectre, der fiktiven kriminellen Organisation aus den James-Bond-Filmen, verdankt. Spectre habe ihm gezeigt, dass die Kontrolle über Daten die Kontrolle über Menschen bedeute. In einem anderen Video verwandelt sich eine kritische Journalistin und Fakten-Checkerin der New York Times in die britische Sängerin Adele und warnt in deren Gestalt vor Deepfakes.

Algorithmen lassen sich mit genug Lernmaterial à la Big Data darauf trainieren, entweder vorhandenes Videomaterial zu manipulieren oder mittels eines Bildes oder wenigen Fotos ein völlig neues Video zu erstellen.

Algorithmen und künstliche Intelligenzen sind jedoch nur so gut wie die Menge an Daten, die ihnen zur Verfügung steht. Sind nicht genügend Daten vorhanden, muss der Algorithmus improvisieren. Dadurch lassen sich die Fakes jedoch erkennen. Fehlt dem Algorithmus beispielsweise ein Foto einer Person mit geschlossenen Augen, kann er kein Blinzeln simulieren. Daher würde die Fake-Person durchgehend starren - ein unnatürliches Verhalten, das einem Menschen sofort auffällt.

Bei den beiden oben genannten Beispielsfällen haben Menschen die künstliche Intelligenz zusätzlich unterstützt. Außerdem ist von Mark Zuckerberg auch genügend Videomaterial frei verfügbar, um die oben genannten Fehler zu vermeiden.

Gefährlich werden die Falschinformationen aber durch die hohe Geschwindigkeit, in der sie sich im Netz und über Social Media verbreiten. Auch Politikern oder Konzernlenkern lassen sich so Aussagen zuschreiben, die sie nicht oder nicht öffentlich getätigt haben. Die Folgen für Gesellschaft und Wirtschaft sind kaum absehbar. Hinzu kommt, dass ein solcher Deepfake die persönliche Reputation beschädigen könnte.

LL02NT03_Bild1
©

Cyborg oder Kollege - Deepfakes können menschliche Erscheinungsformen imitieren. Bild: Commvault

Nur auf der Tonspur versagt die künstliche Intelligenz häufig noch. Es wird jedoch nicht mehr lange zur Perfektion dauern: Bei einem Fall in Großbritannien soll ein Unternehmenschef auf den gefälschten Anruf seines deutschen CEOs hereingefallen sein und daraufhin eine große Geldsumme an Betrüger überwiesen haben. Ob es sich tatsächlich so zugetragen hat, ist nicht erwiesen.

Die Zahl dieser Bedrohungen nimmt immer weiter zu und die Qualität der Deep- fakes wird immer besser. Zugleich steht die Beschäftigung damit noch am Anfang. "Das Thema wird auch aus datenschutzrechtlicher Sicht in der Zukunft sicherlich weiter an Relevanz gewinnen", teilte das Büro des Bundesdatenschutzbeauftragten mit. Weitere Informationen liegen nicht vor. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) befindet sich in der Erkundungsphase.

Um auf solche Szenarien adäquat reagieren zu können, ist es wichtig, Falschmeldungen mit den wahrheitsgemäßen Informationen entgegenzuwirken - und zwar schnell und flexibel. Die unternehmenseigenen Daten müssen - selbst in einem selten genutzten Backup - von den Verantwortlichen zuverlässig durchsuchbar und abrufbar sowie vor dem Zugriff von Unbefugten geschützt sein. So kann der Geschädigte demonstrieren, welches Ausgangsmaterial manipuliert wurde.

Wenn Führungskräfte die relevanten Daten nicht zügig in einem für sie nutzbaren Format finden können, ist es für sie nahezu unmöglich, rechtliche Schritte einzuleiten. Anbieter von Lösungen für das Daten- und Informations-Management können bei solchen Anforderungen helfen, indem sie etwa eine Self-Service-Suche über die gesamte Datenbasis des Unternehmens bieten. Den Mitarbeitern ist es so möglich, souverän mit vermeintlichen Krisen umzugehen.

Ein kritisches Hinterfragen ist jedoch weiterhin unerlässlich, um mit den Gefahren von Deepfakes etc. souverän umgehen zu können. Auch künstliche Intelligenz kann in Zukunft ein Teil der Lösung dieses Problems sein: Plattformen, Forscher und Startups untersuchen aktuell, inwiefern KI dazu beitragen kann, Deepfakes zu finden und anschließend auch zu entfernen.

Gerhard Raffling ist Geschäftsführer bei Commvault Systems (Austria) sowie Country Manager Schweiz, www.commvault.com.

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Ratgeber für IT-Security und IT-Compliance
Es menschelt in  der Security
Dell: Diese Security-Bedrohungen stehen uns bevor

Verwandte Artikel

CommVault

Phishing