Trend-Micro-Experten erläutern KI-Missbrauch

Cybercrime für Fortgeschrittene

03. März 2021, 07:00 Uhr   |  Wilhelm Greiner

Cybercrime für Fortgeschrittene
© Wolfgang Traub

Im November letzten Jahres veröffentlichte die UN-Forschungseinrichtung Unicri (United Nations Interregional Crime and Justice Research Institute) in Zusammenarbeit mit Europol und dem Security-Anbieter Trend Micro einen Report über Nutzung und Missbrauch künstlicher Intelligenz (KI) durch Kriminelle. Nun erläuterten Fachleute von Trend Micro den Stand der Dinge rund um KI und das digital organisierte Verbrechen. TL;DR: Was noch nicht ist, dann sehr schnell werden.

Im Fazit des Unicri-Reports „Malicious Uses and Abuses of Artificial Intelligence“ („Bösartige Nutzung und Missbrauch von künstlicher Intelligenz“) heißt es: „Kriminelle werden wahrscheinlich KI nutzen, um ihre Angriffe zu vereinfachen und zu verbessern, indem sie die Profitmöglichkeiten innerhalb eines kürzeren Zeitraums maximieren, mehr Opfer ausbeuten und neue, innovative kriminelle Geschäftsmodelle schaffen – und das alles bei geringerer Wahrscheinlichkeit, erwischt zu werden.“ Mit steigender Verbreitung von „KI as a Service“ sinke die Einstiegshürde, da Angriffe weniger Fähigkeiten und technisches Fachwissen erfordern. Diese mache es wahrscheinlicher, dass Kriminelle KI missbrauchen und KI somit zu einer Triebfeder für künftige Verbrechen wird.

Vor diesem Hintergrund erläuterten jüngst Vincenzo Ciancaglini – als Senior Threat Researcher bei Trend Micro ein Autor des Unicri-Reports – und sein Kollege Jon Oliver, Data Scientist bei dem japanischen Security-Spezialisten, den aktuellen Stand der Erkenntnisse rund um den Nexus zwischen KI und Online-Kriminalität. „Die Szenarien sind definitiv erschreckend“, resümierte Ciancaglini mit Blick auf ein Angriffs- und Missbrauchsspektrum. Schließlich reicht dieses von KI-gestützter automatischer Texterzeugung für täuschend echte Phishing-Mails bis hin zu Angriffen auf „smarte“ Systeme wie etwa autonome Fahrzeuge.

Unter den möglichen Motiven für Cybercrime – Politik, Emotion und Geld – sei Letzteres der Haupttreiber. „Verbrechen ist eine opportunistische Aktivität“, betonte der Security-Forscher, eine neue Technologie müsse daher für die Kriminellen vorteilhafter sein als die bestehende, um  Verwendung zu finden. So weit sei kriminell nutzbare KI aber noch nicht gediehen: „Es gibt noch keine Ein-Klick-Lösung für Kriminelle, das ist immer noch eine schwierige Aufgabe“, sagte er;  man müsse aber genau im Auge behalten, wohin sich der Einsatz von KI für kriminelle Zwecke entwickelt.

Jon Oliver erinnerte daran, dass Ransomware dieser Tage die bevorzugte Cybercrime-Variante ist, weil die Erpressung per Verschlüselungstrojaner schnell hohe Erträge ermöglicht. Inzwischen setzen einige Banden auf gezieltes Eindringen in Unternehmensnetze, um dort Ransomware zu platzieren und umso höhere Lösegelder zu erpressen (LANline berichtete). Der traditionelle Security-Ansatz – reaktives Vorgehen mit hoher Priorisierung des Vermeidens von Fehlalarmen – sei gegenüber der Ransomware-Bedrohung „hoffnungslos inadäquat“, so Oliver. Erpressersoftware erfordere vielmehr eine sofortige Reaktion.

Hier sieht er eine Stärke der KI-Variante ML (Machine Learning) für Abwehrzwecke. Denn ML eigne sich sehr gut, um vom Üblichen abweichendes Verhalten schnell aufzuspüren. KI und ML seien allerdings kein Allheilmittel. Schließlich habe es schon Fälle gegeben, in denen sich KI/ML überlisten ließ – ein prominentes, obschon banales Beispiel ist die Manipulation von Verkehrsschildern, um autonome Fahrzeuge in die Irre zu führen. Forscher haben laut Oliver auch schon demonstriert, dass ML nicht dagegen gefeit ist, Malware für gutartige Software zu halten. Unter dem Strich sei KI/ML deshalb ein nützliches Werkzeug, man müsse den Ansatz aber mit anderen Security-Lösungen wie Antivirus, Intrusion Prevention und weiteren Abwehrlösungen kombinieren.

Tiefgehende Fälschungen

Unter den Möglichkeiten, KI/ML für kriminelle Zwecke zu missbrauchen, hält Bedrohungsforscher Ciancaglini Deepfakes – die Manipulation von Text-, Ton- oder Videomaterial durch Einsatz der KI-Spielart Deep Learning – für einen „sehr disruptiven Ansatz“. Theoretisch möglich wäre hier zum Beispiel, dass Angreifer ein Telefonat oder eine Videokonferenz in Echtzeit manipulieren, um beispielsweise betrügerische Finanztransaktionen anzustoßen – also quasi BEC (Business E-Mail Compromise, betrügerische Geschäfts-E-Mails) auf höherem Niveau.

Laut den Erkenntnissen der Trend-Micro-Forscher gibt es hier allerdings nur erste Gehversuche, beispielsweise in Form von Bots, mit denen Betrüger gegen Bezahlung das Verhalten von Spotify-Nutzern emulieren, um bestimmte Künstler nach oben zu spülen. Ciancaglini verwies auf einen Fall, bei dem ein Bot in einem sozialen Netzwerk ohne menschliche Intervention wochenlang menschliches Benutzerverhalten imitierte, ohne dass jemand den Bot als solchen erkannte. Die KI-Instanz sei nur dadurch aufgeflogen, dass sie Fragen schneller beantwortet hatte, als ein Mensch dies könnte. Tja, Künstlerpech – aber auch relativ leicht zu korrigeren. Da heutzutage praktisch alles potenziell gefälscht sein könnte, rät Datenwissenschaftler Jon Oliver jedenfalls dazu, zur Authentifizierung stets einen zweiten Faktor zu verwenden, der über einen anderen Kanal funktioniert als der erste.

Das Potenzial für den KI-Missbrauch ist somit klar vorhanden, insbesondere im Hinblick auf KI-gestütztes Social Engineering: KI-Instanzen wie Chatbots können heute bereits Texte von Menschen emulieren, während Voicebots die Stimme, Akzente und Sprachmelodie bestimmter Personen imitieren. So birgt laut Ciancaglini die heute bereits technisch mögliche „Gesichtssynthese“ (Face Synthesis) Risiken: Per KI-gestützter Videomanipulation scheint jemand einen Satz zu sagen, den er nie geäußert hat.

Derlei Video-Deepfakes kamen sozusagen als „Proofs of Concept“ für satirische Zwecke bereits zum Einsatz, einen kriminellen Missbrauch – etwa um Börsenkurse oder eine Wahl zu manipulieren – habe man noch nicht vorgefunden, so Ciancaglini. Derzeit hätten aufgrund des nach wie vor großen technischen Aufwands und dafür nötigen Know-hows wohl nur staatsnahe Angreifergruppen das Potenzial für solche Angriffe.

Bislang, so das Fazit der Trend-Micro-Fachleute, sei es nach wie vor einfacher, mit „Intrusion-based Ransomware“ schnell hohe Gewinne zu erzielen, als mit KI: in ein Netzwerk einbrechen, per Privileg-Eskalation Sicherheitsmechanismen deaktiveren, verschlüsseln, erpressen, abkassieren – fertig. Deepfake-gestützte Szenarien hingegen seien – noch – Science Fiction. „SciFi-Autoren müssen eben nicht die Ökonomie tatsächlicher Angriffe durchdenken“, so Ciancaglini.

Das bedeutet aber eben auch: Ob und wann Kriminelle KI für Angriffszwecke einsetzen, ist inzwischen lediglich eine Frage der Kosten/Nutzen-Rechnung. Und zumindest manche Angreifergruppen haben sich – siehe die Intrusion-based Ransomware – auf sehr lukrative Ziele spezialisiert.

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

TREND MICRO Deutschland GmbH

Trend Micro

Cybercrime