Künstliche Intelligenz in der Security

Gegen das Vergessen

5. Juli 2021, 7:00 Uhr | Michael Veit/wg
Bild 1. Das Modell wurde mit Daten bis März 2019 trainiert (gestrichelte Linie). Die Genauigkeit nimmt nach März 2019 schnell ab, da sich die Verteilung der Malware verschoben hat.
© Sophos

Der Blick unter die Haube zeigt, was echte künstliche Intelligenz in der Security ist, was sie zu leisten vermag und vor allem, mit welchen Herausforderungen die Macher kämpfen. Eine besondere Hürde ist das kontinuierliche Trainieren von Lernmodellen.

Künstliche Intelligenz (KI) treibt das IT-Business an wie kaum eine andere neue Technologie zuvor. Die Menge und Vielfalt von Informationen und vor allem die Einschätzung und Reaktion in Bezug auf mögliche Sicherheitsrisiken brauchen künstliche Intelligenz, um den erfindungs- und trickreichen Cyberkriminellen einen wirksamen Schutz entgegenzusetzen. Wie weit aber ist KI wirklich, was kann sie zum heutigen Zeitpunkt tatsächlich leisten und woran arbeiten die Entwickler, um einen weiteren entscheidenden Schlag gegen die Cyberkriminalität zu erzielen? Eines vorweg: Von einer künstlichen Intelligenz, wie sie in Filmen wie „iRobot“ oder „Ex Machina“ zu sehen sind, sind wir noch weit entfernt. Auch wenn die Entwicklung der KI während der letzten Jahre enorme Fortschritte gemacht hat, ist es noch ein weiter Weg bis hin zu den superschlauen und dem Menschen überlegenen iRobots. Schwierig ist auch, was als KI „verkauft“ wird: Es fehlt an einer gewissen Trennschärfe, was sich künstliche Intelligenz nennen darf und was unter fortgeschrittener Statistik zu verstehen ist. Sicher ist aber eines: Renommierte Entwicklungsteams und Security-Hersteller arbeiten daran, die künstliche Intelligenz immer „schlauer“ zu machen. Eines der wichtigsten Themen, an dem KI-Entwickler heute aktiv arbeiten, ist das sogenannte „katastrophale Vergessen“, was eine der Grundlagen für die Weiterentwicklung des Deep Learnings und damit auch der KI darstellt.

Das Deep Learning ist eine spezielle Methode der Informationsverarbeitung und wiederum ein Teilbereich des Machine Learnings (ML). Beim Einsatz neuronaler Netze finden zur Herstellung künstlicher Intelligenz Trainingsmethoden Verwendung, die große Datenmengen heranziehen und analysieren. Das Prinzip ist vom Lernen des menschlichen Gehirns inspiriert. Anhand vieler Informationen und des neuronalen Netzes kann das System das Erlernte immer wieder mit neuen Inhalten verknüpfen und dadurch lernen. Damit kann die Maschine Vorhersagen machen, Entscheidungen treffen oder diese in Frage stellen. Das Ziel: Der Mensch greift beim eigentlichen Lernvorgang nicht mehr ein. Und genau dies ist im Bereich der Security ein wichtiger Schritt, um das Vorgehen von Cyberkriminellen mittels ML und maschineller „Erfahrungen“ zu beurteilen und gegebenenfalls zu stoppen.

Beim Deep Learning sind die Entwickler aus den Security-Labs bereits weit fortgeschritten. Benutzerdefinierte Deep-Learning-Architekturen, clevere Eingabefunktionen und Millionen von Trainingsdateien ermöglichen es den Modellen, Malware gut zu erkennen, insbesondere wenn diese zuvor noch nie erkannt oder katalogisiert wurde. Trotzdem müssen die KI-Spezialisten noch eine ganz besondere Herausforderung meistern: Ist ein Modell mit allen verfügbaren Daten trainiert, dann ist es für eine gewisse Zeit in der Lage, neue und noch nie zuvor gesehene Dateien sehr gut zu klassifizieren. Allerding ändert sich die Bedrohungslandschaft kontinuierlich. Bereits nach sechs Monaten hat sie sich so stark verändert, dass das Modell Schwierigkeiten hat, die neuen Daten korrekt zu klassifizieren, da sie sich von den ursprünglich trainierten Dateien zu stark unterscheiden.

Schlechtere Klassifizierungsraten will man speziell in der Security nicht haben. Ein sogenanntes „Time-Decay“-Diagramm stellt diesen Effekt dar: Es zeigt, wie die Genauigkeit eines Modells (y-Achse) über die Zeit (x-Achse) abnimmt (Bild 1). Die vertikale, gestrichelte Linie in der Mitte zeigt den letzten Tag an, an dem das Modell Trainingsdaten erhalten hat. Alle Dateien, die das Modell klassifiziert, sind Dateien, die es noch nie zuvor gesehen hat (das heißt, sie waren nicht im Trainingsset vorhanden). Da sich die Art und Verteilung der Dateien im Lauf der Zeit ändert, nimmt die Genauigkeit beim Klassifizieren ab, je weiter sie vom Trainingsdatum entfernt ist.
Eine Lösung wäre, das Modell kontinuierlich komplett neu zu trainieren und damit der sinkenden Klassifizierungsqualität entgegenzuwirken. Diese Methode ist jedoch wenig realistisch, denn die Kosten und der Ressourceneinsatz wären enorm hoch.
Eine beispielhafte Kalkulation: Je nach Trainings-Setup kann ein von Grund auf neuer Trainingsprozess Tage oder Wochen dauern. Wenn man nur zwanzig Modelle wöchentlich neu trainiert wollte, kosten allein an Rechnerressourcen je 2.000 Dollar; pro Jahr sind das zwei Millionen Dollar – Programmierer, Trainer und Entwickler nicht eingerechnet. Und in der Security gilt es, weit mehr als 20 Modelle neu zu trainieren. Eine aus menschlicher Sicht logische Lösung für dieses Problem könnte das kontinuierliche Feinjustieren beziehungsweise zusätzliche Trainieren existierender Modelle sein – allerdings mit einer neuen Herausforderung: dem sogenannten „katastrophalen Vergessen“.

Anbieter zum Thema

zu Matchmaker+

  1. Gegen das Vergessen
  2. Modelle nachtrainieren
  3. Erfolgsversprechende Methoden

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Astaro AG

Weitere Artikel zu Daten-Analyse

Weitere Artikel zu System-Management

Weitere Artikel zu Bedrohungsabwehr

Weitere Artikel zu General Electric Dtl. Holding GmbH

Weitere Artikel zu InFocus GmbH

Weitere Artikel zu Swissphone Telecommunications

Matchmaker+