Künstliche Intelligenz (KI) lässt sich in der Informationssicherheit neben der Angriffserkennung und -abwehr auch für die Datenklassifizierung und den Policy-Abgleich verwenden. Darüber hinaus geht es im letzten Teil dieser Serie um jene Grenzen des KI-Einsatzes, die der Fortschritt auf längere Sicht kaum überwinden kann – und auch nicht überwinden sollte.

Die ersten beiden Beiträge in dieser Serie zu KI in der IT-Sicherheit („KI als Assistent im SOC“, lanl.in/2wMYT02; „Aktuelle KI-Methoden“, lanl.in/2Be8crh) haben sich mit einem Bereich befasst, in dem der Einsatz der modernen Technik zweifellos Vorteile bringt. Bei der Angriffserkennung und -abwehr nämlich können künstliche Korrelations-, Bewertungs- und Entscheidungsmechanismen menschliche Arbeitskräfte bei Tätigkeiten entlasten, die wenig Kreativität, aber ungeheure Wachsamkeit beim Blick auf hoch komplexe und dynamische IT-Umgebungen erfordern. Hier schafft es KI, den klassischen Angreifervorteil zu verringern, der den Sicherheitsteams in den Organisationen zu schaffen macht: Die Technik hilft den Spezialisten dabei, an einer größeren Zahl potenzieller Einfallstore für Cyberkriminelle zeitgleich und unermüdlich nach Auffälligkeiten zu fahnden und mit größerer Wahrscheinlichkeit diejenigen herauszupicken, die wirklich auf Gefahren hindeuten.

Klassifizierungshilfen

Was sich sonst noch sinnvollerweise mit KI anstellen lässt, wird zurzeit intensiv diskutiert – die Technik ist noch zu neu, um ihre Relevanz für die Informationssicherheit bereits vollständig einschätzen zu können. In mindestens zwei Bereichen allerdings gibt es schon Tests und erste erfolgreiche Einsätze: bei der Informationsklassifizierung und bei Konsistenzüberprüfungen sicherheitsbezogener Dokumente wie etwa Sicherheitsrichtlinien und Standards. Die Basis liefert in beiden Fällen die in Teil 2 angerissene semantische Suche mit neuronalen Netzen. Sie bietet die Möglichkeit, Inhalte in Texten auch dann wiederzufinden und miteinander abzugleichen, wenn sie völlig unterschiedlich formuliert sind.

Diese Fähigkeit kann die Leistung automatischer Klassifizierungslösungen erheblich aufbessern, wenn diese in großen Informationsbeständen beispielsweise nach vertraulichen Dokumenten suchen sollen. Bisher tun sie dies anhand statischer Listen von Stichwörtern, die dann etwa mit Forschungsergebnissen, personenbezogenen Datensätzen, Verträgen oder Ähnlichem abgeglichen werden. Die modernen Systeme können nun auch Wörter oder Formulierungen mit einbeziehen, die den angegebenen Suchwörtern und Formulierungen lediglich ähnlich sind, aber den gleichen Sinnzusammenhang beschreiben.

KI trifft wie menschliche Intelligenz keine absolut richtigen oder falschen Entscheidungen, wenn sie in der realen Welt zum Einsatz kommt. Bild: Peltarion

Dies stillt einen echten Bedarf. Viele Organisationen bekommen inzwischen zwar die sicherheits- und datenschutzbezogene Klassifizierung neu erzeugter Datensätze und Dokumente ganz gut hin, indem sie durch entsprechend konfigurierte Software – wie etwa Microsoft Office – bereits bei der Erstellung eine Einschätzung durch die Endanwender erzwingen; sie scheitern aber bei der nachträglichen Klassifizierung existierender Bestände durch den semantischen Vergleich mit Sätzen von Beispieldaten, die zuvor von Menschen kategorisiert wurden. Ein Automat, der sich auf diese Weise selbsttätig vor allem durch Berge unstrukturierter älterer Daten wühlt und sie rubriziert, mag die Treffsicherheit menschlicher Bewerter nicht erreichen, erzielt aber zumindest eine brauchbare Vorsortierung.

Der „Policy-Abgleich“ stützt sich auf die gleichen Textanalyse-Fähigkeiten. Er kann beispielsweise dabei helfen, im Umfeld einer Fusion zweier Unternehmen nach Inkonsistenzen oder Widersprüchen in den beiderseits vorhandenen Richtlinienwerken zu suchen – auch dies eine sonst zeitraubende, mühselige Tätigkeit.

Grenzen der KI

Einige Grenzen der KI wurden bereits in Folge zwei dieser Serie behandelt, dort ging es vor allem um Schwierigkeiten der Anomalie-Erkennung. Hinzu kommen aber auch noch höher angesiedelte Aspekte, vor allem solche der Entscheidungsfindung. Im Zentrum der Auseinandersetzungen um die Leistungsfähigkeit von KI steht häufig ein Intelligenzmodell, das sich stark an formal kombinatorischer oder „mathematischer“ Intelligenz orientiert. Man versucht, den Status der KI daran zu messen, ob sie die imaginäre „Prozessorleistung“ eines menschlichen Gehirns erreicht. Dieses Vorgehen führt allerdings nicht wirklich zu Ergebnissen, die Aussagen über die aktuelle oder zukünftige Praxistauglichkeit eines KI-Systems in einer Umgebung erlauben, die primär von menschliche Entscheidungen und Handlungen beeinflusst wird.

Um dies näher zu erläutern, ist ein kleiner argumentatorischer Umweg notwendig. Es lohnt sich, die spektakulärsten KI-Leistungen der vergangenen Jahre näher unter die Lupe zu nehmen. So bewundernswert sie sein mögen, so deutlich zeigen sie auch, wo KI dem Menschen unterlegen ist. Große mediale Beachtung fand vor allem, dass Computer Menschen beim Schachspiel und beim Ratespiel „Jeopardy“ schlagen. Es bleibt die Frage, wie relevant diese Feststellung für den praktischen Einsatzbereich Datenschutz und Informationssicherheit ist.

Beschränkte Spielwelten

Das Schachspiel etwa steht für eine Welt eigener Art. Sie ist zweidimensional und durch eine begrenzte Zahl von Akteuren (die 32 Figuren) bestimmt, für deren Voranschreiten es definierte Regeln gibt. Für den Menschen schwierig ist diese artifizielle Umgebung deshalb, weil ein Erfolg in dieser Welt das Vorkalkulieren und Bewerten extrem vieler möglicher Vorgehensweisen erfordert. Es macht Spaß, sich spielerisch auf diesem speziellen Aktionsgebiet zu erproben, und gute Schachstrategen erreichen am Ende oft ein Level, auf dem sie die Züge geradezu intuitiv beherrschen und die Möglichkeiten des Regelwerks kreativ ausreizen.

Dass Menschen im Schach überhaupt von purer künstlicher Rechenkraft geschlagen werden können, liegt am Terrain, auf dem sich die Kontrahenten bewegen. Schachspielen hat für Menschen den Reiz, sich bewusst auf einen einzigen, wichtigen Aspekt ihrer Intelligenz zu konzentrieren und diesen bis an seine Grenzen zu führen. Für die KI dagegen ist das Schachbrett eine Welt, die ihren Stärken und Limitationen maximal entgegenkommt. Sie braucht nur wenige Sensoren, um alle für das Spiel wichtigen Daten konstant lückenlos zu erfassen. Sie kann hier außerdem deshalb hohe Leistungen erzielen, weil sie nicht auf das Bedingungsgeflecht der menschlichen Alltagswelt und der dort üblichen multidimensionalen Methodik der Entscheidungsfindung stößt: Keine der Spielfiguren selbst kommt jemals auf unerwartete Ideen, keine beklagt sich über ihre Grenzen, keine verlässt das Spielfeld, keine hat hier oder da einen schlechten oder besonders guten Tag.

Dies bedeutet im Umkehrschluss: Meister im Schach zu sein – speziell als Maschine – heißt keineswegs automatisch, andere Facetten der menschlichen Intelligenz mit der gleichen Brillanz zu beherrschen: Soziale Kompetenz, Empathie, Kreativität und multisensorische Erfassungsgabe sind die Aspekte, die Menschen zu guten Managern, Überlebenskünstlern in unwirtlichen Umgebungen, Problemlösern oder Partnern machen – und die auch bestimmende Faktoren bei ihrem Umgang mit Computern und Anwendungen sind.

KI im Dialog mit Menschen: Dieses Modell – im Bild Avatare von Botlibre.com – könnte man auch für die Meldung von Social-Engineering-Angriffen in Betracht ziehen.

Das Schach-Beispiel ist geeignet, sowohl Stärken als auch prinzipielle Schwachstellen der KI im Umfeld der Informationssicherheit zu verdeutlichen. Wenn KI im Netzwerk auf Bedrohungssuche geht, arbeitet sie ähnlich wie ein Schachspieler in einem Umfeld mit zwar komplexen, aber vergleichsweise stark und umfassend definierten Aktionsmöglichkeiten. Sie kann sich auch hier auf eine limitierte Sensorik zurückziehen, ohne dass ihr etwas entgeht: Ein Netz mag größer und größer werden, aber die Zahl der darin denkbaren Varianten von Abläufen nimmt nicht im gleichen Maße zu. KI kann hier gut den Überblick behalten, wenn man ihr genug Rechenleistung zur Verfügung stellt.

Die menschlichen Angreifer, die eine IT-Organisationsinfrastruktur aufs Korn nehmen, tauchen demgegenüber ähnlich wie der Schachspieler in eine Welt ein, in der sie ihre Ziele mit relativ wenigen Funktionen und Protokollen erreichen müssen, die die Regeln fürs Handeln bestimmen. Hacker setzen sich im übertragenen Sinne an eine Art Schachbrett.

Auf dem sensorisch eingeschränkten, zum Teil deterministischen Spielfeld der eigentlichen IT kann hoch entwickelte KI mit ihrer hohen Analysegeschwindigkeit somit menschliche Angreifer durchaus schlagen, solange es um das Aufdecken der Angreifertätigkeiten geht. Sie gerät aber bereits dann in Schwierigkeiten, wenn Aspekte wie Social Engineering ins Spiel kommen oder wenn sie bei der Abwehr Anforderungen aus der menschlichen Lebenswelt berücksichtigen muss. Kommt die KI etwa zu dem Schluss, man müsse Server X im Netzwerksegment Y aufgrund eines akuten Angriffs sofort vom Netz nehmen, um weitere Schäden zu verhindern, kann dies aus Anwendersicht durchaus falsch sein – etwa, wenn der fragliche Server die Energieversorgung eines Krankenhauses steuert und deshalb weiterlaufen muss, bis ein manueller Workaround gefunden ist. Incident Response ist deshalb nur in hoch standardisierten Umgebungen ein Fall für Automatisierung.

„Jeopardy“, die zweite Königsdisziplin der KI, ist ist ein Wissensspiel. Hier siegt, wer blitzschnell umfangreiche Informationsbestände abrufen und gezielt durchkämmen kann. Neuronale Netze sind gut darin, diese Aufgabe zu bewältigen, wenn man ihnen die passende Datenbasis zur Verfügung stellt. Menschen wiederum speichern während ihres Lebens zwar unglaublich viele Informationen, aber sie können nie sicher sein, dass diese Datenmassen einer irgendwann spontan von außen an sie herangetragenen Frage gerecht werden.

Ein Automat, der auf das ganze Internet oder große Enzyklopädien zurückgreifen kann, hat allein aufgrund seiner Suchgeschwindigkeit in diesem Bereich Vorteile. Dass er auf dieser Basis gezielt in einer realen Lebensumgebung mit ihren komplexen Bedingungsgeflechten handeln kann, ohne menschlichen Input hinzuzuziehen, ist allerdings eher unwahrscheinlich. KI in der Informationssicherheit vermag deshalb gut dabei zu assistieren, vorhandene Dokumente nach passenden Informationen für ein bereits beschriebenes Problem zu durchforsten. Bei der individuellen Lösung eines gänzlich neuen, bisher nicht erfassten Problems kann sie aber noch lange nicht automatisch helfen.

Bedeutung der Sensorik

Ein Beispiel veranschaulicht die besondere Bedeutung der Sensorik für die Leistung künstlicher Intelligenz: Der CISO eines High-Tech-Unternehmens wird von einem Alert aus dem Schlaf gerissen. Am zentralen Server der Entwicklungsabteilung gab es sieben Zugriffsversuche mit falschem Kennwort von einer ausländischen IP-Adresse aus, um als vertraulich klassifizierte Daten abzurufen. Die Empfehlung des SIEM-Systems: Transfer sofort stoppen, Server isolieren.

Der CISO aber handelt anders, denn er weiß: Eine wichtige Messe steht bevor, auf der sein Unternehmen ein neues Produkt vorstellen wird – und das übermüdete Marketing-Team weicht, wie er erfahren hat, in ein Ferienhaus in Österreich aus, wenn es unter Hochdruck ungestört arbeiten will. Dies dürfte hier der Fall sein, folgert der CISO, werden auf der Messe doch Prospekte, Handbücher, Plakate etc. benötigt. Er greift also nicht ein, sichert aber seine Entscheidung vorsorglich per Anruf ab.

Es ist nicht primär eine formale geistige Leistungsfähigkeit, die den CISO im Fallbeispiel zu einer besseren Entscheidung befähigt als sein intelligentes SIEM-System. Den Ausschlag geben vielmehr der Umfang und die Vielschichtigkeit der verfügbaren Sensor- beziehungsweise Sinnesdaten und die spezifische Art ihrer Auswertung. Während das SIEM im beschriebenen Szenario seine Schlussfolgerungen anhand von Daten zieht, die das Netzwerk und dessen Systeme hergeben, bezieht der CISO Informationen und Erfahrungen aus zum Teil zufälligen Begegnungen, allgemeinem Wissen, Lebenserfahrung, Kenntnissen der menschlichen Konstitution und Kommunikationszusammenhängen ein. Sie sind für handelnde Individuen und Organisationen höchst bedeutsam, in der digitalen Welt aber nur rudimentär abgebildet. Im Grunde geben Mensch und Maschine beim geschilderten Vorfall ein hervorragendes Team ab – allerdings nur, weil die KI (in Form des SIEM-Systems) hier nur als Beobachter in ihrem ureigenen Technik-Kosmos agiert und die Entscheidungskompetenz für die Anwendung auf das reale Business-Geschehen beim CISO liegt.

Die spannende Frage ist nun, ob man die KI befähigen könnte, im fraglichen Szenario oder bei ähnlichen Begebenheiten auch die Rolle des menschlichen, übers Risiko entscheidenden Akteurs zu übernehmen. Um der Erfahrung und dem Wissen des CISOs nahezukommen, müsste die KI einen gigantischen Bestand an Daten aus dem Umfeld ihres Einsatzortes und weit darüber hinaus anlasslos speichern. Sie müsste über eine lange Zeitspanne hinweg mit Kamera und Mikrofon bei privaten Feiern, in der Kantine und im gesamten Alltag der Belegschaft der Organisation präsent sein. Sie müsste immense Mengen von zunächst unzusammenhängenden Informationen erfassen, ohne über jenen Mindestsatz an ethischen Skrupeln und empathischen „Filterfunktionen“ zu verfügen, die jeder durchschnittliche Mensch im Alltag beim Auffassen von Informationen an den Tag legt. Zugleich wäre sie für die Menschen in der Organisation nirgendwo physisch greifbar. Unter den Gesichtspunkten „Datenschutz“ und „informationelle Selbstbestimmung“ wäre eine derartig allgegenwertige Sensorik, die überdies womöglich noch Teile ihrer Erkenntnisse in eine wie auch immer geartete „Cloud“ transferiert, eine Katastrophe.

Fazit

Die hier beschriebenen Grenzen der KI könnten lediglich KI-Inkarnationen überwinden, die am menschlichen Leben gleichberechtigt teilnehmen. Die Autoren der Science-Fiction-Serie „Star Trek“ haben diese Option recht instruktiv anhand der Figur des Androiden „Data“ durchgespielt – einem Modellbeispiel einer KI, die sich immerhin in einem menschenähnlichen Körper befindet, aber nur über einen rudimentären Zugang zur Gefühlswelt und den körperlichen Befindlichkeiten eines Menschen verfügt. Data ist seinen menschlichen Kollegen im Star-Trek-Kosmos deshalb partiell überlegen, partiell aber auch immer wieder unterlegen. Dass er seinen gigantischen Speicherfähigkeiten zum Trotz kein „Big Brother“ ist, liegt allein daran, dass sowohl seine Sinne oder Sensoren als auch sein Datenspeicher wie bei einem Menschen an seinen Körper gebunden sind. Und: Wenn er einen Computer analysieren soll, muss „Data“ bereits wieder mit speziellen Schnittstellen daran gekoppelt werden.

Security-KI wird, solange sie explizit für eine Menschenwelt arbeiten soll, auch auf längere Sicht dann den größten Nutzen bringen, wenn sie als Assistent menschlicher Analysten fungiert und jene Beobachtungen und Analysen innerhalb der technischen Infrastruktur übernimmt, für die der menschliche Geist nicht gut ausgerüstet ist. Sicherlich wird die Forschung einige der hier beschriebenen Limitationen noch überwinden, aber die weitere Entwicklung könnte auch neue Problemfelder eröffnen, die bisher noch kaum durchdacht sind. So wird es spannend sein zu beobachten, was geschieht, wenn auch die Cyberkriminellen aufrüsten und KI gegen Unternehmen in Stellung bringen.

Bettina Weßelmann ist Beraterin für Unternehmenskommunikation und Fachautorin mit dem Spezialgebiet Informationssicherheit.

Dr. Johannes Wiele ist freier Autor sowie GDD-geprüfter Datenschutzbeauftragter und arbeitet als Managing Security Consultant.