Ob virtuelle Assistenten, Roboter, medizinische Diagnosen oder automomes Fahren: In praktisch jedem Lebensbereich und Wirtschaftszweig setzen Anbieter heute große Erwartungen auf den Einsatz künstlicher Intelligenz (KI). Auch den IT-Betrieb soll KI effizienter gestalten: Vom Server- und Storage-Management über die Absicherung der Unternehmens- und Cloud-IT bis hin zum Service-Desk hofft man auf ML, Deep Learning und die Verarbeitung natürlicher gesprochener Sprache (Natural Language Processing) als großen Innovationsschub.

Dave: „Open the pod bay doors, HAL.“
HAL: „I‘m sorry, Dave. I‘m afraid I can‘t do that.“

Der Mensch gibt eine Anweisung, die Maschine widersetzt sich. Dieser kurze Dialog aus Stanley Kubricks Science-Fiction-Klassiker „2001: A Space Odyssey“ brachte 1968 den Alptraum aller KI-Skeptiker auf den Punkt: eine Superintelligenz, die außer Kontrolle gerät, weil sie einen eigenen Willen entwickelt hat. Wann dieser Effekt – Singularität genannt – eintreten wird, daran scheiden sich die Geister: Der Mathematiker Vernor Vinge, der den Begriff „Singularity“ 1993 prägte, erwartete dies bis spätestens 2030. Zukunftsforscher Ray Kurzweil, technischer Leiter bei Google, hält das ebenfalls für möglich. Zum Kassandra-Lager zählen auch so prominente Vordenker wie etwa der inzwischen verstorbene Astrophysiker Stephen Hawking. Die Optimistenfraktion hingegen wiegelt ab: Eine allgemeine KI, die menschenähnlich denken kann, erachtet man als mindestens mehrere Jahrzehnte entfernt, und manche prophezeien gar ein Verschmelzen von Superintelligenz und menschlicher Biologie mit ungeahnten neuen Möglichkeiten.

Noch bewegt man sich mit solchen Spekulationen – wie Stanley Kubrick vor 51 Jahren – im Bereich der Science Fiction. Die Projekte, die versuchen, KI nutzbar zu machen, sind weit weniger dramatisch, zielen sie doch nicht auf eine allgemeine (horizontale) und damit menschenähnlich denkende KI, sondern auf den Einsatz kontextspezifischer (vertikaler) KI ab. Im Fokus stehen meist drei Spielarten: erstens maschinelles Lernen (ML), also selbstlernende Systeme zur statistischen Analyse von Mustern, Clustern und Ausreißern, zum Beispiel für Trendanalysen; zweitens Deep Learning (DL), also der Einsatz künstlicher neuronaler Netze mit mehreren Zwischenschichten (Hidden Layers), zum Beispiel für die automatisierte Objekterkennung in Bildern; und drittens die Verarbeitung natürlicher – also gesprochener – Sprache (NLP), benötigt für virtuelle Assistenten, Chatbots und sprachgesteuerte „smarte“ Geräte.

„HPE InfoSight lernt während der Analyse der Daten kontinuierlich dazu, optimiert durch Empfehlungen jedes System und macht es dadurch zuverlässiger“, erklärt HPE-Mann Thomas Meier. Bild: HPE

Bei der Entwicklung vertikaler KI hat man laut Fachleuten in den letzten Jahren große Fortschritte erzielt. Die breite Öffentlichkeit erkennt derlei immer daran, dass ein Computer einem Weltmeister den Rang abläuft: Nachdem bereits 1997 – KI ist schließlich kein neues Phänomen – IBMs Großrechner Deep Blue den damaligen Schachweltmeister Garri Kasparow besiegte, schlug 2017 die AlphaGo-Software der Google-Tochter DeepMind den Weltranglisten-Ersten im Brettspiel Go. Dieses gilt als weit komplizierter als das „Spiel der Könige“. Der Sieg des Computers gelang aufgrund eines Trainings mit DL-Methoden.

Jenseits der klaren und eindeutigen Regelwelt der Brettspiele hingegen kann der Endanwender schnell den Eindruck bekommen, dass es mit der künstlichen Intelligenz vielleicht doch noch nicht so weit her ist. Ein Beispiel aus der Recherche für diesen Beitrag: Ein Softwarehaus – den Namen lassen wir weg, denn das Problem betrifft längst nicht nur diesen einen Anbieter – wollte in einem Webcast demonstrieren, wie weit sein KI-basierter Chatbot schon gediehen ist. Und in der Tat konnte der Bot in menschenähnlich-lockerem Plauderton Konversation machen. Laut Anbieter bereiteten der KI selbst Tippfehler kein Verständnisproblem. So tippte man – der Anwendungsfall war die Trouble-Ticket-Erstellung am IT-Service-Desk – Folgendes:

Anwender: „Ueige [statt: zeige] alle meine Tickets an!“
Chatbot: „Willst du wirklich alle deine Tickets löschen? Gut, ich lösche alle deine Tickets.“

„Grundsätzlich können alle Geschäftsprozesse durch KI-Software erheblich verbessert werden“, meint Benjamin Krebs von Dell. Bild: Dell Technologies

Anders als beim verzweifelten Kampf des einsamen Astronauten gegen die Singularität im Kubrick-Film konnte der Anwender den Prozess hier zum Glück mit einem einfachen „Nein“ stoppen.

Laut Gartners „Hype Cycle for Artificial Intelligence, 2018“ befinden sich Chatbots gerade am Anfang des „Gipfels der überzogenen Erwartungen“. Ebenfalls auf der Spitze des Hypes sehen die Marktforscher Deep Learning, ML und NLP, sprachgesteuerte Lautsprecher wie Amazon Alexa und Google Echo, RPA-Software (Robotic Process Automation – Chatbots sind eine RPA-Variante), virtuelle Assistenten (als Sammelbegriff) nebst weiteren KI-Techniken und -Spielarten. „Compute-Infrastruktur treibt den KI-Fortschritt an und wird gerade auf KI zugeschnitten“, so der Gartner-Report. Zu den spannenden technischen Neuerungen zählen die Analysten GPU- und FPGA-Beschleuniger, spezielle ASICs für das Deep Learning (Deep Neural Network ASICs) sowie neuromorphe Hardware, also Halbleitertechnik, die von neurobiologischen Strukturen inspiriert ist.

KI-Hype

Doch der KI-Hype – da waren sich die IT-Fachleute, mit denen ich für diesen Artikel gesprochen habe, einig – fußt längst nicht nur auf technischer Innovation. Hinzu kommt, dass die IT-Ausrüstung für den KI-Einsatz dank Moore’schem Gesetz und dem Preisverfall bei Speichertechnik inzwischen erheblich erschwinglicher ist als bei Deep Blues Schacherfolg. Bei den KI- und Cloud-Vorreitern Amazon, IBM, Google und Microsoft kann man KI längst für unterschiedlichste Einsatzfälle „as a Service“ beziehen, während sie zugleich in immer mehr aufgabenspezifische Software und Cloud-Services hineinwandert. Auch trägt zum Hype wesentlich bei, dass Anbieter aus diversen Bereichen nun schon seit Jahren Daten gesammelt haben – schließlich ist ein ordentlich großer Datenpool oder besser Datensee erforderlich, um eine KI zu trainieren. In manchen Branchen ist der Mangel an geeignetem Datenmaterial derzeit das größte Hindernis für den KI-Erfolg. So könnte man zum Beispiel in der Medizinforschung, etwa bei der Früherkennung neurodegenerativer Erkrankungen wie Alzheimer, schon deutlich weiter sein, gäbe es denn bereits eine ausreichend große, brauchbare Datenbasis.

Eine Branche jedoch profitiert davon, dass laufend Massen von Daten – vor allem Telemetriedaten – anfallen: die IT-Industrie selbst. Und so bringen immer mehr Hersteller KI – vorrangig in der ML-Variante – im IT-Abteilungsalltag zum Einsatz: vom Betrieb der Server- und Storage-Systeme über das Netzwerk- und Security-Management bis hin zur Zusammenarbeit im Team und am bereits erwähnten Service-Desk. Während es in der IT-Branche als schick gilt, ein Startup-Unternehmen zu sein, betonen Anbieter nun plötzlich verstärkt, wie lange sie schon im Geschäft sind – sprich: seit wann sie schon Telemetriedaten sammeln konnten.

Den Referenzwert setzt hier natürlich IBM, doch auch andernorts ist man stolz auf die hauseigene KI-Historie: „Virtual Instruments nutzt die Vorteile von KI/ML seit mehr als fünf Jahren“, betont zum Beispiel Len Rosenthal, Chief Marketing Officer bei dem US-amerikanischen AIOps-Spezialisten (AIOps: Artificial Intelligence for IT Operations, KI-gestützter IT-Betrieb). Die hauseigene Lösung erläutert er so: „VirtualWisdom sammelt, korreliert und analysiert Maschinendaten, API-Daten, Übertragungsdaten sowie telemetrische Überwachungsdaten von nahezu jedem Gerät im Rechenzentrum sowie in der Cloud.“ Damit, so Rosenthal, habe Virtual Instruments „quasi das Gehirn des Rechenzentrums entwickelt“. Der Marketing-Mann sieht in dem Ansatz die Zukunft des IT-Alltags: „Insgesamt erlaubt es AIOps, Prozesse im Betriebs- und Performance-Management zu automatisieren. Unternehmen, die verlässliche betriebskritische Applikationen brauchen und Flaschenhälse oder einen Totalausfall nicht verkraften würden, sind gut beraten, sich auf die Vorteile einer AIOps-Plattform zu verlassen.“ Denn die KI-Unterstützung biete tiefe Einblicke in die Leistung und den Zustand der Applikationen und Infrastruktur ebenso wie die intelligente Automation von Anpassungen – von einem Interface aus.

Auf eine noch längere KI-Historie kann HPE zurückblicken. Schließlich hat der Konzern 2017 mit der Akquisition von Nimble Storage auch deren AIOps-Software InfoSight übernommen. „Schon heute analysiert und korreliert HPE mit der KI/ML-Plattform HPE Infosight jede Sekunde Telemetriedaten von Millionen von HPE-Speicher-, Server- und Hyperconverged-Systemen“, so Thomas Meier, Enterprise Architect bei HPE. Der Fokus liegt dabei auf Service-Automation und Hochverfügbarkeit. Fluchtpunkt der Entwicklung ist das autonome Rechenzentrum, derzeit gibt man sich bei HPE aber – abgesehen von systemimmanenten Automatismen – damit zufrieden, dem Administrator Handlungsoptionen vorzuschlagen: „InfoSight lernt während der Analyse dieser Daten kontinuierlich dazu, optimiert durch Empfehlungen jedes System und macht es dadurch zuverlässiger“, erläutert Meier. „Hier legen wir – Stichwort Zero-Downtime-Plattform – einen Schwerpunkt auf präventive Empfehlungen, um IT-Störfälle zu vermeiden und eine 100-prozentige Verfügbarkeit der Datenspeicherumgebung sicherzustellen.“ Er verweist auf eine hohe Erfolgsquote: „InfoSight hat dafür gesorgt, dass 86 Prozent der IT-Probleme automatisch vorhergesagt und gelöst wurden und der Aufwand bei der Bearbeitung um 85 Prozent geringer ausfiel.“ HPE baue den Ansatz kontinuierlich aus und bemühe sich dabei um Integration in herstellerübergreifende Software-defined-Umgebungen. So werte man bei der kürzlich angekündigte Nimble-dHCI-Lösung die Telemetriedaten aus Server, Datenspeicher, Netzwerk und VMware vCenter bereits zu 100 Prozent mit InfoSight aus.

„Heutzutage führt jede Erwähnung von Cybersicherheit unweigerlich zu Diskussionen über KI und ML“, berichtet Andrew Walenstein, der Forschungsleiter von BlackBerry Cylance. Bild: BlackBerry

Ebenso eindeutig setzt Konkurrent Dell auf KI: „Grundsätzlich können alle Geschäftsprozesse durch KI-Software erheblich verbessert werden“, meint Benjamin Krebs, Director Germany und Mitglied der Geschäftsleitung bei Dell Technologies Unstructured Data Solutions. Der Storage-Mann betont dabei die große Rolle der Datenqualität: „Um das Potenzial optimal zu nutzen, ist es zwingend notwendig, das Unternehmen datengesteuert aufzubauen. Eine Vorhersage im Rahmen von Predictive Analytics (vorausschauende Analyse, d.Red.) kann nur so gut sein wie die Qualität der Eingabedaten.“

Die Datenmenge, die moderne Geräte erzeugen, steige ungebremst an, und im Bereich unstrukturierter Daten verzeichne man ein exponentielles Wachstum. Big Data Analytics bilde somit einen Grundpfeiler der digitalen Transformation. Mit den File-Storage-Geräten der Isilon-Baureihe und dem Objektspeicher ECS biete man dafür die geeigneten Systeme, so der Dell-Manager, wobei man hier ebenfalls KI nutze: „Isilon optimiert die Datenplatzierung ständig selbst und verwaltet Daten automatisch über den gesamten Lebenszyklus“, so Krebs. Auch Dell EMCs Blockspeicher-Flaggschiff PowerMax arbeite mit voll integrierter KI für die kontinuierliche automatische Systemoptimierung.

KI als Hilfssheriff

In keinem Teilbereich der IT aber setzt man so große Hoffnung auf KI wie beim Thema Security: „Heutzutage führt jede Erwähnung von Cybersicherheit unweigerlich zu Diskussionen über KI und ML“, berichtet Andrew Walenstein, Director Security Research and Development bei BlackBerrys Security-Geschäftsbereich Cylance. Die Kanadier hatten den Vorreiter KI-gestützter Security-Software Anfang dieses Jahres übernommen. Walensteins Prognose: „Die nächste Generation von Cybersicherheitsbedrohungen erfordert agile und intelligente Programme, die sich schnell an neue und unvorhergesehene Angriffe anpassen können.“

Vor diesem Hintergrund verwundert es nicht, dass laut Softshell Vendor Report 2019 über 180 Security-Anbieter damit werben, in den Produkten und SaaS-Angeboten KI/ML zur Cyberabwehr einzusetzen (siehe Beitrag auf Seite 40 und Marktübersicht auf Seite 42). Das Spektrum reicht hier vom klassischen ML-Einsatz zur Virenerkennung bis hin zu Zero-Trust-Architekturen. Hier überwacht eine KI das Verhalten der Endanwender laufend, um bei auffälligen Abweichungen vom ermittelten Benutzerprofil – etwa einer potenziellen Datenexfiltration – Alarm zu schlagen und/oder vom Anwender eine neuerliche Authentifizierung einzufordern.

„Bei der Cybersecurity wird KI/ML schon länger zum kontinuierlichen Beobachten und Lernen des Verhaltens von Internet-Domänen benutzt, um infizierte Web-Seiten zu entdecken“, erläutert Kay Wintrich, Director Specialist Sales bei Cisco. „Es gibt aber noch viel Potenzial im maschinellen Lernen von verdächtigen Datenmustern und Applikationsverhalten zur Vorhersage neuer Gefahren.“ Insbesondere könne KI/ML es erleichtern, zwischen realen Problemen und Fehlalarmen zu unterscheiden.

Kay Wintrich von Cisco über den Netzwerkbetrieb der Zukunft: „Was heute primär betriebsunterstützend arbeitet, wird zukünftig stärker rein automatisch ablaufen – kontinuierlich lernend und selbstständig reagierend.“ Bild: Cisco

„Die überwiegende Mehrheit der Entscheider in Unternehmen hat erkannt, dass KI für die Zukunft der Cybersicherheit von grundlegender Bedeutung ist“, sagt BlackBerry-Mann Walenstein. „Doch trotz des Hypes wissen viele Entscheider immer noch nicht, wie genau KI-basierte Sicherheitsprodukte funktionieren.“ Der Hintergrund: Die Security-Anbieter operieren gerne mit dem Begriff KI (oder englisch AI), ohne aber Details zur Arbeitsweise zu verraten – dies, so heißt es dann oft auf Nachfrage, sei eben die „geheime Zutat“ der Lösung.

Diese Hype-typische Haltung erschwert es, echte KI-basierte Security-Lösungen von Schaumschlägerei zu trennen – und dass Security-Forscher jüngst meldeten, sogar ein Produkt des ML-Vorreiters Cylance ausgetrickst zu haben, zeigt: Selbst etablierte ML-Lösungen lassen sich überwinden. Richtig brisant dürfte es am IT-Security-Markt hingegen werden, sobald „die Bösen“ den Zeitvorsprung der Security-Anbieter eingeholt haben und in großem Maßstab beginnen, KI für Angriffszwecke zu nutzen – dies wird im Security-Schwerpunkt der LANline-Ausgabe 10 ein Thema sein.

Im Netzwerk-Management operiert Marktführer Cisco natürlich ebenfalls mit KI. Der Konzern spricht hier vom „Intent-based Network“, dem „absichtsbasierten“ Netz: „Cisco verfolgt bereits seit einiger Zeit den Ansatz Intent-based Networking“, erläutert Cisco-Manager Wintrich. Damit müsse der Administrator nicht mehr einzelne Geräte und Anwendungen konfigurieren, sondern nur noch die beabsichtigten Ziele eingeben. „Diese geschäftlichen Absichten werden über KI und ML automatisch und zuverlässig in die entsprechenden technischen Einstellungen übersetzt und angewendet“, sagt Wintrich. KI/ML komme dabei in allen drei Domänen eines Cisco-Netzwerks zum Einsatz: beim Software-Defined Access mit DNA-Center, im SD-WAN mit vManage/vAnalytics sowie im Datacenter und in der Cloud bei ACI mit APIC und der Network Assurance Engine. „Was heute primär betriebsunterstützend arbeitet“, so Wintrich, „wird zukünftig stärker rein automatisch ablaufen – kontinuierlich lernend und selbstständig reagierend.“

Auch im Bereich Collaboration sieht der Cisco-Mann viele Möglichkeiten für den KI-Einsatz: „Für eine verbesserte Zusammenarbeit kann KI/ML von automatischer Teilnehmeridentifizierung durch Gesichts- oder Spracherkennung über das Anreichern von Profilen aus sozialen Netzwerken und intelligenten Assistentenfunktionen in Meetings bis hin zur Meeting-Nachbereitung die Nutzer- und Team-Experience verbessern. Automatisierte Mitarbeiterunterstützung bis hin zu reinen KI/ML-basierten Call-Centern haben ebenfalls großes Potenzial.“ Da dürften die Service-Management-Anbieter von BMC und ServiceNow bis zu Lokalmatadoren wie Matrix42 und Realtech zustimmen: Hier betont man ebenfalls gerne die Vorteile KI-basierter Assistenten und Chatbots. Ziel sei es, die Service-Desk-Agents zu entlasten – was aber mittelfristig bedeutet: „Kollege Bot“ soll zumindest den First-Level Support vollständig übernehmen. Noch ist es aber nicht so weit, wie abschließend folgendes Beispiel zeigt: der Versuch eines Anrufers, bei einer Krankenkasse telefonisch Informationen zu einem Gesundheitsthema einzuholen. Auch dort meldet sich natürlich längst kein Service-Mitarbeiter mehr, sondern ein Bot:

Bot: Über welches Thema möchten Sie sich informieren?
Anrufer: Gluten.
Bot: Sie haben Probleme mit dem Login? Auf der Website oder in der App?

Trotz aller Fortschritte bei neuronalen Netzen, trotz AI as a Service, trotz populärer ML-Werkzeuge wie TensorFlow und Keras: Es bleibt schwierig. Immerhin bedeutet das, dass man sich um die Singularität derzeit offenbar tatsächlich keine Sorgen machen muss. Wenn also ein Endanwender – nennen wir ihn Dave – beim Service-Desk anruft und als Antwort ein „Sorry, Dave, aber ich fürchte, dass ich das nicht tun kann“ erhält, dann können wir auf absehbare Zeit sicher sein, dass dahinter keine böswillige Superintelligenz steckt. Vielmehr fordert der Anwender wahrscheinlich etwas, das nicht den Unternehmensrichtlinien entspricht, einen Compliance-Verstoß bedingt, technisch nicht umsetzbar, zu teuer oder aber für seine Rolle nicht vorgesehen ist. Das größte Problem im IT-Alltag ist und bleibt vorerst nicht die künstliche Intelligenz, sondern die menschliche Dummheit. Das kann man tröstlich finden, muss man aber nicht.

Dr. Wilhelm Greiner ist freier Mitarbeiter der LANline.