Es brodelt in der IT-Welt. Die rasante Verbreitung des Einsatzes künstlicher Intelligenz (KI) gilt gemeinhin als nächste Evolutionsstufe der Wirtschaft, vergleichbar mit der industriellen Revolution. Und so stürzt man sich über alle Branchen hinweg auf KI – zur Optimierung von Geschäftsprozessen, zur Erweiterung der Produktfunktionalität und des Service-Portfolios sowie zur Schaffung gänzlich neuer Angebote. Dies setzt enorme RZ-Kapazitäten voraus. Auch bei der Optimierung dieses RZ-Betriebs kann KI ihr Potenzial entfalten: bei Klimatisierung und Kühlung ebenso wie beim Server-, Storage-, Netzwerk- und Security-Management.

NetApps Data Fabric soll die Datenbewegungen zwischen Edge, Core und Cloud vereinfachen und somit auch KI-Auswertungen erleichtern. Bild: NetApp

Die Erwartungen sind gigantisch: Die Unternehmensberatung PwC rechnet damit, dass KI bis 2030 einen Wertbeitrag zur Weltwirtschaft in Höhe von bis zu 15,7 Billionen Dollar leisten kann. 45 Prozent dieses Zuwachses sollen von Produkten mit KI-Funktionen stammen, die neue Nachfrage seitens der Verbraucher schaffen. In China, so PwC, werde der KI-Einsatz das Bruttosozialprodukt sogar bis zu 26 Prozent steigern. Für Deutschland prognostiziert die Unternehmensberatung in ihrer Studie vom Sommer 2018 ein Plus von 11,3 Prozent (je nach Branche zwischen sieben und 28 Prozent). Deutsche Unternehmen müssen laut PwC KI verstehen lernen, die eigenen Stärken erkennen, eine konsistente KI-Strategie entwickeln, Ethik und Transparenz garantieren und eine KI-Kultur schaffen, um damit erfolgreich zu sein.

Die Unternehmer stehen längst in den Startlöchern, viele sind bereits „losgesprintet“: Schon im Herbst 2017 gaben bei einer internationalen Umfrage des Marktforschungshauses Vanson Bourne 80 Prozent der Befragten aus dem Enterprise-Segment an, KI bereits auf die eine oder andere Weise zu nutzen. Die Varianten reichen von modellbasierter statistischer Analyse (Machine Learning, ML) bis zum rechenaufwendigen Deep Learning (DL) auf der Basis künstlicher neuronaler Netze mit zahlreichen „Hidden Layers“. Letzten Herbst hat die Bundesregierung angekündigt, drei Milliarden Euro in KI-Forschung zu investieren – was im internationalen Vergleich allerdings für sich allein genommen keinen allzu üppigen Betrag darstellt.

KI-Einsatz ist Chefsache

„Laut einer Umfrage, die wir im Herbst letzten Jahres durchgeführt haben, ist KI in Deutschland Chefsache“, so NetApp-Vice-President Jörg Hesske. Bild: NetApp

„Laut einer Umfrage, die wir im Herbst letzten Jahres durchgeführt haben, ist KI in Deutschland Chefsache: Bei rund drei Vierteln der Unternehmen entscheidet die Geschäftsführung über den Einsatz von künstlicher Intelligenz“, erklärte Jörg Hesske, Vice President Germany, Austria and Switzerland bei NetApp, im Gespräch mit LANline. „Haupteinsatzgebiet ist die Automatisierung von Geschäftsprozessen, vor allem in den Bereichen Qualitätssicherung, CRM sowie Fertigung, Letzteres zum Beispiel mittels Predictive Maintenance.“ Häufig stoßen laut Hesske nicht die IT-, sondern die Fachabteilungen die KI-Nutzung an, um die Wettbewerbsfähigkeit ihres Unternehmens zu sichern.

Für den KI-Einsatz stehen den Unternehmen drei Wege offen: Erstens kann man KI-Services bei Cloud-Service-Providern beziehen. Das Analystenhaus ISG Research nennt als „Machine Learning as a Service“-Marktführer die vier Schwergewichte Microsoft, AWS, IBM und SAP. Das direkte Verfolgerumfeld besteht aus Google, Salesforce, HPE, Alteryx, SAS sowie – etwas abgeschlagen – einigen weiteren (Spezial-)Anbietern. Zweitens kann eine IT-Organisation im hauseigenen RZ eine Umgebung für KI-gestützte Analysen aufbauen; dies setzt allerdings Know-how und personelle Ressourcen wie etwa Data Scientists voraus und bedingt insbesondere im Fall von Deep Learning Investitionen in teure, GPU-gestützte High-End-Server und umfangreiche Storage-Kapazitäten. Die dritte Option ist eine hybride Architektur, die den lokalen KI-Betrieb mit Hyperscaler-Ressourcen kombiniert.

„Kleinere Mittelständler nutzen für KI-gestützte Analysen häufig Kapazitäten der Hyperscaler, da der Aufbau einer hausinternen KI-Infrastruktur ihre Kapazitäten überfordern würde“, so Jörg Hesske. „Ein Hindernis ist hier lediglich die Sorge um die Datensicherheit, doch diese ist inzwischen weit weniger verbreitet, als man denken würde.“ Im Enterprise-Segment hingegen baue man Kapazitäten bevorzugt im eigenen RZ auf, denn hier sei die kritische Masse an auswertbaren Daten wie auch an IT-Ressourcen vorhanden. „Allerdings lagern selbst große Dax-Unternehmen durchaus ebenfalls KI-Aufgaben an Hyperscaler oder lokale Service-Provider aus“, merkt der NetApp-Manager an.

Für den anspruchsvollen KI-Betrieb im hauseigenen RZ – zum Beispiel für Deep Learning – biete NetApp dank Partnerschaft mit Nvidia die passende Technik. „Ontap AI kombiniert Nvidias DGX-1-Supercomputer, der speziell für Deep Learning entwickelt wurde, mit unseren schnellen All-Flash-Systemen mit Cloud-Integration“, so Hesske. „Unsere Max-Data-Technologie wiederum liefert Daten-Services für den Applikationsbetrieb mit persistentem Speicher.“ Insbesondere die Hybridvariante sei eine NetApp-Stärke: „Die Frage ‚KI-Nutzung im Hause oder as a Service?‘ stellt sich für uns gar nicht, denn wir vertreten mit der NetApp Data Fabric den Ansatz einer hybriden Multi-Cloud-Architektur mit optimiertem, skalierbarem Daten-Management. Hierfür sind wir schon früh Kooperationen mit Hyperscalern eingegangen. Google, AWS wie auch Microsoft setzen heute auf unsere Technologie.“

Unterstützung bei der KI-Einführung

Auch Dell Technologies – nicht nur in diesem Segment NetApps großer Konkurrent – sieht sich hier gut aufgestellt, was ein Bericht des Analystenhauses Moor Insights & Strategy vom November 2018 bestätigt: „Dell ist gut positioniert, um Organisationen vom Konzern über Kleinunternehmen bis zur öffentlichen Hand zu helfen, KI-Applikationen zu entwickeln und zu betreiben, unabhängig vom Grad der Expertise der jeweiligen Organisation“, so MI&S.

Das Analystenhaus aus Austin, Texas, unterscheidet drei Zielmärkte für KI-Infrastruktur: Startups, Konzerne und HPC-Betreiber (High-Performance Computing). Startups verfügen laut MI&S oft über tiefgehendes KI-Wissen, benötigen aber zumindest anfangs Cloud-basierte KI-Ressourcen, die sie dann typischerweise irgendwann in den lokalen Betrieb überführen. Konzerne wie auch Behörden hingegen unterhalten laut den Texanern häufig umfangreiche – und damit per KI auswertbare – Datenbestände, ihnen fehle aber oft die nötige Expertise. Die Analysten raten hier, zunächst mit ML-Erweiterungen bestehender Applikationen zu beginnen, um im Anschluss mit KI angereicherte Produkte und Services zu entwickeln. Bei HPC-Betreibern wiederum sei zwar wie bei Startups oft tiefgehende Expertise vorhanden, jedoch benötige man hier – anders als bei Startups – von Anfang an eine sehr hoch skalierende Infrastruktur mit Tausenden Rechenknoten, einem äußerst latenzarmen Netzwerk und massiven Storage-Möglichkeiten.

Für alle drei Märkte, so MI&S, biete Dell mit seinen HPC- und KI-Innovationszentren wie auch seinem umfangreichen Portfolio geeignete Lösungen. Auf Server-Seite reicht die Produktpalette vom 2HE-PowerEdge-Server R740 für einfachere ML-Projekte bis zum PowerErdge C4140 mit Support von vier Nvidia Tesla V100 GPUs, verbunden über Nvidias Nvlink 2.0 Fabric, für die Lern- und Betriebsphase neuronaler Netze. Dieses Server-Angebot ergänzen Dell-EMC-Speichersysteme von verteilten NFS- und Lustre-Speicherlösungen bis hin zu den High-End-Lösungen Isilon und ECS (Elastic Cloud Storage). Neben den Dell EMC Services for AI (Artificial Intelligence) heben die texanischen Analysten insbesondere die „Ready Solutions for AI“ des Anbieters hervor. Denn mit diesen vorkonfigurierten Lösungen könne man die Kosten senken und die Einrichtung verteilter Multi-Node-ML- und -DL-Umgebungen beschleunigen.

KI zur RZ-Optimierung nutzen

„KI im Datacenter“ bedeutet aber nicht nur, Hardware, Software und Services für KI-gestützte Geschäftsprozesse bereitzustellen. Vielmehr arbeitet die Branche an zahlreichen Fronten längst daran, den Betrieb der IT selbst mittels KI zu verbessern („AIOps“ genannt). Der Analyse und Optimierung mittels künstlicher Intelligenz bieten sich zahlreiche Einsatzfelder: die Energieoptimierung bei Klimatisierung und Kühlung im RZ, die Sicherstellung des ununterbrochenen Server-, Storage- und Anwendungsbetriebs, die Optimierung von Kapazitätsplanung und -Management, das Ressourcen-Management (Stichwort: optimierte Skalierung in die Cloud) sowie die echtzeitnahe Anomalieerkennung. Letztere dient der Performance-Steigerung ebenso wie der frühzeitigen Erkennung und Abwehr von Angriffen (siehe dazu „IT unter Dauerbeschuss“, lanl.in/2OpuWrj).
Ein Pionier des KI-gestützten Datacenter-Betriebs ist Google. Dies muss nicht verwundern, ist doch die Analyse massiver Datenvolumina Googles Kerngeschäft, während der Konzern weltweit enorme RZ-Kapazitäten unterhält und somit an deren energieeffizientem Betrieb großes Interesse haben muss. Schon 2014 berichtete der Hyperscaler, man habe ein neuronales Netzwerk-Framework entwickelt, das aus RZ-Betriebsdaten lernt, um die Leistung der Anlage zu modellieren und die PUE (Power Usage Effectiveness) in einem Toleranzbereich von 0,4 Prozent für eine PUE von 1,1 zu berechnen. 2016 verkündete der Konzern dann, dank der zwei Jahre zuvor akquirierten DeepMind-Technologie die RZ-Kühlungskosten um stolze 40 Prozent gesenkt zu haben. Und im Sommer 2018 gab der Konzern bekannt, dass die Kühlung seiner Rechenzentren nun dank KI-Steuerung autonom erfolgt.

Ziel: Autonomer RZ-Betrieb

Google konnte bereits vor Jahren dank der KI-Technik von DeepMind eine deutliche Verringerung des PUE-Werts und somit der Energiekosten erzielen. Bild: Alphabet/DeepMind

Googles Angaben kann man bei IBM bestätigen: „Eine substanzielle Senkung der RZ-Kühlkosten per KI ist möglich, sagt Ingmar Meijer, Senior Technical Staff Member bei IBM Research in Zürich. „Wir haben ein Modell gebaut, um bei gegebener IT-Leistung und Außentemperatur für alle RZ-Infrastrukturkomponenten den optimalen Betriebspunkt zu finden. In einem Pilotprojekt haben wir damit eine Senkung der RZ-Kühlkosten von zirka 40 Prozent erreicht. Dabei kamen auch Deep Neural Networks zum Einsatz. In einen nächsten Schritt wird Reinforcement Learning (bestärkendes Lernen, d.Red.) relevant werden. Dank Reinforcement gehen die KI-Algorithmen über den bestehenden Parameterbereich hinaus, um zu ermitteln, ob der Betrieb dadurch effizienter wird.“

Nun will IBM – mit seinem Angebot Watson ein weiterer Vorreiter der KI-basierten Analyse – dieses Einsparpotenzial auch für jene Unternehmen erschließen, die keine Hyperscale-Rechenzentren nach Google-Manier betreiben: Auf der Basis seiner Forschung hat IBM ein Angebot namens Datacenter Infrastructure Operations Advisor entwickelt, um RZ-Leitern einen deutlich verbesserten Datacenter-Betrieb zu ermöglichen. „Für die IT-Verantwortlichen sind dabei fünf Punkte wichtig“, so Jörg Schanze, zuständig für Data Center Consulting, Design and Build bei IBM in Zürich: „Das Vorgehen muss automatisierbar sein, vertrauenswürdig – also nicht experimentell –, zudem erklärbar, fair – es darf nicht zu Lasten des Service-Providers gehen – und letztlich auch sicher.“

Splunkbase enthält Hunderte von Apps, mit denen Anwender das KI-gestützte Log-Daten-Management der Lösung Splunk Enterprise erweitern können. Bild: Splunk

Im RZ gebe es eine ganze Reihe von Stellschrauben für Effizienzsteigerung und Kostensenkung, so Schanze. „Das reicht von der Front-of-Server-Temperatur über die Art der Klimatechnik bis hin zur Kühlmitteltemperatur. Ein interessantes Ergebnis unserer Forschung: Das Gesamtsystem Kühlung reagierte oft viel träger, als die Techniker angenommen hatten. Eine Reaktion des Systems erforderte mitunter Tage statt – wie zunächst vermutet – Stunden. Diese Zeitfenster muss man kennen, um das RZ wirksam optimieren zu können.“ Auf der Basis solcher Erfahrungswerte und der per KI ermittelten Ergebnisse liefere man nun Empfehlungen für Anpassungen des RZ-Betriebs. „Eine automatisierte Umsetzung haben wir derzeit noch nicht implementiert“, so Schanze. „Die Automation ist aber der nächste logische Schritt, denn unser Ziel sind schließlich selbstlernende automatisierte Systeme.“

Der Konzern hat mehrere Anwendergruppen im Visier: „IBMs Datacenter Infrastructure Operations Advisor zielt auf RZ-Verantwortliche, die bereits einen detaillierten Überblick über ihre RZ-Kosten haben“, erläutert Schanze. „Weitere Zielgruppen sind Unternehmen mit einem Umweltverantwortlichen sowie solche, die sich durch einen besonders effizienten Datacenter-Betrieb vom Marktumfeld abheben wollen, des Weiteren die öffentliche Hand. Vorteilhaft ist es, wenn man ein großes Rechenzentrum betreibt – je größer das RZ, desto höher das Einsparpotenzial. Unsere Services reichen hier von der Konzeption und Ausführungsplanung bis zur Begleitung des Projektverlaufs.“
Google und IBM sind lediglich prominente Beispiele für den KI-Trend: Mit dem Thema KI beschäftigen sich zahlreiche Anbieter aus dem RZ-Umfeld, darunter Siemens und Schneider Electric ebenso wie Vertiv oder auch Nlyte.

Die IT am Laufen halten

Im System-, Netzwerk- und Storage-Management verbreiten sich KI-gestützte Analysen ebenso rasant – vielleicht sogar noch schneller. KI soll hier Zusammenhänge, Trends und Anomalien aufdecken, die dem menschlichen Auge entgehen. Der Einsatz zielt also vorrangig auf mehr Verfügbarkeit und Performance mittels vorausschauender Wartung (Predictive Maintenance) und trenddatengestützter Kapazitätsplanung. Anders als bei der Haus- und Klimatechnik im RZ profitieren Anbieter von dem Umstand, dass man sich mit den sensorbestückten Geräten bereits in der IT-Welt bewegt. Viele Probleme der Auswertung von RZ-Haustechnikdaten – etwa bezüglich Schnittstellen und proprietärer Kommunikationsprotokolle – treten somit gar nicht erst auf. Und immer öfter liefern die IT-Anbieter integrierte KI-Funktionalität ab Werk mit.

Ein Vorreiter des ML-gestützten System-Managements war und ist der US-amerikanische Log-Management-Spezialist Splunk. „Grundsätzlich“, so Stéphane Estevez, IT Operations Evangelist bei Splunk, „stehen unsere Lösungen für Datacenter-Management-Monitoring, Alert-Systeme, Troubleshooting, Predictive IT, Security- und Business-Analytics mit integrierter Machine-learning-Funktionalität in vier Formen zur Verfügung: als Software as a Service in einer Public Cloud inklusive der gewünschten Rechenleistung und benötigter Lizenzen, als Infrastructure as a Service, wenn das Unternehmen die Software auf einer vorhandenen Cloud installieren will, On-Premise oder in einer hybriden Form.“ Dem Anwender stehe dabei stets der gleiche Funktionsumfang und identische Bedienbarkeit zur Verfügung.

„Unsere Plattform basiert auf dem Kernprodukt Splunk Enterprise, das bereits viele grundlegende Funktionen besitzt, um das RZ-Management mit Hilfe von Machine Learning zu unterstützen“, erläutert Estevez. „Dies betrifft Bereiche wie die Anomalieerkennung, dynamische Schwellenwertberechnung, Erkennung von Abweichungen im Zeitverlauf oder im Vergleich mit anderen Einheiten – etwa Servern – sowie Event Clustering.“ Ergänzend biete die Splunkbase über 1.500 kostenfreie Apps für speziellere Probleme. Für erfahrene Anwender gebe es zudem ein Machine Learning Toolkit, mit dem sie ihre eigenen Algorithmen in die Plattform einspeisen können. Das Zusatzmodul ITSI (IT Service Intelligence) wiederum enthalte Vorhersagemodelle, mit dem sich Vorfälle laut Estevez schon 30 Minuten vor dem Eintreten erkennen lassen.

IBM Operations Analytics Predictive Insight dient der KI-basierten Optimierung des IT-Betriebs im Rechenzentrum. Bild: IBM

Auf KI bauen im System-Management inzwischen praktisch alle Anbieter von Rang und Namen. So setzt IBM mit IBM Operations Analytics Predictive Insight auch hier auf die Fähigkeiten der hauseigenen Watson-Technik. HPE offeriert dazu die Software InfoSight, die man einst mit Nimble Storage übernommen hatte. Ihre Ergebnisse speist die Analyse­lösung in eine Recommendation Engine (Empfehlungsgenerator), die Ratschläge zur Optimierung des IT-Betriebs gibt. Aufgrund seines umfassenden Portfolios, das Storage-Systeme, Server und Netzwerkgerätschaft umfasst, kann HPE hier auf eine sehr umfangreiche Datenbasis zurückgreifen (siehe Interview).

Eine ähnlich gelagerte Recommendation Engine liefert Cisco mit DNA Center, dem Herzstück seiner Strategie für „Intent-based Networking“ („absichtsbasierter“ Netzwerkbetrieb). Der IT-Ausrüster bietet auch eigene Server für ML-Auswertungen, den mit Nvidia-GPUs bestückten UCS C480 ML M5 Rack Server. Konkurrent Extreme Network wiederum hat letzten Sommer eine Lösung namens „Smart Omni­Edge“ vorgestellt. KI-gestützt soll Smart OmniEdge bestmögliche Netzwerk-Performance und Sicherheit dort garantieren, wo die Endanwender – und künftig vermehrt auch IoT-Geräte (Internet of Things) – auf die Unternehmens-IT zugreifen: am Netzwerkrand (Edge).

Ausblick

Künstliche Intelligenz erobert mit AIOps derzeit den gesamten IT-Betrieb von der Public Cloud über das Data Center bis zum Edge und über den gesamten Stack hinweg. Die von LANline befragten Experten waren sich einig: In KI schlummert enormes Potenzial für die RZ-Optimierung. Noch aber stehen dem KI-beflügelten Fortschritt zwei Hindernisse im Weg: fehlendes Know-how, wie derlei KI-Projekte am besten zu stemmen sind, sowie der in der IT allseits eklatante Fachkräftemangel. Hier beißt sich die Katze in den Schwanz: KI könnte durchaus helfen, dem Mangel an IT-Fachkräften entgegenzuwirken – doch dazu muss sie eben erst einmal implementiert sein.