HPE Discover More, München

Die große Datenjagd

24. Februar 2020, 7:00 Uhr | Von Dr. Wilhelm Greiner.

Hewlett Packard Enterprise (HPE) will bis 2022 sein gesamtes Portfolio "as a Service" anbieten. Als weiteren Schritt in Richtung dieses Ziels stellte der Konzern auf der Discover More in München - einem seiner diversen regionalen Pendants zur US-Hausmesse Discover - mit GreenLake Central eine neue Steuerungs- und Verwaltungslösung für hybride IT-Umgebungen vor. Doch nicht nur im RZ, auch am Netzwerkrand (Edge) herrscht reges Treiben. Schließlich gilt es, die überall sprießende Datenfülle nachhaltig in den Griff zu bekommen.

Die Heuschreckenplage von heute heißt Kassenbon. Während Unternehmen sich seit Jahrzehnten - obschon meist vergeblich - um das papierlose Büro bemühen, schreibt der Gesetzgeber dem Handel neuerdings vor, jedem Kunden ein Stückchen Thermopapier in die Hand zu drücken - wenig später kein Altpapier, sondern Restmüll. Eine Alternative gäbe es längst: Schließlich fallen heute allerorten und damit auch bei Zahlungsvorgängen Daten an, und diese lassen sich bekanntlich revisionssicher archivieren - je nach Bedarf im RZ, in der Cloud oder direkt vor Ort.

"Statt Datacenters haben wir inzwischen überall Zentren mit Daten", scherzte HPE-Chef Antonio Neri in seiner Keynote auf der Discover More. Denn das Unternehmen der Zukunft arbeite Edge-zentrisch, cloudgestützt und datengetrieben. Angesichts des Trends zum Edge Computing und damit umso komplexerer Enterprise-IT hat sich HPE neu ausgerichtet: "Wir sind eine Edge-to-Cloud as a Service Company," betonte Neri. Denn auf Unternehmensseite wünsche man sich die "Clouderfahrung" überall, also nicht nur bei der Public-Cloud-Nutzung, sondern auch in der eigenen IT-Umgebung.

Längst hat HPE mit der verbrauchsorientierten Kostenrechnung der GreenLake-Services, neuerdings ergänzt um eine Lösung namens "Container Platform", die Grundlage für cloudähnlichen IT-Betrieb gelegt (LANline berichtete, siehe Link). Die Plattform stellt Applikationen per Container und Kubernetes-Orchestrierung dynamisch und skalierbar bereit, einschließlich Containerisierung von Bestandslösungen. Was jedoch noch fehlte, war eine Steuerungs- und Management-Oberfläche, wie Business-Anwender sie von den Hyperscalern - den großen Cloud-Providern wie AWS, Microsoft Azure und Google - her kennen. Mit GreenLake Central legt der Anbieter nun ein Management-Layer über seine als Service lizenzierbaren Hardware- und Softwareangebote.

201 LANline 2020-02 LL02M03b
GreenLake Portal schafft den Überblick über die Nutzung und Kosten von GreenLake- wie auch Public-Cloud-Umgebungen. Bild: HPE

Mehr Komplexität im Edge/Cloud-Zeitalter

Der Hintergrund: Gemäß IDC-Prognose von 2019 soll die Zahl der vernetzten Geräte bis 2025 auf über 41 Milliarden ansteigen (zuvor hatte IDC sogar von 55 Milliarden gesprochen), und laut Gartner-Zahlen von 2017 sollen dann durch den Trend zum Edge-Computing und das Internet of Things (IoT) 75 Prozent der Daten außerhalb klassischer RZs verarbeitet werden. Unternehmen haben es also mit einer weit verzweigten IT-Infrastruktur zu tun, die von den Datenquellen am Netzwerkrand (etwa in der Fabrikhalle) über das Datacenter bis zu den diversen Public Clouds einer Multi-Cloud-Umgebung reicht.

Dies bringt erhebliche Herausforderungen: in puncto Performance- und Kapazitäts-Management, aber auch für das Kosten-, Risiko-, Security- und Compliance-Management. Dem will HPE mit GreenLake Central begegnen: Die Software soll eine lokal installierte, leicht bedienbare Lösung für das Management hauseigener IT-Produkte liefern, in die sich aber auch Public-Cloud-Instanzen integrieren lassen. Seitens HPE betonte man zudem, dass man im Rahmen von GreenLake-Projekten häufig auch Fremdhardware mitverwalte. Im Vordergrund stehe der IT-Bezug als Service - und auch bei einem AWS-Service frage schließlich niemand, welcher Hersteller die Hardware geliefert hat.

GreenLake ist ein Service-Portfolio von HPEs Service-Organisation Pointnext: Ein Anwenderunternehmen implementiert dynamisch skalierbare IT-Lösungen lokal, die Verrechnung erfolgt jedoch in Cloudmanier "as a Service", also nach tatsächlicher Nutzung, mit Abrechnung im Stundentakt. Der Konzern kann sich hier über rege Nachfrage freuen: Der GreenLake-Absatz wuchs im Fiskaljahr 2019 laut HPE-Bekunden um 39 Prozent, es gebe schon über 740 Greenlake-Kunden. Besonders beim Channel-Vertrieb komme das On-Demand-Modell gut an. Mit GreenLake Portal hat der Hersteller nun diesem flexiblen Bezug von IT-Infrastrukturbausteinen eine Management-Oberfläche spendiert, die - wie von den Hyperscalern bekannt - Informationen und Aktionen per intuitivem Self-Service-Interface zugänglich macht. Dies soll es nicht zuletzt erleichtern, Cloud-Workloads ins Unternehmen zurückzuholen, klage doch eine Vielzahl von Unternehmen über eskalierende Public-Cloud-Kosten.

Auf die Frage der LANline, ob HPE die Public-Cloud-Größen nicht nur als Ressourcenlieferanten, sondern - etwa AWS mit Outposts - auch als Konkurrenten zu HPEs Greenlake-Konzept sehe, postulierte Neri: "Wir konkurrieren mit jedem." Drei Wettbewerbergruppen hob er hervor: die Infrastrukturlieferanten, die Public-Cloud-Provider sowie chinesische Anbieter. Über AWS Outposts spottete er: "AWS hat endlich erkannt, was ?hybrid? bedeutet." Auch sonst zeigte sich der HPE-Chef beim Thema Public Cloud sehr bestimmt, ja sogar etwas gereizt: "Was die Public Cloud wirklich will, ist Ihre Daten", sagte er und verglich die Situation mit jenem berühmten Hotel California aus dem gleichnamigen Eagles-Song: "Wenn man einmal eingecheckt hat, kann man nie wieder auschecken." Und mit Outposts strecke die Cloud nun ihre "Tentakel" ins Unternehmens-RZ aus. Dem setze HPE einen "echten Open-Cloud-Ansatz" mit eingebauter Sicherheit entgegen. Greenlake Central soll den Unternehmen dabei die Kontrolle verschaffen - oder zurückgeben: "In der Public Cloud haben Sie keine Kontrolle", mahnte Neri.

201 LANline 2020-02 LL02M03c
Ein Dashboard gibt dem Compliance-Manager Auskunft über denCompliance-Status genutzter Cloud-Services. Bild: HPE

Überblick und Kontrolle

GreenLake Portal dient der kontinuierlichen Überwachung und Verwaltung der Performance- und Compliance-Parameter von IT-as-a-Service-Umgebungen. Anil Chandrupatia, Vice President of Engineering, Hybrid Cloud Software and Services bei HPE, erläuterte gegenüber LANline, GreenLake Portal kommuniziere per API mit den einschlägigen Hyperscaler-Umgebungen für die anschauliche Aufbereitung dieser Informationen. Dies sorge auch für Vergleichbarkeit der abonnierten Cloud-Services. Chandrupatia betonte allerdings, die Software diene in puncto Public Cloud nicht dem Operations-Management, sondern vielmehr der übergreifenden Kontrolle (Governance), insbesondere im Hinblick auf Kosten- und Compliance-Risiken. In der Software sind laut HPE-Angaben über 1.500 GRC-Kontrollpunkte (Goverance, Risiko und Compliance) hinterlegt, die GreenLake Portal kontinuierlich überwache.

Das Portal soll mehrere Nutzergruppen mittels Widget-basierter Dashboards mit den jeweils relevanten Informationen versorgen: CIOs, CFOs, IT-Administratoren, Security- und Compliance-Verantwortliche sowie Entwickler. Ein Nutzer könne zum Beispiel ermitteln: Wie hoch sind die Ausgaben für Public-Cloud-Services, wie hoch für die Private Cloud? Nutzung und Kosten könne man pro Workload, Service, Abteilung oder auch nach Lokation aufschlüsseln.

Norbert Schöfberger, Vice President Global Sales DACH bei HPE Pointnext Services, erläuterte gegenüber LANline die Rolle, die HPEs Service-Organisation dabei spielt: Man stehe den Anwendern hier nicht nur für Planung, Migration und Integration zur Seite, sondern könne auf Kundenwunsch auch Aufgabenbereiche als Managed Services übernehmen, beispielsweise das Incident- oder das Capacity-Management. Für die Wahrung der SLAs im Rahmen eines an Pointnext delegierten Capacity-Managements halte man vor Ort nach eigenem Ermessen Zusatzkapazitäten für Skalierung und Notfälle bereit. Diese Überkapazitäten müsse das Anwenderunternehmen aufgrund der On-Demand-Lizenzierung aber nicht bezahlen.

HPEs Anspruch ist es, mit GreenLake Portal eine einheitliches Self-Service-Management-Portal für die gesamte hybride IT zu liefern. Damit ist die Software nach der kürzlich vorgestellten Container Platform ein weiterer konsequenter Schritt auf dem von HPE eingeschlagenen Weg: zu einer On-Demand-Bereitstellung und einheitlichen Verwaltung von IT-Umgebungen, deren Komplexität der Begriff "Hybrid Multi-Cloud" oft nur erahnen lässt.

Edge und KI gewinnen an Bedeutung

Nicht nur in der Datacenter-Welt ist HPE aktiv, sondern auch bei deren Gegenstück: am Netzwerkrand (Edge), also dort, wo Menschen - oder Maschinen - mit dem Netzwerk interagieren. Gerald Kleyn, Vice President und General Manager Edgeline bei HPE, erörterte im Gespräch mit LANline den Status quo beim Edge-Computing-Rollout: "Viele Kunden sind bereits vom Proof of Concept zum Deployment fortgeschritten", so Kleyn. Dies gelte für Telkos, Behörden und das Militär wie auch in der Industrie. HPE selbst habe durch Edge-seitige Qualitätssicherung die Zahl der mit Fehlern an Kunden ausgelieferten Geräte ("defects on arrival") um 25 Prozent senken können. Dies bedeute "weniger unzufriedene Kunden sehr spät in der Wertschöpfungskette" - also dort, wo die Fehlerbehebung besonders teuer ist. HPE nutze dazu ML-gestützte Bilddatenanalyse. Diese dauere vor Ort nur zwei Sekunden, der Umweg über die Cloud hingegen würde 30 Sekunden in Anspruch nehmen, erläuterte Kleyn.

201 LANline 2020-02 LL02M03d
"Wenn man einmal eingecheckt hat, kann man nie wieder auschecken", so HPE-CEO Antonio Neri über die Risiken der Public Cloud. Bild: HPE

Neu ist das Gerät Edgeline EL 8000. Es beherbergt laut Kleyn vier High-Performance-Compute-Knoten "auf der Größe einer Werkzeugkiste" für das Clustering auf einer Software-Defined-Plattform zum verlässlichen Applikationsbetrieb am Netzwerkrand. Als Einsatzszenario beschrieb Kleyn das Carrier-übliche Multi-Access Edge Computing: Netzbetreiber installieren Endpunkte wie etwa Basisstationen möglichst nahe am Kunden; dort kann der Carrier dann neben der eigenen Software auch Applikationen von externer Seite betreiben. Mit der Ende 2018 vorgestellten Edgeline-OT-Link-Plattform wiederum, so Kleyn, erleichtere man es Unternehmen, ihr OT-Equipment (Operational Technology, industrielle Betriebstechnik) mit der Cloud zu koppeln. Die Plattform erlaube es, die Daten zunächst zu aggregieren und zu bereinigen, bevor man sie in die Cloud übermittelt, etwa zur cloudgestützten Früherkennung von PLC-Fehlern. Die Hardware arbeite wie beim Industrieeinsatz gefordert lüfterlos, biete Funk-Connectivity und unterstütze die üblichen OT-Protokolle.

201 LANline 2020-02 LL02M03e
HPEs KI-Vordenker Dr. Eng Lim Goh beschrieb mit großem Elan das Potenzial künstlicher Intelligenz für die Medizin. Bild: HPE

Wie eminent wichtig Edge-Computing sein kann, beschrieb Matt Harris, IT-Leiter von Mercedes AMG Petronas Motorsports, anhand der Formel-1-Karawane, die samt ihrer IT ständig von Rennstrecke zu Rennstrecke zieht. Während eines Rennwochenendes übertrage sein Team 3,5 TByte Sen- sordaten der beiden Rennfahrzeuge via 60Hz-WLAN. "Wir müssen Entscheidungen direkt an der Rennstrecke treffen", so Harris - oft schneller, als es eine Datenauswertung in der Cloud erlauben würde. Daher baue man vor jedem Rennen lokal ein Minirechenzentrum mit HPE-Edgeline-Komponenten auf. Interessant: Harris? Team betreibt das Edge-RZ bei Umgebungstemperatur - man will nicht riskieren, dass während eines Rennens die Kühlung streikt und dies die Auswertung der Sensordaten blockiert. Im Werk und in der Cloud fallen laut Harris wöchentlich 45 TByte Daten an. Deren Auswertung mittels Machine Learning (ML) bringe massive Zeitersparnisse bei der laufenden Optimierung der Fahrzeuge: ML-Unterstützung habe den Prozess der Bildanalyse von vier Wochen auf fünf bis sechs Tage verkürzt.

Eine ähnlich kritische Rolle spielt KI (künstliche Intelligenz) in der Medizin, wie Dr. Eng Lim Goh, SVP und CTO AI bei HPE, anhand des "Living Heart Projects" beschrieb. Das Projekt dient der Simulation des Blutflusses durch das Herz, damit Chirurgen die Drähte eines Schrittmachers präziser einfügen können. Goh erläuterte die zwei Ansätze der KI-Praxis: "top-down" (hypothesenbasiert) und "bottom-up" (datengetrieben). Der Bottom-up-Ansatz etabliert sich dabei laut Goh als der neue "Goldstandard". Denn der Top-down-Ansatz könne immer nur so gut sein wie die Regeln von Menschenhand, Deep Learning per "bottom-up" hingegen finde seine Regeln selbsttätig. Dadurch habe man die Fehlerquote bei der Auswertung einer Bilddatenbank von 25 Prozent auf zwei Prozent senken können - besser als der Mensch mit seiner Fehlerrate von fünf Prozent. "Aber zwei Prozent ist immer noch nicht null Prozent", warnte Goh. "Hier werden immer noch Fehler auftreten."

Von der Cloud bis zum Edge, von der Medizinforschung bis zur Formel 1: Riesige Datenmengen werden unsere Zukunft bestimmen, und das mit steigender Dynamik und Intensität. Gegen diesen Daten-Jetstream ist der befürchtete Thermopapier-Tsumani ein laues Lüftchen im Wasserglas. HPE baut darauf, dass die IT-Verantwortlichen sich diesen Herausforderungen stellen und in dynamisch skalierbare IT investieren werden. Denn Unternehmen können sich nicht allein auf die Kapazitäten der Public Cloud verlassen, sondern werden auch im eigenen RZ und am Edge neues IT-Equipment benötigen. Und neue Mülleimer. Für die Kassenbons.

Dr. Wilhelm Greiner ist freier Mitarbeiter der LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu FrontRange Solutions Deutsch- land GmbH

Weitere Artikel zu Data Sharing Optical Media GmbH

Weitere Artikel zu Aquaman Deutschland GmbH

Weitere Artikel zu ACR AG

Matchmaker+