Das IoT verursacht nicht nur ein enormes Datenwachstum, sondern führt dazu, dass das „Datenzentrum“ aus dem klassischen Rechenzentrum heraus an das Edge wandert. Neben dem Daten-Management über verteilte Standorte hinweg benötigen Unternehmen auch leistungshungrige KI- und ML-Workloads, um die Daten auszuwerten. Klassische Infrastrukturen im Rechenzentrum geraten dabei an ihre Grenzen.

Das Internet of Things (IoT), aber auch KI (künstliche Intelligenz) und ML (maschinelles Lernen) bringen die bisherige IT-Infrastruktur in Rechenzentren zunehmend an ihre Grenzen. Mit 5G erreicht in diesem Jahr zudem eine neue Mobilfunkgeneration ihre Marktreife, die noch einmal weitere Anforderungen an die IT-Landschaft im Datacenter stellt. Neben dem unter anderem durch das IoT befeuerte Datenwachstum erfordern Technologien wie KI und ML leistungsstarke Komponenten mit einem höheren Leistungsspektrum. In der Folge muss die Infrastruktur des Rechenzentrums nach Meinung von Erwin Breneis, Solution Specialist Multi-Cloud bei Juniper Networks, noch widerstandsfähiger werden und gleichzeitig agil und flexibel sein. Schnellere Prozessoren, GPUs oder FPGAs (Field Programmable Gate Arrays) sowie immer größere Kapazitäten an RAM bringen laut Peter Dümig, Senior Server Product Manager bei Dell Technologies, eine weitere Herausforderung mit sich: die immer größer werdende Energiedichte. „Sie (die modernen Komponenten, d.Red.) sprengen die Kapazität vieler Rechenzentren in Bezug auf die Kühlung und Energieversorgung, die sich nur schlecht anpassen lässt“, so Dümig.

Auch bei Lenovo hat man das Problem mit steigenden Energieverbrauch und den einhergehenden Kühlungsanforderungen der CPUs und GPUs auf dem Schirm. „Eine Lösung für dieses Problem ist die Kühlung mit Flüssigkeiten, die Wärme effizienter abtransportieren können als Luft, etwa Wasser“, berichtet Paul Höcherl, Produkt Manager Lenovo Data Center Group für Deutschland, Österreich und die Schweiz. Hier könne beispielsweise eine Dezentralisierung der Infrastruktur helfen, etwa das Bauen von Rechenzentren an Standorten mit einer günstigen und ausreichenden Stromversorgung, wie das beispielsweise in Windparks der Fall ist.

Automatisierung und Verzahnung verbessern

Neben der Problematik mit der Energieversorgung und Kühlung müssen jedoch auch die eingangs geschilderten Herausforderungen bewältigt werden. „Die neue Generation von IT-Systemen muss ihre Anpassungsfähigkeit noch unter Beweis stellen“, sagt Martin Brennecke, Lead Enterprise Archtiect bei HPE. Dafür würden gängige Techniken der IT, die bisher mit Virtualisierung, hyperkonvergenten Infrastrukturen oder softwaredefinierten Netzwerken (Software-Defined Network, SDN) arbeitete, nicht mehr ausreichen. Laut Brennecke bedingen die Anforderungen an so hochflexible und agile Systemumgebungen, die für ein modernes RZ nötig sind, eine darüber hinausgehende Verzahnung und gemeinsame Automatisierung der verschiedenen Teile einer IT-Infrastruktur: eine komponentenübergreifende Orchestrierung, die Composable Infrastructure.

„Die neue Generation von IT-Systemen muss ihre Anpassungsfähigkeit noch unter Beweis stellen“, sagt Martin Brennecke, Lead Enterprise Archtiect bei HPE. Bild: HPE

„Hierbei lassen sich IT-Ressourcen wie Compute, Storage und Netzwerk aus einem dynamischen Pool nach Bedarf aggregieren, über latenzarme Netzwerkverbindungen bereitstellen und nach Nutzungsende zurück in den Pool überführen“, erklärt Brennecke. Da dies auf der Ebene der IT-Infrastruktur und nicht über einen darüber liegenden Hypervisor geschehe, ließen sich die Bausteine weitgehend individuell skalieren. Auf diese Weise könne eine Composable Infrastructure Ressourcen auf Abruf bereitstellen und so die Geschwindigkeit und Agilität inklusive der passenden Schnittstellen in das Rechenzentrum einbringen, die man von der Public Cloud kennt.

Verteilte Daten, verteilte Standorte

Die eingangs erwähnten technischen Entwicklungen IoT, KI, ML, 5G oder auch Edge Computing verursachen ein enormes Datenvolumen – bis 2025 soll dieses laut IDC weltweit rund 175 ZByte betragen. Neben der schieren Menge entstehen diese Daten zudem nicht nur mehr allein an einem zentralen Punkt, sondern am sogenannten Edge. Das führt dazu, dass auch bezüglich der Verarbeitung, Speicherung und Bereithaltung der Daten ein Umdenken erforderlich ist. „Moderne Rechenzentren werden ihre Leistungen nicht mehr nur allein zentral an einigen Standorten erbringen“, stellt Alexander Freudenberg, Business Manager Datacenter von Bechtle, fest. Durch den nötigen Betrieb von Edge-Standorten sowie der zusätzlichen Nutzung von Multi-Cloud-Diensten führt laut Freudenberg kein Weg an hybriden Szenarien vorbei. „Ein Datacenter muss künftig mit verteilten Systemen und Daten zurechtkommen – also einer unvorhersehbaren Ausdehnung von Daten“, bestätigt auch Uwe Müller, Datacenter Sales Lead Germany bei Cisco Systems, die Entwicklung von einem zentralen Datacenter hin zu verteilten Rechenzentren.

Ein weiteres Problem ist es, die Daten mit einer möglichst geringen Latenz bereitzustellen. Netzwerkausrüster wie Cisco oder Juniper Networks setzen hierbei auf eine zunehmende Automatisierung des Netzwerks. „Im Rechenzentrum muss das Netzwerk eine hohe Verfügbarkeit, Sicherheit und Stabilität leisten“, sagt Juniper-Mann Breneis. So lasse sich die Komplexität im Netzwerk reduzieren und auch für moderne Anwendungen die optimale Netzwerkverbindung bereitstellen (siehe auch LANline 2/2020, S. 14 ff.). Bei Cisco arbeitet man bereits seit einigen Jahren am sogenannten Intent-Based Network. Es soll sich je nach Vorgaben des Nutzers in einem verteilten automatisierten System, dem „Rechenzentrum der Zukunft“, selbst steuern können.

Die neuen Anforderungen an das Netzwerk haben dazu geführt, dass moderne Netzwerkarchitekturen nach dem Spine-Leaf-Konzept aufgebaut sind. Hierbei stellen Spine-Switches den Core des Netzwerks dar, während man an die Leaf-Switches die einzelnen Komponenten wie Server, Storage, Firewalls, Load Balancer etc. im RZ anschließt. „Die Bandbreiten zwischen Leaf und Spine können bis zu 400 GBit/s betragen. Auf der Leaf-Seite können alle Bandbreiten von 1 bis 100 GBit/s verwendet werden. Das ist schon ein großer Beitrag zur Optimierung von Latenzen“, wie Uwe Müller von Cisco feststellt.

„Parameter wie Kosten, Lebenszyklus, Verfügbarkeit und Security entscheiden dann darüber, wo mein Workload sinnvoll betrieben werden kann“, erläutert Alexander Freudenberg, Business Manager Datacenter von Bechtle, die Vorteile einer zentralen Plattform für die RZ-Automatisierung. Bild: Bechtle

Mit der Leaf-Spine-Architektur ändert sich laut Lenovo auch die Topologie des Netzwerks. „Das Stichwort lautet hier „Disaggregation“ der Netzwerkhardware von der -software – die klassische Aggregationsschicht, auf der die Access-Switches miteinander kommunizieren, entfällt komplett“, führt Paul Höcherl weiter aus. Durch die zunehmende Popularität hybrider Cloudlösungen gilt es zudem, die Anforderungen an das Netzwerk bezüglich der On-Premises- und Off-Premises-Nutzung zu verbessern. Diese müssen laut Höcherl enger zusammenwachsen und nahtlos miteinander interagieren können: „Das verlangt nach einer höheren Standardisierung und stellt neue Anforderungen an das Netzwerk-OS.“

„Kostenfaktor mit sehr viel Potenzial“

Beim Thema Storage kommen zumindest im kapazitiven Bereich noch sehr traditionell drehende Medien im 3,5-Zoll-Bereich zum Einsatz, wie Peter Dümig von Dell erläutert. Allerdings beobachtet er eine zunehmende Adaption neuer Technologien, da immer mehr Anwendungen in Echtzeit arbeiten und entsprechend schnell bedient werden müssen. Nur sie können Unternehmen dabei helfen, einen Mehrwert aus den wachsenden Datenbergen zu erzielen, wie Lenovos Höcherl ergänzt. Diese seien sonst erstmal „nur ein Kostenfaktor mit sehr viel Potenzial.“ Mit Hilfe von Analysesoftware, Algorithmen oder KI sei es jedoch möglich, aus ihnen Erkenntnisse zu generieren. „Da unabhängig von der Unternehmensgröße die Zugriffszeiten auf Daten eine immer größere Rolle spielen, sehen wir vor allem eine wachsende Bedeutung verschiedener Flash-Speichermedien“, berichtet der Lenovo-Mann. Netzwerkprotokolle wie RoCE oder NVMe-oF (siehe auch Seite 47 ff.) unterstützen ebenfalls die schnelle Verarbeitung wachsender Datenmengen.

Da die heutigen Effizienzmechanismen der Speichersysteme bei den von Maschinen erzeugten Daten weniger gut greifen, ist es laut Bechtles Alexander Freudenberg für RZ-Betreiber nötig, auf Speichertechnologien und Medien mit höchster Packungsdichte und geringeren Strombedarf zu setzen. Ebenso dürfe ein intelligentes Daten-Management über verschiedene Speicherklassen und Standorte hinweg nicht fehlen. „Hier ist zum Beispiel ein objektbasierter Speicher ein Lösungsbaustein. Mittelfristig werden auch verbrauchsbasierte Bezugsmodelle aus Kostengründen eine größere Rolle spielen“, vermutet Freudenberg.

Software-Defined Storage ist laut HPE-Mann Martin Brennecke zudem in der Lage, aus einem Server ein intelligentes Speichersystem zu machen, das enorme Datenmengen verwalten kann. Da die Eigenschaften des Storage-Systems zudem in Softwareform vorliegen, sind sie – bis auf die grafische Benutzeroberfläche – über Schrittstellen steuerbar, wodurch sich das Storage-Deployment und -Management in darüber liegende Softwareschichten integrieren lässt. Da aktuelle klassische Storage Arrays ähnliche Funktionen und Schnittstellen bieten, geht Brennecke davon aus, dass es auf lange Sicht eine Koexistenz aus klassischen, konvergenten, hyperkonvergenten sowie Composable- und Cloud-Infrastrukturen geben wird. „Vielmehr gilt es, den richtigen hybriden Mix zu finden, der geschäftliche, rechtliche und technische Anforderungen im Unternehmen am besten erfüllt“, sagt der HPE-Mann.

Auf der Server-Seite erfordern Anwendungen wie beispielsweise KI und ML darüber hinaus leistungsfähige Rechenkapazitäten. Peter Dümig von Dell sieht die aktuellen Systeme jedoch dazu in der Lage, mit aktuellen und künftigen Workloads umzugehen. So habe Dell beispielsweise schon frühzeitig seine Server mit vielen internen Medien, GPUs oder Netzwerkkarten ausgestattet. Als allgemeinen Trend hat Dell zudem Edge Server ausgemacht. Hier geht der Hersteller davon aus, dass dieser Bereich in Zukunft noch weiter an Bedeutung gewinnen wird.

Zentrales Management der Server-Landschaft

Um die hohen I/O-Anforderungen erfüllen zu können, müssen Server immer modularer aufgebaut sein und mehr Kombinationsmöglichkeiten bei den einzelnen Subsystemen aufweisen, findet Lenovo. Zudem sei ein zentrales Management nötig, das sich nahtlos in die Server-Plattformen intgrieren lässt, um Server schneller bereitstellen und skalieren zu können.

Auch bei HPE sieht man die Integration moderner Server-Systeme in ein softwaredefiniertes Management als wichtig an. „Alle Eigenschaften eines Servers, von den BIOS-/UEFI-Einstellungen über die Firmware-Baseline bis hin zu allen Netzwerk- und Storage-Einstellungen müssen per Software über eine offene Schnittstelle steuerbar sein. Dadurch entfällt das Management einzelner physischer Server“, erklärt Brennecke. Stattdessen lasse sich die Server-Landschaft gemeinsam mit den Storage-Ressourcen und Netzwerkgeräten mittels einer darüber liegenden Softwareschicht und anhand von Vorlagen und Profilen betreiben.

Der Status quo in den hiesigen Rechenzentren ist jedoch noch ein anderer. Zwar haben viele Unternehmen bereits einige Schritte hin zu einem modernen Rechenzentrum getan, wie Bechtles Freudenberg erläutert: „Vor allem im Mittelstand finden wir noch klassische, über Jahre gewachsene und fragmentierte Strukturen vor. Wir stellen aber auch fest, dass unsere Kunden – gerade bei Neubeschaffungen – die eigene bisherige Herangehensweise infrage stellen.“

Damit die Transformation der Infrastruktur jedoch gelingt, ist ein Abbau von Silo-Infrastrukturen unabdingbar, „um eine administrative Katastrophe“ zu vermeiden, wie Bechtle-Manager Freudenberg weiter erklärt. Auch er empfiehlt Unternehmen, eine zentrale Plattform zu planen, die Workloads unabhängig vom Standort einheitlich betrachtet und einen hohen Automatisierungsgrad ermöglicht: „Parameter wie Kosten, Lebenszyklus, Verfügbarkeit und Security entscheiden dann darüber, wo mein Workload sinnvoll betrieben werden kann.“

Timo Scheibe ist Redakteur bei der LANline.