Ein Next-Generation Datacenter (NGDC) stellt IT-Ressourcen flexibel, agil, skalierbar und automatisiert bereit. Diese Kriterien lassen sich mit hyperkonvergenten Systemen noch einfacher erfüllen. Zieht eine solche Infrastruktur ins Rechenzentrum ein, legt ein Unternehmen die Basis, einen einfach zu verwaltenden IT-Betrieb kontinuierlich auszubauen. Die hochintegrierten Lösungen müssen wesentliche Cloud-Szenarien abdecken und Legacy-Systeme in sinnvoller Weise ablösen.

Jedes zweite Unternehmen mit mehr als 500 Mitarbeitern plant, die eigenen RZ-Kapazitäten auszubauen. Das legt die Studie „Datenhoheit als Garant für digitale Wertschöpfung“ nahe, die Crisp Research zusammen mit NetApp durchgeführt hat. Nötig ist jedoch nicht nur ein Ausbau, sondern ein intelligenter Aufbau der Infrastruktur, um in Richtung NGDC aufzubrechen. Den Weg dahin kann eine hyperkonvergente Infrastruktur (Hyper-Converged Infrastructure, HCI) vorzeichnen.

Eine HCI bringt alles, was ein Rechenzentrum ausmacht, in einer funktionierenden Komplettlösung zusammen. Diese integrierten Systeme sind softwarezentriert (Software-defined) – im Unterschied zur konvergenten Infrastruktur, die hardwarezentriert arbeitet: Bei einer HCI sind alle Funktionen komplett virtualisiert und von der Hardware losgelöst. Rechen- und Speicherressourcen stehen in einem Pool gemeinschaftlich allen Applikationen zur Verfügung – unabhängig davon, welcher Storage- oder Compute-Knoten sie bereitstellt. Dadurch bieten sie deutlich mehr Flexibilität bei der Provisionierung von virtuellen Maschinen (VM) als eine konvergente Infrastruktur. Ein zusätzlicher Kostenvorteil stellt sich ein, wenn interne Prozesse Rechenleistung nicht mehr von lizenzpflichtigen CPUs, sondern von einem lizenzunabhängigen Speicherblock beziehen. Ein Anwenderunternehmen spart sich so den sonst üblichen Aufpreis von bis zu 30 Prozent für die Hypervisor-Lizenz. Zur effizienteren Administration trägt bei, dass sich alle Komponenten über eine zentrale Konsole managen lassen.

Bei einer modernen hyperkonvergenten Infrastruktur verursacht die Hypervisor-Lizenz keine Zusatzkosten mehr. Bild: NetApp

Mittlerweile ist die zweite HCI-Generation auf dem Markt. Eine solche Lösung basiert in der Regel hardwareseitig auf All-Flash-Speicher und Standard-Compute-Knoten. Die Minimalkonfiguration bilden zwei Chassis mit zwei Compute und vier Storage Nodes, Flash-Speicherbetriebssystem sowie Hypervisor. Als Betriebssystem für die Virtualisierung fungiert beispielsweise VMware ESXi. Integriert sind verschiedene Daten-Services wie Hochverfügbarkeit, Replikation, Datenreduktion sowie Backup und Recovery. Diese und weitere Lösungen von Drittanbietern sollten sich per API anbinden lassen. Wichtig sind Schnittstellen zum Beispiel zu Amazon Web Services, Commvault, MongoDB Enterprise, Veeam und VMware.

Fünf Anforderungen an ein NGDC

Damit Unternehmen eine HCI auch im größeren Kontext effizient einsetzen können, Silobildung vermeiden und Kosten sparen, müssen die Systeme die Anforderungen an ein NGDC erfüllen. Die Vorgaben an eine HCI konzentrieren sich auf die fünf Aspekte Skalierbarkeit, Performance, Automation, Daten-Management und Ausfallsicherheit, für die sich eine kurze Betrachtung lohnt.

Beliebige Erweiterung: Ein NGDC muss flexibel an den jeweiligen Bedarf anpassen lassen. Dafür sollte es horizontal skalierbar sein, sich also beliebig erweitern lassen, indem man neue Rechen- und Speicherknoten hinzufügt. Die Grenzen eines NGDC liegen dann nicht mehr in der Hardware, sondern in dem, was der Hypervisor – das Management-System für die VMs – leisten kann. Das Entscheidende aber ist: Unternehmen können einer HCI heute ganz nach Bedarf weitere Speicher- oder Rechenknoten hinzufügen, und zwar unabhängig voneinander. Bei der ersten Generation war diese flexible Skalierung noch nicht möglich. CIOs vermeiden durch diese wesentliche Neuerung Überprovisionierung und sparen Hardware- und Lizenzkosten.

Garantierte Performance: Damit Unternehmen ihr NGDC effizient und nach Bedarf einsetzen können, muss es auch parallele Anwendungen stemmen können. Dafür benötigt das NGDC Management-Möglichkeiten, um einzelnen Anwendungen eine garantierte Performance zuzuweisen. Dies vermeidet, dass konkurrierende Applikationen sich gegenseitig die Ressourcen streitig machen. Eine HCI gewährleistet die Quality of Service (QoS), indem IT-Verantwortliche jeder Applikation einen Minimal-, Maximal- und Burst-Wert zuweisen. Ressourcenhungrige Anwendungen beeinträchtigen so die Performance der anderen Applikationen nicht.

Automatisiertes Management: Automation ist ein wichtiger Hebel, um Standardaufgaben zu erledigen, Fehler zu vermeiden und Zeit zu gewinnen. Dies ist nötig, um Innovationen voranzutreiben. Deshalb sollte ein NGDC Routineprozesse automatisiert anhand von Skripten und Profilen abwickeln. Zum Beispiel beendet ein HCI-Einsatz das manuelle Aufsetzen und Provisionieren von VMs oder Backups. Im Idealfall können Programmierer sogar in einem Selbstbedienungsportal mit wenigen Mausklicks eigenständig einen Test-Server einrichten, ohne dass ein Administrator dafür tätig werden muss.

Einfaches Daten-Management: Unternehmen haben heute mit einer stetig wachsenden Masse an Daten zu tun, die aus unterschiedlichen Quellen stammen und auf verschiedene Systeme verteilt sind. Diese Daten sind wertvolles Kapital. Um sie bestmöglich zu nutzen, sollte das NGDC das Daten-Management vereinfachen. Unternehmen müssen fähig sein, Daten problemlos von einem Ort an einen anderen zu verschieben – ob zwischen verschiedenen Produktionsstandorten oder Clouds. Dafür sind ein einheitliches Datenformat und eine einheitliche Datenübertragung erforderlich.

Anstelle lizenzpflichtiger CPUs liefert lizenzunabhängiger Speicher die nötige Rechenleistung. Bild: NetApp

Ausfallsicherheit: Um Daten zu sichern und wieder einspielen zu können, wenn eine Speicherkomponente einmal ausfällt, kommen im traditionellen Rechenzentrum RAID-Systeme zum Einsatz. Sie halten redundanten Speicherplatz vor und verursachen zusätzliche Hardwarekosten. Auch ein NGDC nutzt redundanten Speicherplatz, bietet aber Automation bei der Datenaufteilung und beim Verschieben von Anwendungen im Fehlerfall. Die Wiederherstellung der Daten hat innerhalb von Minuten statt in Stunden oder Tagen zu erfolgen. Eine HCI erfüllt diese Ansprüche, indem es Datenblöcke doppelt im System ablegt und über einen intelligenten Prozess automatisiert wieder einspielt, wenn eine SSD ausfällt. Der Hypervisor verschiebt betroffene VMs zudem automatisch auf unbeeinträchtigte Bereiche.

Konsolidierung von Workloads

Eine RZ-Modernisierung muss auch die Legacy-Systeme mit einbeziehen: Deren komplette Ablösung durch eine HCI ist nur sinnvoll möglich, wenn ein hyperkonvergentes System von Anfang an genau dafür konzipiert ist. Im Fokus steht die Konsolidierung verschiedener Workloads im Rechenzentrum – sowohl im Core als auch am Edge.

Wichtig ist, dass die HCI-Kombination verschiedene Workloads wie Applikations-Hosting, Datenbank-Hosting oder VDI-Hosting (Virtual Desktop Infrastructure) abdeckt und auf Veränderungen reagieren kann. Die HCI-Lösungen müssen Services redundant wie auch nicht-redundant bereitstellen – in einer Hybrid Cloud oder eben lokal.

Einige Anforderungen übersteigen jedoch die Leistungsfähigkeit hyperkonvergenter Systeme. Ein typisches Beispiel ist SAP HANA in einer VDI-Umgebung. Solch ein Anwendungsszenario lässt sich abbilden, indem man eine HCI durch eine konvergente Infrastruktur ergänzt. In der Praxis bewährt hat sich hier, die HCI-Plattform mit spezialisierten konvergenten Lösungen für SAP HANA sowie für die Grafikbeschleunigung zu kombinieren.

Nutzen und bezahlen nach Cloud-Manier

Über eine implementierte QoS-Funktionalität stellt eine HCI einen hohe Konsolidierungsgrad auf einer generischen Plattform sicher, die sich einfach betreiben lässt. Mit solchen hochintegrierten Systemen gelingt es, die Cloud-Vorteile – auch im wörtlichen Sinn – in die firmeneigene IT zu holen. Denn Unternehmen können so ausschließlich Cloud-Services konsumieren, beispielsweise Infrastructure as Code. Über RESTful APIs lässt sich eine Infrastruktur genauso verwenden wie bei den Hyperscalern Amazon Web Services (AWS), Azure, Google und Co.

Wer die Cloud als Teil seiner Disaster-Recovery-Strategie nutzen will, der benötigt zusätzlich eine zentrale Daten-Management-Plattform, um Daten über hauseigene Schnittstellen direkt in die Cloud zu übertragen. Bei einem Ausfall der lokalen Infrastruktur arbeitet das Unternehmen dann einfach in der Cloud weiter. In anderen Szenarien soll das Nutzen von Cloud-Ressourcen die Hardwarebeschaffung für gelegentliche Berechnungen sparen, wie sie etwa Business-Intelligence-System zu Jahres- oder Quartalsabschlüssen erfordern. In diesem Fall werden nur die für diese Berechnung relevanten Daten in die Cloud repliziert und die Ergebnisse abgeholt.

Eine HCI-Plattform kann bei all diesen Cloud-Szenarien das lokale Fundament für einen stabilen und effizienten IT-Betrieb stellen. Dank der Möglichkeit, Rechenleistung und Storage flexibel und unabhängig zu skalieren, erfahren Unternehmen einen großen Vorteil der Cloud in ihrem Rechenzentrum: Sie bezahlen nur nach tatsächlichem Bedarf („pay as you grow“). Dieser Ansatz lässt sich bis zum umfassenden Next-Generation Datacenter verfolgen.

Johannes Wagmüller ist Director Systems Engineering bei NetApp, www.netapp.com.