Für mehr Agilität in der Unternehmens-IT sind Elastizität und Skalierbarkeit unverzichtbar. Um diese Faktoren abzubilden, greifen viele Unternehmen auf externe Cloud-Services zu. Durch den Einsatz hyperkonvergenter Infrastrukturen ist diese Flexibilität aber auch im hauseigenen Rechenzentrum möglich. Dieser Beitrag gibt einen Überblick, wie diese Cloud-ähnlichen Lösungen aufgebaut sind, wie sie funktionieren und welche Workloads sie sinnvoll in einer virtualisierten Umgebung konsolidieren können.

In der IT kommt es regelmäßig vor, dass Nutzer, Anwendungen und Clients Lastspitzen erzeugen. Moderne IT steht dann vor der Herausforderung, diese abzudecken und kurzfristig zusätzliche Kapazität bereitzustellen. Die Unternehmens-IT braucht deshalb eine Infrastruktur,

die Ressourcen abhängig vom Bedarf zur Verfügung stellt: Benötigt beispielsweise ein Server vorübergehend mehr RAM, sollte die IT diesen bereithalten und kurzfristig zur Verfügung stellen können. Sinkt der Bedarf wieder auf das normale Maß, wird dieser Arbeitsspeicher frei und kann anderen Servern zur Verfügung stehen. Diese Skalierbarkeit ist charakteristisch für das Verbrauchsmodell Cloud, das sich aber aus verschiedenen Gründen nicht für alle Unternehmen eignet. Ihnen bleibt die Möglichkeit, im eigenen Rechenzentrum elastische Strukturen aufzubauen, die so dynamisch wie die Public Cloud skalieren.

Möglich ist das nur auf Basis eines weitgehend virtualisierten Rechenzentrums. Auf eine noch höhere Virtualisierungsstufe heben Unternehmen die Bereitstellung von IT-Services mit einem softwaredefinierten Ansatz. In einer solchen RZ-Architektur entkoppelt eine Softwareschicht die Workloads von der Hardware. Dies verhindert Silos von Ressourcen, wie man sie aus einer traditionellen Infrastruktur kennt.

Softwaredefiniert im Kleinformat

Generell besteht eine hyperkonvergente Infrastruktur (Hyper-Converged In­fra­structure, HCI) aus einem Cluster mit mehreren Knoten, die auf Standard-x86-Servern beruhen. Statt eines traditionellen Storage Arrays verwendet ein solches System Server-Festplatten, die es beispielsweise über ein virtuelles Storage Area Network (VSAN) bereitstellt.

Die Nutzung von SSDs im Rahmen einer HCI verkürzt die Datenwege und kann damit die Leistung insbesondere Performance-hungriger Anwendungen steigern. Bild: Nutanix

HCI erleichtert den IT-Betrieb unter anderem durch das zentrale Management aller IT-Ressourcen. Somit kann eine Appliance alle Leistungsmerkmale eines Rechenzentrums auf zwei Höheneinheiten vereinen. In einer solchen 2HE-Box steckt eine flexible, intelligente Software, die vollständig virtualisierte Komponenten wie Server, Speicher und Netzwerk auf Applikationsebene steuert. Dies ermöglicht es, Verfügbarkeit und Performance der Anwendungen zu steigern.

Je nach HCI-Hersteller kommen spezielle Funktionen zur Hardwarebeschleunigung, Deduplizierung, Komprimierung etc. zum Einsatz, was die gespeicherten Daten massiv verdichtet. Viele Hersteller beschränken die vertikale Konsolidierung – also das Hinzufügen weiterer Knoten zum Cluster – nicht auf die Hard- und Softwareschicht: Häufig werten integriertes Backup, VM-Replikation, WAN-Optimierung und weitere Features die HCI auf.

Eine klassische Server-basierte Speicherlandschaft unterliegt den Grenzen einer Scale-up-Architektur. Im Gegensatz dazu funktioniert eine HCI nach dem Scale-out-Prinzip: Sind weitere Ressourcen erforderlich, schließt man einfach weitere Knoten an. Mittlerweile unterstützen die meisten Hersteller eine lineare Skalierung, also das modulare, voneinander unabhängige Erweitern von RAM und CPU.

Workloads abbilden

Die Appliances einer HCI müssen zunächst über ein Netzwerk miteinander verbunden sein. Zudem gilt es, die Workloads so vorzubereiten, dass sie hier lauffähig sind. Die meisten Unternehmen betreiben bereits eine weitgehend virtualisierte Umgebung, sodass ihre Workloads sich bereits für eine HCI eignen. Dadurch ist das Aufsetzen einer VM auf der HCI eigentlich Routine.

HCIs können ein breites Spektrum von generischen bis dedizierten Workloads konsolidieren und deren Betrieb automatisieren, darunter zum Beispiel eine Virtual Desktop Infrastructure (VDI). Der „Alles in einer Box“-Ansatz eignet sich selbst für hochdynamische und agile Anwendungsfälle. Typisch für solche Szenarien sind Applikationen, die auf Skalierung und Parallelisierung ausgelegt sind. In der Praxis zielt ein Innovationsprojekt meistens auf einen kleinen Prototypen ab, den ein Unternehmen auf wenigen Systemen betreibt. Perspektivisch müssen die Applikationen mehrere Tausend Nutzer bedienen. In der Folge bauen Entwickler Apps heute so, dass diese skalieren können. Ein hyperkonvergentes System kann hier die notwendige Elastizität gewährleisten. Ein prominentes Beispiel für verteilte, parallelisierte Workloads ist Cassandra DB: Das Datenbank-Management-System skaliert auf der Ebene der Applikation und nicht des HCI-Systems, das die Ressourcen zu Verfügung stellt.

Doch nicht alles läuft auf einer HCI. So scheiden Workloads aus, die nicht in einer x86-Umgebung funktionieren, sondern beispielsweise für IBMs Power-Server oder Mainframes konzipiert sind. Ein Unternehmen muss deshalb prüfen, welche Workloads auf einer HCI lauffähig sind oder sich eben nicht konsolidieren lassen. So beschäftigen sich viele SAP-Anwender damit, auf HANA umzusteigen. Entsprechend sollten sie die Herstellerangebote daraufhin überprüfen, ob deren Appliances SAP HANA unterstützen.

VM-Performance garantieren

Stehen in einer Umgebung nicht genügend Ressourcen bereit, konkurrieren VMs um diese. Den Konflikt vermeiden Unternehmen, indem sie Workloads Höchstgrenzen zuweisen. Sinnvoll ist das für eine Testumgebung, die unvorhergesehen sehr aktiv werden kann und dann produktiven Workloads die Ressourcen stehlen würde. Mittels QoS-Einstellungen (Quality of Service) lässt sich hier immer eine bestimmte Performance garantieren. Der IT-Betrieb läuft dadurch reibungslos weiter. Unternehmen können QoS auch dazu nutzen, Ressourcen manuell zu limitieren und VMs in (Service-)Klassen aufzuteilen.

Lokal installierte HCI-Systeme lassen sich mit Public-Cloud-Ressourcen zu einer Hybrid Cloud kombinieren, zum Beispiel mittels VMwares Cross-Cloud Architecture. Bild: VMware

Die Hersteller rühmen sich oft damit, dass ihre HCI ganz einfach zu installieren sei. Das funktioniert in der Regel tatsächlich, Unternehmen müssen lediglich Parameter wie IP-Adressen definieren. Auch der sonst so aufwendige Migrationsakt erweist sich größtenteils als hürdenfrei und lässt sich meist mit den Virtualisierungs-Bordmitteln bewerkstelligen. Als vorteilhaft erweist sich in der Praxis die Option, die IT-Infrastruktur sukzessive umzustellen. Diesen Weg hat eine Kreisverwaltung im Nordwesten Deutschlands eingeschlagen, die rund 1.100 Angestellte beschäftigt. Dazu sollte in einem Projekt, das Axians IT Solutions betreut hat, eine Cloud-ähnliche Lösung die komplette IT-Infrastruktur in den eigenen Server-Räumen ablösen.

Der Übergang zur Hyperkonvergenz verlief in zwei Schritten: Zuerst erfolgte die Implementierung eines Clusters aus drei Knoten, in die das Projektteam alle VMs für eine VDI migrierte. Diese ersten drei Knoten hatten SSDs (Solid-State Drives), lieferten also schon deutlich mehr Performance und weniger Latenzen als die bisherige Umgebung. Im zweiten Schritt kamen weitere Knoten sowie SSDs hinzu, was CPU, RAM und die Gesamtkapazität nochmals stark erhöhte. Den Abschluss bildete ein sogenanntes „Stretched Cluster“, das die physische Redundanz über zwei Brandabschnitte bereitstellt. Im Betrieb vereint nun die Hyperkonvergenzlösung die Cloud-Vorteile Effizienz und Skalierbarkeit mit der hohen Sicherheit, Performance und Agilität, die ein öffent­licher Dienstleister benötigt. So laufen die integrierten Kontrollmechanismen für die Datensicherheit direkt auf VM-Ebene. Zudem punktet die HCI durch Energieeffizienz, geringeren Platzbedarf und intuitive Verwaltung.

Laufen Server und Speicher gleichzeitig aus der Wartung, sollten Unternehmen und Organisationen Investitionen in eine HCI erwägen. Auf das flexible Skalieren von Rechenleistung und Speicher sowie das Konsolidieren von einfachen bis hochperformanten Workloads kann heute eigentlich kein RZ-Betreiber mehr verzichten. Hyperkonvergenz kann die Grundlage für die Cloud-Nutzung bilden oder sich auf den Betrieb eines virtuellen Rechenzentrums beschränken, das bei einfacher Administration ähnliche Skaleneffekte wie bei den Hyperscalern verspricht.

Christian Schramm ist Principal Architect bei Axians IT Solutions, www.axians.com.