Rechenleistung, Netzwerk und Speicher waren lange Zeit fast immer isolierte IT-Bereiche, was die Verwaltung von Rechenzentren zur Herausforderung machte. Diese Tatsache erklärt die Beliebtheit der hyperkonvergenten Infrastruktur (Hyperconverged Infrastructure, HCI), eines vereinfachten IT-Frameworks, in dem Administratoren Rechenleistung, Speicher und Netzwerk von zentraler Stelle aus überblicken und steuern können.

HCI-Lösungen sind äußerst beliebt: 2018 stieg der Verkauf hyperkonvergenter Systeme im Vergleich zum Vorjahr um 57,2 Prozent, was einen Umsatz von 1,9 Milliarden Dollar generierte und 46,5 Prozent des Gesamtmarkts an konvergenten Systemen ausmachte. Teilweise liegt diese Popularität möglicherweise darin begründet, dass viele Anbieter HCI als die ultimative, leicht zu verwaltende Plug-and-Play-Rechenzentrumsstrategie bewerben. Wer derartige Behauptungen ernst nimmt, könnte schnell glauben, HCI stelle das Allheilmittel für jegliche RZ-Probleme dar. Doch auch hyperkonvergente Infrastrukturen gilt es zu beaufsichtigen. Bevor Unternehmen entsprechende Lösungen einsetzen, müssen sie genau überlegen, was damit möglich ist und was nicht – und sie müssen wissen, in welchen Fällen HCI vielleicht nicht die beste Lösung darstellt.

Bittere Wahrheiten

HCI ist kein Ersatz für eine konvergente Infrastruktur (Converged Infrastructure, CI), da es für beides sinnvolle Anwendungsfälle gibt. Sie sind aber oft eine modernere Option, die nach der Bereitstellung einfacher zu nutzen ist. Das große Verkaufsargument von HCI ist die reduzierte Komplexität. Die Hardware kommt zusammen mit der Software – sie ist „softwaredefiniert“ (Software-Defined) – und eine einzelne grafische Benutzeroberfläche dient zur Steuerung der gesamten Umgebung. Dies kommt dem aktuellen IT-Trend entgegen, der für jede Einzelperson breites Wissen gegenüber fundiertem Wissen favorisiert. Stellt ein Anbieter Server, Anwendungen, virtuelle Maschinen etc. in einer zentralen Benutzerschnittstelle bereit, wirkt dies als Gegenmittel zur isolierten Natur von Datenbanken. Die geringere Komplexität erfordert weniger Fachwissen für die Verwaltung von Datenbanken, sodass diese Aufgaben für die Belegschaft eines Unternehmens zugänglicher sind.

HCI ist perfekt für Unternehmen, die ein sofort einsatzbereites Rechenzentrum für eine festgelegte Workload benötigen, die sich nicht schnell ändern wird – idealerweise eine Lösung, die man einmal installiert und dann nie wieder anfasst, wie man dies im Edge Computing häufig findet. Auch die derzeit vieldiskutierte 5G-Technik dürfte von HCI profitieren. In einer späteren Phase wird 5G eine solche Dichte erreichen, dass die aktuelle Infrastruktur nicht ausreicht, um das Versprechen latenzarmer Verbindungen einzuhalten. Und schließlich ist HCI auch noch für eine weitere Zukunftsvision relevant: Eine kleine bis mittelgroße HCI-Box an der Straßenecke kann künftig autonome Fahrzeuge steuern.

Schon in der Gegenwart können die Anbieter die Implementierung der bereits vorkonfigurierten Systeme üblicherweise in Minutenschnelle erledigen. Einige bieten neben der Lieferung der Box auch Remote-Unterstützung bei der Bereitstellung an. Der Benutzer muss also nur dem Lizenzvertrag zustimmen, alles andere übernimmt der Anbieter. Die verlockende Einfachheit trägt jedoch auch zu einigen der größten Nachteile hyperkonvergenter Infrastrukturen bei.

HCI ist zwangsläufig eine Universallösung, die häufig nicht an die individuellen Bedürfnisse einzelner Datenbankanwendungen oder anderer Applikationen angepasst ist. Möglicherweise ist der Appliance-Footprint einfach zu groß für die virtuellen Maschinen oder andere Workloads, die man dorthin migriert. So kann es sein, dass die Organisation eigentlich nur einen weiteren Host benötigt, die kleinste hyperkonvergente Appliance aber vier oder mehr Hosts umfasst. Es gibt zwar Konfigurationsoptionen, doch diese sind sehr begrenzt. Für einen maßgeschneiderten Ansatz ist CI ratsamer als HCI. CI eignet sich gut für Situationen, in denen man die Workload kaum prognostizieren kann oder die Wachstumsplanung schwierig ist. Denn es ist hier einfacher, bei Bedarf mehr Rechenleistung zu einer bestehenden Infrastruktur hinzuzufügen.

HCI ist teils deshalb so einfach zu verwenden, weil Unternehmen Virtualisierungs-, Rechenleistungs- und Speicherressourcen von einem einzelnen Anbieter erwerben und mit einer anbieterspezifischen Referenzarchitektur nutzen können. Selbst wenn sie es anfangs begrüßen, nur eine Anbieterbeziehung pflegen zu müssen, können sich die Dinge ins Negative kehren, wenn der Anbieter die Preise erhöht oder sich zu langsam auf neue Technologien einstellt. Unternehmen sollten sich dessen bewusst sein, dass die Entscheidung für einen Einzelanbieter auch immer eine Einschränkung darstellt.

Die Kosten stellen eine weitere Herausforderung dar. Viele Anbieter heben hervor, dass HCI Kosten spart, und in den meisten Fällen kann HCI im Vergleich zu herkömmlichen Infrastrukturen tatsächlich für niedrigere Betriebskosten sorgen – dank der Benutzerfreundlichkeit, einer gut funktionierenden Automatisierung (alles wurde vorab getestet) und nicht zuletzt einer kürzeren Problemlösungszeit, da nur eine Partei beteiligt ist. Die Anbieter sprechen jedoch nur ungern über die Investitionskosten.

Die Dinge richtig angehen

Hyperkonvergenz bietet Agilität, Verfügbarkeit und Skalierbarkeit. Es bringt jedoch nichts, Ressourcen bereitzustellen, wenn die Organisation diese Infrastruktur-Services nicht nutzen und in Anwendungs-Komplettlösungen derselben Größenordnung konvertieren kann. In anderen Worten: HCI ist nicht immer die beste Lösung und ein solider Anwendungsfall ist unverzichtbar, um zu erkennen, wann das traditionelle Dreiergespann von Computer, Netzwerk und Speicher oder auch die Cloud eine bessere Lösung darstellen.

Der Erfolg ist wahrscheinlicher, wenn man die HCI-Nutzung vorab gut durchdacht hat. Jeder HCI-Implementierungsprozess sollte mit einem klaren Plan für die Integration beginnen. Die Unternehmen müssen die unterschiedlichen Anforderungen der IT-Mitarbeiter verschiedener Abteilungen und der voneinander abhängigen Geschäftseinheiten genau kennen, inklusive des Bereitstellungstempos und des entsprechenden Workflows. Nur so wissen sie, welche Hardware sofort erforderlich ist und was sie später skalieren können.

Nach der Implementierung müssen die Rechenzentrumsleiter unbedingt festgelegen, wie und wann die Skalierung erfolgen soll. Hyperkonvergente Lösungen bieten lineare Skalierungsmöglichkeiten: Kann zum Beispiel eine Einheit x Transaktionen durchführen, dann schaffen zwei Einheiten das Doppelte. Dies bedeutet allerdings, dass die Administratoren für eine passgenaue Skalierung die eigenen Anwendungen genau kennen müssen. Skalierbar ist HCI durch Erweiterung der Cluster, eine Methode, die Vor- und Nachteile mit sich bringt. Die meisten Anbieter können nicht einfach ein neues Datenträger-Array zu einem SAN hinzufügen, weil es bei HCI in dieser Form nicht mehr existiert. Stattdessen muss die Anwenderorganisation eine neue HCI-Box erwerben und integrieren. Aufgrund der Software-Defined-Architektur läuft der Skalierungsprozess zwar mehr oder weniger von selbst, doch es ist sinnvoll, die Infrastruktur als Ganzes durch eine umfassende Überwachung genau zu überblicken.

Transparenz ist entscheidend

HCI hat das Potenzial, Server- oder Speicherarchitekturen zu transformieren, aber die effiziente Überwachung dieser Architekturen ist so wichtig wie eh und je. Das mit HCI verbundene Anwendungs-Performance-Management erfordert die Transparenz des gesamten Stacks. Viele gehen davon aus, dass die Überwachungslösung des Anbieters ausreichen wird, da er schließlich die gesamte HCI-Infrastruktur bereitstellt. Allerdings schließen diese Lösungen häufig nicht die Lücke zwischen der vom HCI-Anbieter bereitgestellten Übersicht und dem vorhandenen Einblick in die weitere Infrastruktur – dabei benötigt die Organisation umfassende Einblicke in den gesamten Stack und die Abhängigkeiten. Ein effektives Monitoring-Toolset zusätzlich zur anbietereigenen Überwachungslösung bietet die nötige Granularität und die Informationen, um die Anwendungsleistung wirklich zu überblicken. Dabei dürfen Rechenzentrumsleiter nicht vergessen, dass HCI im RZ selten allein ist. Selbst ein ganzes Rack von Cluster-Knoten muss mit der bestehenden Infrastruktur verbunden sein und in manchen Situationen auch Workloads transportieren.

Während manche Anbieter ihre HCI-Lösungen mit bekannten Hypervisoren ausliefern, nutzen andere eigene Technik. In gemischten, heterogenen Umgebungen kommt es daher auf die Kompatibilität an. Mangelnde Transparenz kann wie bei jeder Infrastruktur auch das Endbenutzererlebnis beeinträchtigen. Bei HCI kommt jedoch noch hinzu, dass sie außerdem zu einer Überdimensionierung von Ressourcen und somit zu unnötig hohen Investitionen führen kann. So erwerben Unternehmen beispielsweise häufig mehr HCI-Equipment, als sie benötigen.

Ohne umfassende Transparenz werden sie nie erfahren, dass sie mehr bezahlen als wirklich nötig – ein kostspieliger Fehler, den niemand gern begeht.

Sascha Giese ist Head Geek bei SolarWinds, www.solarwinds.com.