Hyperkonvergente Speicherlösungen

Server-Appliances ersetzen Storage-Arrays

17. Oktober 2017, 7:00 Uhr | Christoph Lange

Eine Hyperconverged Infrastructure (HCI) benötigt keine externen Speichersysteme mehr. Bei HCI stellen x86-Server-Appliances sowohl die Speicherressourcen als auch den Hypervisor und die virtuellen Netzwerke bereit. LANline gibt einen Überblick der aktuellen Entwicklungen im HCI-Markt und zeigt die Unterschiede zwischen den verschiedenen Lösungen auf.

Der Storage-Markt befindet sich in einem gewaltigen Umbruch. Die relativ neue Produktkategorie der hyperkonvergenten Speicherlösungen stellt den Storage über lokal in x86-Server-Appliances verbaute Laufwerke bereit. Dies ist insbesondere für den boomenden Markt der Server- und Desktop-Virtualisierung ein leistungsfähiger und gleichzeitig kostengünstiger Ansatz, weil für die Hypervisor-Cluster keine externen Storage-Arrays mehr nötig sind.

Eine Hyperconverged Infrastructure (HCI) besteht aus einem hochverfügbaren Verbund von je nach Hersteller mindestens zwei oder drei x86-Server-Appliances, die sowohl die Compute-, als auch die Storage- und Networking-Ressourcen bereitstellen. Auf die Abgrenzung zwischen HCI und den schon seit vielen Jahren erhältlichen CI-Lösungen (Converged Infrastructure) gehen wir gleich noch genauer ein.

Dass HCI ein Boom-Markt ist, zeigen auch die Schätzungen der Analysten. Nach Angaben von IDC haben die Umsätze mit HCI-Lösungen vom vierten Quartal 2015 bis zum vierten Quartal 2016 um knapp 90 Prozent auf ein Volumen von 700 Millionen Dollar zugelegt und damit einen Anteil von 22,6 Prozent am gesamten CI-Markt erzielt. Das Jahresvolumen des HCI-Marktes betrug 2016 rund 2,2 Milliarden Dollar. Laut Gartner wird der HCI-Markt auch in den kommenden Jahren stark wachsen und soll im Jahr 2019 einen Umsatz von etwa fünf Milliarden Dollar erreichen.

Ermöglicht wird der Erfolg von HCI unter anderem durch die von Jahr zu Jahr stark steigende Rechen-Performance von x86-CPUs. Standard-x86-Server werden immer leistungsfähiger und können deshalb zusätzliche Funktionen übernehmen, die früher andere Systeme ausführen mussten. Die im Sommer 2017 von Intel angekündigte neue Generation der Xeon Scalable CPUs bringt für x86-Server erneut eine deutliche Leistungssteigerung.

Ein weiterer Faktor für den wachsenden Marktanteil von HCI-Lösungen ist der Trend zu All-Flash-Systemen. Zum einen steht damit in den meisten Fällen mehr als genug IO-Performance bei gleichzeitig niedriger Latenz zur Verfügung. Zum anderen ist mit schnellen Flash-Laufwerken eine Inline-Deduplizierung und Komprimierung möglich, ohne das Gesamtsystem zu stark zu belasten. Der tatsächlich benötigte Speicherplatz lässt sich dadurch deutlich reduzieren. Besonders stark profitieren hiervon Virtualisierungsplattformen, weil VMs mit demselben Betriebssystem zu einem großen Teil dieselben Dateien nutzen. Die Leistungsfähigkeit von Flash-Laufwerken kommt auch Hybrid-Lösungen zugute, die SSDs als Cache-Tier oder als schnellen Tier 0 verwenden.

Converged versus Hyperconverged

Bereits vor etwa zehn Jahren haben die großen Storage- und Server-Hersteller erste Converged-Infrastructure-Lösungen auf den Markt gebracht, die als zertifiziertes Gesamtpaket aus Storage-Arrays, Server-Hardware und Netzwerkkomponenten eine relativ schnelle Inbetriebnahme versprachen. Zu den bekanntesten Angeboten zählen Vblock/VxBlock von EMC (inzwischen Dell EMC) und Cisco sowie FlexPod von NetApp und Cisco. Auch IBM hat mit VersaStack eine vergleichbare Lösung im Angebot. Die genannten Pakete integrieren die Storage-Arrays des jeweiligen Herstellers mit dem Unified Computing System (UCS) von Cisco, das aus Servern, der Netzwerk-Switching-Infrastruktur sowie Management- und Automatisierungstools besteht. Fujitsu hat mit seinen FlexFrame-Lösungen ebenfalls bereits sehr früh CI-Pakete auf Basis von Fujitsu-Servern und EMC- oder Netapp-Storage angeboten, die insbesondere im SAP- und Oracle-Markt erfolgreich waren.

Im Unterschied zu CI-Systemen sind bei den relativ jungen HCI-Lösungen keine externen Storage-Arrays mehr erforderlich. Lokale Laufwerke stellen die Speicherkapazitäten über die lokalen Laufwerke der x86-Server-Appliances bereit. Auf der Appliance läuft ein Hypervisor, der die virtuellen Server- oder Desktop-Instanzen betreibt und die hierfür benötigten virtuellen Netzwerke zur Verfügung stellt. Ein Cluster-Verbund aus mehreren Appliances sorgt für die Redundanz der Daten und bringt beim Ausfall eines physischen Servers die betroffenen virtuellen Instanzen auf einem anderen Node schnell wieder online.

Es gibt einzelne Anbieter, denen diese HCI-Definition nicht weit genug geht. Sie fordern von einer "echten" HCI-Lösung, dass die Appliance alle bisher von einer traditionellen RZ-Infrastruktur bereitgestellten Funktionen integrieren muss. Hierzu zählen unter anderem Backup, Desaster Recovery und WAN-Optimierung.

LL11S01_1_Schaubild 1
HCI-Appliances stellen Storage-, Compute- und Networking-Ressourcen in einer Box bereit. Bild: Nutanix

Da die Grenzen zwischen CI und HCI zunehmend verschwimmen, geht LANline von einer etwas großzügigeren HCI-Definition aus. Denn auch bei HCI-Lösungen wird es immer Funktionen geben, die externe Komponenten bereitstellen müssen. Hier wären zum Beispiel physische Netzwerk-Switches für die Anbindung von Endgeräten wie Thin Clients an die Virtualisierungsinfrastruktur oder physische Firewalls am WAN-Übergabepunkt zum Service-Provider zu nennen.

Wenn zudem in einem Rechenzentrum physische High-End-Server für große Datenbanken oder Big-Data-Anwendungen vorhanden sind, sind nach wie vor externe Storage-Arrays erforderlich, da die meisten Hersteller ihre HCI-Lösungen nicht dafür konzipiert haben, ihre Speicherkapazitäten extern angebundenen physischen Servern bereitzustellen.

Gartner verwendet für die Klassifizierung der am Markt angebotenen Systeme die relativ weit gefasste Kategorie der Integrated Systems, unter die sowohl CI- als auch HCI-Lösungen fallen (siehe Gartner-Report "Der Magic Quadrant für integrierte Systeme" vom 10.10.2016: ).

Auf der Grenze zwischen CI und HCI ist auch die neue HCI-Lösung von NetApp anzusiedeln. Sie stellt Compute, Storage und Networking in einer Startkonfiguration aus zwei 2HE-Racks zur Verfügung, wobei es jedoch eigene Compute/Networking- und eigene Storage-Nodes gibt. Beide Node-Typen basieren auf derselben Server-Hardware, was NetApp als Argument für eine HCI-Einordnung ins Feld führt.

Bei IBM dagegen liegt der Fokus klar auf CI-Lösungen. Ein Grund hierfür dürfte sein, dass IBM sein x86-Server-Geschäft an Lenovo verkauft hat. Für IBM bieten CI-Lösungen im Vergleich zu HCI eine höhere Flexibilität und eine bessere Skalierbarkeit, insbesondere in High-Performance-Computing-Umgebungen. Mit Spectrum Accelerate hat IBM aber auch eine SDS-Lösung (Software-Defined Storage) für HCI im Portfolio, die zum Beispiel von Supermicro als x86-Appliance erhältlich ist.

Auswahlkriterien für HCI-Lösungen

Für ein Unternehmen sollte unabhängig von den Marketing-Aussagen der Hersteller im Vordergrund stehen, welche Anforderungen die neue Lösung erfüllen muss. Wenn es zum Beispiel eine neue Infrastruktur für die Server- oder Desktop-Virtualisierung anschaffen will oder wenn es bei einer vorhandenen Virtualisierungsplattform die Storage-Arrays aufgrund ihres Alters erneuern muss, sind HCI-Lösungen eine interessante Alternative. Sie sind vergleichsweise kostengünstig und relativ einfach zu administrieren.

Bei einer gemischten Umgebung aus VMs und physischen Highend-Servern benötigt man für die physischen Server nach wie vor traditionelle Storage-Arrays. Hier ist im Einzelfall abzuwägen, ob sich eine zusätzliche HCI-Lösung rechnet oder ob die virtuellen Instanzen ihren Storage besser auf traditionelle Weise erhalten. Wobei es inzwischen auch schon HCI-Anbieter gibt, die ihre Virtualisierungsplattform für Hadoop oder andere Big-Data-Anwendungen positionieren.

Zu den wichtigsten Auswahlkriterien einer HCI-Lösung zählt, welche Hypervisoren sie unterstützt. VMware vSphere/ESX wird aufgrund der nach wie vor dominierenden Stellung im Virtualisierungsmarkt von fast allen Anbietern unterstützt. Microsoft Hyper-V oder die auf Linux basierende KVM-Virtualisierung (Kernel Virtual Machine) sind deutlich seltener anzutreffen. Dies hängt sicher auch damit zusammen, dass HCI-Lösungen noch nicht so lange auf dem Markt sind und sich die Hersteller deshalb zunächst auf VMware als Marktführer im Hypervisor-Markt konzentriert haben. Auf den Roadmaps vieler HCI-Hersteller sind Hyper-V und KVM aber durchaus zu finden.

Microsoft hat für Hyper-V mit Storage Spaces Direct (S2D) eine eigene HCI-Lösung entwickelt, die im aktuellen Windows Server 2016 Bestandteil der Datacenter Edition ist. Auf S2D wird später noch genauer eingegangen. Der HCI-Pionier Nutanix hat mit Acropolis einen eigenen Hypervisor auf KVM-Basis entwickelt, der sich alternativ zu VMware ESX, Microsoft Hyper-V oder Citrix Xen nutzen lässt.

Für kleinere Unternehmen sowie für einen Einsatz in Außenstellen ist interessant, wie viele Appliances man für die Startkonfiguration benötigt. Bei den meisten Anbietern sind mindestens drei Systeme erforderlich. Es gibt aber auch HCI-Lösungen, die sich mit zwei oder sogar nur einer Appliance betreiben lassen.

Bei der Skalierbarkeit von CPU, RAM, Speicherkapazität sowie IO-Performance von Storage und Netzwerk unterscheiden sich die HCI-Anbieter zum Teil beträchtlich. So gibt es Hersteller, bei denen innerhalb eines Cluster-Verbundes alle Knoten dieselbe Hardwarekonfiguration haben müssen. Andere Hersteller unterstützen auch einen Mischbetrieb unterschiedlicher Hardwareausstattungen innerhalb desselben Clusters.

Die maximale Anzahl der Nodes pro Cluster variiert ebenfalls beträchtlich. Die Bandbreite reicht derzeit je nach Anbieter von acht bis 64 Nodes. Es gibt auch Hersteller, die keine Obergrenze angeben. In Produktionsumgebungen sind HCI-Cluster mit mehr als 64 Nodes bislang allerdings kaum anzutreffen.

Die IOPS-Performance, die in der Vergangenheit bei der Auswahl von Speicherlösungen meist ein sehr wichtiges Kriterium war, stellt bei HCI-Systemen eher selten ein Problem dar. Selbst Hybrid-Lösungen, die SDDs als Cache oder als schnellen Tier 0 verwenden, bieten eine hohe IOPS-Performance.

Bei Hybrid-Lösungen ist Auto-Tiering ein wichtiger Punkt. Diese Funktion stellt sicher, dass häufig benötigte Daten auf dem schnellsten Tier liegen und selten genutzte Daten automatisch auf langsamere Tiers verschoben werden. Da immer mehr Unternehmen auf All-Flash-Lösungen setzen, wird Auto-Tiering künftig keine große Rolle mehr spielen.

Alle HCI-Lösungen zeichnen sich dadurch aus, dass Erweiterungen im laufenden Betrieb möglich sind. Die für die redundante Speicherung der Daten zuständige Software sorgt dafür, dass neu hinzugefügte Kapazitäten automatisch in den Verbund aufgenommen werden. Um die Datenredundanz zu gewährleisten, kommen je nach Hersteller unterschiedliche Verfahren wie Mirroring, Raid-5, Raid-6 oder Erasure Coding zum Einsatz.

Auch eine Hochverfügbarkeit ist bei allen HCI-Systemen gegeben. Fällt eine Appliance aus, wird die von ihr bereitgestellten virtuellen Instanzen auf einem anderen Knoten neu gestartet. Unterschiede gibt es bei der Anzahl der Platten oder Systeme, die maximal ausfallen dürfen, ohne dass Daten verloren gehen. Der Administrator kann in der Regel zwischen verschiedenen Resiliency-Konfigurationen wählen. Einige Hersteller unterstützen sogar eine Rack-Resiliency. Dies bedeutet, dass ein ganzes Rack ausfallen kann, ohne dass virtuelle Instanzen verloren gehen oder Datenverluste auftreten.

Snapshot-Funktionen, mit denen sich VMs auf einen früheren Stand zurücksetzen lassen, zählen ebenfalls zum Standardleistungsumfang von HCI-Lösungen. Snapshots ersetzen jedoch kein Backup und bieten keinen Desaster-Schutz. Für VMware und Hyper-V gibt es ein breites Angebot an Backup- und DR-Produkten von Drittherstellern. Die Backup-Spezialisten Veeam und Commvault unterstützen mittlerweile auch den Acropolis Hypervisor von Nutanix.

Einige HCI-Lösungen beherrschen eine synchrone und asynchrone Spiegelung oder Replikation, um bei einem Standortausfall die VMs am anderen Standort schnell wieder online bringen zu können.

Unterschiede gibt es auch bei der Deduplizierung und Kompression der gespeicherten Daten. Bei All-Flash-Systemen zählt aufgrund der hohen IOPS-Performance mittlerweile die Inline-Datenreduktion zum Standard. Ein HCI-Hersteller hat hierfür eine spezielle Beschleunigerkarte entwickelt, um bestmögliche Ergebnisse zu erzielen. Es gibt aber auch Hybrid-Lösungen, die mit ihrem SSD-Cache Daten inline deduplizieren und komprimieren können, ohne die Appliance zu stark zu belasten.

Mit welcher Management-Software eine HCI-Lösung verwaltet wird, hängt unter anderem vom eingesetzten Hypervisor ab. Wird VMware vSphere genutzt, stellen die meisten Anbieter ein Plug-in für das VMware Virtual Center (vCenter) zur Verfügung. Darüber hinaus gibt es in der Regel eine Web-basierte GUI für die Verwaltung der HCI-Appliance. Von der Hypervisor-Plattform hängt auch ab, welche Funktionen sich für Storage-Provisioning, Quality of Service und Cloud-Integration nutzen lassen.

HCI-Lösungen im Überblick

Im Rahmen dieses Artikels ist es nicht möglich, auf alle Anbieter von HCI-Appliances einzugehen. Der Fokus wurde deshalb auf besonders erfolgreiche Startups und auf etablierte Storage-Anbieter gelegt, die auf den HCI-Zug aufgesprungen sind.

Darüber hinaus gibt es eine ganze Reihe Softwareanbieter, die zum Teil seit vielen Jahren erfolgreich SDS-Lösungen anbieten, aus Platzgründen aber nicht berücksichtigt werden konnten. Viele dieser Hersteller haben ihre SDS-Software so erweitert, dass sich damit auf Basis von Standard-x86-Servern HCI-Systeme betreiben lassen. Zu nennen sind hier unter anderem Datacore, FalconStor oder Atlantis Computing.

Auch Microsoft zielt mit den im Windows Server 2016 deutlich ausgebauten Storage-Spaces-Direct-Funktionen (S2D) auf den HCI-Markt für kleinere und mittlere Unternehmen, die Hyper-V als Virtualisierungsplattform einsetzen. Inzwischen gibt es zahlreiche Hersteller, die auf Basis von S2D WS2016-Appliances anbieten. Hierzu zählen unter anderem große Anbieter wie Dell EMC oder Fujitsu sowie kleinere Spezialisten wie zum Beispiel DataON. Vor kurzem hat zudem Red Hat eine HCI-Software mit KVM-Virtualisierung angekündigt, die sich vor allem für kleinere Unternehmen und Filialen eignen soll.

Nutanix

Zu den Pionieren im HCI-Markt zählt das 2009 in den USA gegründete Unternehmen Nutanix. Der Börsengang des Startups erfolgte 2016. Gestartet ist Nutanix ursprünglich mit Appliances für den VDI-Markt (Virtual Desktop Infrastructure). Mittlerweile unterstützt die NX-Plattform von Nutanix auch große Server-Virtualisierungsumgebungen. Es gibt bereits einige Kunden, die Enterprise-Applikationen wie SAP, Oracle- oder MSSQL-Datenbanken auf virtuellen Servern betreiben, die NX-Appliances bereitstellen.

Die Nutanix-Lösung ist als vorkonfigurierte Hardware-Appliance unter anderem von Dell, Lenovo und IBM erhältlich. Als Softwareoption lässt sich Nutanix auch mit Cisco- und HPE-Servern nutzen. Eine Besonderheit von Nutanix ist die Wahlfreiheit bezüglich des eingesetzten Hypervisors. Die meisten anderen HCI-Hersteller unterstützen nur eine oder maximal zwei Virtualisierungslösungen. Nutanix dagegen kann wahlweise mit VMware ESX, Microsoft Hyper-V, Citrix Xen oder dem hauseigenen Hypervisor Acropolis AVH betrieben werden. Acropolis basiert auf einer von Nutanix erweiterten KVM-Virtualisierung. Der von einem Nutanix-Cluster genutzte Hypervisor lässt sich zudem im laufenden Betrieb wechseln. Die HCI-Software kann über integrierte Block- und File-Storage-Services auch physisch angebundene Server bedienen.

Nutanix ist zudem in der Lage, VMs per Mausklick auf einem anderen Hypervisor lauffähig zu machen. Bei Backups und Desaster Recovery ist sogar eine Cross-Hypervisor-Sicherung beispielsweise von ESX auf AVH möglich, um Lizenzkosten zu sparen. Auch eine Cloud-Anbindung wird unterstützt.

Die NX-Appliances sind in verschiedenen Ausbaustufen erhältlich, die von den Einstiegsmodellen der NX-1000-Serie mit ein bis zwei CPUs und maximal zwölf SSDs bis zur NX-8000-Serie mit 24 SSDs reichen. Die Appliances sind als Hybrid-Lösung mit HDDs und bis zu vier Cache-SSDs sowie als All-Flash-System lieferbar. Nutanix unterstützt ein automatisches Storage-Tiering, das auch bei den Hybrid-Systemen eine hohe IO-Performance sicherstellt. Anzahl und Typ von CPUs und LAN-Ports sowie die RAM-Größe lassen sich bei allen Systemen individuell auswählen. Die unterschiedlichen Hardwaretypen lassen sich innerhalb eines Nutanix-Clusters mischen.

LL11S01_2_Dell EMC_VXRack_3blocks
VX-Rack von Dell EMC eignet sich für große Unternehmen und Service-Provider. Bild: Dell EMC

Ein Cluster-Verbund kann theoretisch aus beliebig vielen Nodes bestehen. In der Praxis liegen größere Installationen derzeit zwischen 32 und 64 Appliances pro Cluster. Die Startkonfiguration umfasst bislang mindestens drei Nodes. Demnächst soll ein Einstieg auch mit nur zwei Nodes möglich sein.

Die Nutanix-Software wird von einer Controller-VM bereitgestellt, die auf jedem Node läuft. Nutanix repliziert die gespeicherten Daten per Erasure-Code-Verfahren zu mindestens einer anderen Appliance. Maximal sind bis zu fünf Kopien auf unterschiedlichen Systemen möglich.

Für die auf den Appliances laufenden VMs stellt die Software die Lokalität der zugehörigen Daten sicher. Wird eine VM auf einen anderen Node verschoben, der noch nicht über die replizierten Daten dieser VM verfügt, läuft die VM zunächst per Remote-Zugriff auf die ursprünglichen Daten unterbrechungsfrei weiter, während die VM-Daten im Hintergrund auf den Node kopiert werden, der die VM jetzt bereitstellt.

Die Speicherkapazitäten verwaltet Nutanix über einen großen Pool, in dem der Administrator einzelne Container mit den gewünschten Storage-Profilen definiert. Eine Konfiguration auf LUN- oder Volume-Ebene ist nicht erforderlich. Ein Container legt unter anderem die Deduplizierung, Komprimierung und Replikationstopologie fest. Thin Provisioning wird standardmäßig unterstützt. Spezielle Quality-of-Service-Einstellungen sind dagegen nicht vorgesehen, weil Nutanix durch das Tiering zwischen SSDs und HDDs automatisch die bestmögliche Performance liefert.

Für den Desaster-Schutz unterstützt Nutanix mit VMware ESXi eine Stretched-Cluster-Konfiguration. Dabei repliziert sie synchron die Daten zwischen zwei getrennten Nutanix-Clustern. Beide Standorte verfügen über einen Shared Namespace, wodurch es möglich ist, zwischen den zwei Standorten eine Live-Migration von VMs durchzuführen. Mit Hyper-V ist bislang nur eine synchrone Replikation ohne Shared Namepsace möglich. AVH unterstützt aktuell lediglich eine asynchrone Replikation.

Um einzelne VMs vor Beschädigungen zu schützen, unterstützt Nutanix Crash-konsistente Snapshots, die sich derzeit asynchron im Abstand von mindestens 60 Minuten erstellen lassen. Demnächst sollen auch annähernd synchrone Snapshots im Minutentakt möglich sein. Die Verwaltung der Nutanix-Appliances erfolgt über die Software Prism. Damit lassen sich auch mehrere Cluster zentral managen.

SimpliVity/HPE

SimpliVity ist ebenfalls 2009 in den USA gegründet worden und zählt wie Nutanix zu den erfolgreichsten Startups im HCI-Markt. Anfang 2017 wurde SimpliVity von HPE übernommen, wodurch HPE seinen HCI-Marktanteil kräftig ausbauen konnte. Die bereits vor der Übernahme von HPE entwickelte eigene Lösung HC 380 wird bislang weiter angeboten.

SimpliVity hat in die Appliance auch Backup- und Desaster-Recovery-Funktionen implementiert, so dass hierfür keine Zusatzprodukte anderer Hersteller erforderlich sind. Um die Anforderungen an eine hohe Verfügbarkeit möglichst gut erfüllen zu können, hat SimpliVity ein eigenes Filesystem und einen eigenen Object Store entwickelt.

Als Hypervisor wird bislang nur VMware ESXi unterstützt, der Support für Hyper-V ist jedoch auf der Roadmap. Die SimpliVity-Appliances waren früher auch als Hybrid-Modelle erhältlich. HPE bietet sie aktuell nur noch als All-Flash-Konfiguration an.

Derzeit sind drei Hardwarekonfigurationen wählbar. Das kleinste Modell enthält fünf SSDs mit je 1,9 TByte. Im mittleren sind neun SSDs verbaut und im größten zwölf SSDs. Alle drei Systeme sind mit zwei Intel-Xeon CPUs ausgestattet und können bis zu 1,4 TByte RAM bereitstellen.

Innerhalb eines SimpliVity-Clusters sollte man nur dieselbe Hardewareausbaustufe verwenden. Es ist aber möglich, zu einem Cluster-Verbund größere Modelle hinzuzufügen und anschließend die kleineren Nodes zu entfernen. Dadurch lässt sich ein Cluster unterbrechungsfrei auf eine leistungsfähigere Hardware migrieren.

SimpliVity unterstützt pro Cluster maximal acht Nodes. Die Startkonfiguration kann aus nur einer Appliance bestehen, die durch RAID 5 oder RAID 6 vor Datenverlusten geschützt ist. Sobald eine zweite Appliance hinzugefügt wird, überträgt SimpliVity die Daten automatisch synchron auf den zweiten Server.

SimpliVity hat für die Inline-De-Duplizierung und Komprimierung eine Beschleunigerkarte mit programmierbarem FPGA-Chip entwickelt, die sich für diese Aufgaben besser eignet als Standard-x86-CPUs. In einem hochverfügbaren Cluster-Verbund werden die Daten immer auf mindestens zwei Appliances gespeichert. Auf jedem System läuft eine Linux-basierte VM mit dem Herzstück von SimpliVity, dem Omnistack Virtual Controller (OVC). Die OVC-VM greift per Pass-Through auf die Beschleunigerkarte und den RAID-Controller zu. Die VM selber liegt auf zwei zusätzlichen SSDs, die ein zweiter RAID-Controller spiegelt.

Jeder neue Datenblock wird auf beiden Appliances von den Beschleunigerkarten inline dedupliziert, komprimiert und gecached. Sobald der Block auf beiden Karten vorhanden ist, erfolgt der Write ACK an die Applikation. Bei einem Stromausfall speichert die Karte die im Cache vorhandenen Daten auf SSD.

Im Normalbetrieb bezieht eine VM ihre Storage-Ressourcen immer von dem Node, der als primärer Pfad konfiguriert ist. Fällt eine Beschleunigerkarte aus, greifen die auf dieser Appliance laufenden VMs automatisch über ihren sekundären Pfad auf die Beschleunigerkarte der anderen Appliance zu, auf der die Daten dieser VM ebenfalls vorhanden sind. Sobald die fehlerhafte Karte wieder online ist, erfolgt automatisch eine Resynchronisierung der Datenbestände.

Den von den Appliances bereitgestellten Shared Storage sehen ESXi-Server als NFS-Mount, der sich auch von externen Servern nutzen lässt. Es ist zudem möglich, externe Server mit zusätzlicher CPU-Leistung in einen SimpliVity-Cluster einzubinden, was zum Beispiel in VDI-Umgebungen sinnvoll sein kann.

SimpliVity ermöglicht aufgrund seiner Architektur sehr schnelle Backups und Restores von VMs. Die Grundlage hierfür bildet der Object Store, der für jede VM einen Container mit den Metadaten und den Deduplizierungsinformationen enthält. Diese Container sind in der Datenbank der Controller-VM gespeichert.

Das Backup erstellt eine Kopie des VM-Containers, wobei die Pointer auf die echten Datenblöcke zeigen. Bei einem Restore wird eine weitere Kopie des VM-Containers erstellt und auf der Appliance gemountet. Damit ist die auf dem Stand des Container-Backup-Zeitpunktes zurückgesicherte VM innerhalb weniger Sekunden im Virtual Center wieder sichtbar. Da alle Datenblöcke einer VM immer auf mindestens zwei Appliances vorhanden sind, handelt es sich nicht um einen Snapshot, sondern um ein echtes Backup.

SimpliVity unterstützt darüber hinaus für ein Desaster Recovery eine asynchrone Replikation an mehreren Standorten und eine synchrone Replikation, die sich als Stretched Cluster über zwei Standorte hinweg konfigurieren lässt. Die maximale Entfernung ist abhängig von der Roundtrip Time, die nicht größer als eine Millisekunde sein sollte.

Aufgrund der sehr engen Integration mit dem Virtual Center von VMware benötigt SimpliVity kein eigenes Management-Tool. Eine Provisionierung von LUNs ist nicht erforderlich, weil die Appliance die Speicherkapazitäten als ein großes NFS-Share bereitstellt. Auch die Backup- und Restore-Funktionen sind in das vCenter integriert. Der Administrator weist hierfür den VMware Datastores die zuvor erstellten Backup-Policies zu. Quality-of-Service-Vorgaben lassen sich ebenfalls per vCenter konfigurieren. Für die leistungsstarken All-Flash-Appliances bringt dies jedoch in der Regel keine Vorteile. Das Thin-Provisioning sollte man über das vCenter aktivieren.

Spezielle Schnittstellen für die Cloud-Anbindung sind derzeit nicht vorhanden. Wenn der Provider SimpliVity-Appliances einsetzt, lassen sich diese für Backup und Desaster Recovery mit aktivierter Deduplizierung und Komprimierung nutzen.

Springpath/Cisco

Das 2012 gegründete Startup Springpath hat 2015 die gleichnamige HCI-Softwarelösung für VMware vSphere auf den Markt gebracht. Die Software war zunächst für Server von Cisco, Dell, HP, Lenovo und Supermicro freigegeben. Im Sommer 2017 hat Cisco das Unternehmen übernommen. Cisco hatte bereits 2016 mit HyperFlex eine eigene HCI-Appliance auf den Markt gebracht, die auf der Springpath-Software basiert. Bislang unterstützt Springpath nur VMware. Der Support für Hyper-V soll in wenigen Monaten hinzukommen. KVM ist ebenfalls auf der Roadmap.

Die Einstiegskonfiguration besteht aus mindestens drei Nodes, die über zwei redundante Fabric-Interconnect-Komponenten miteinander verbunden sind. Die Fabric-Interconnects stellen gleichzeitig eine zuverlässige Anbindung an die LAN-Infrastruktur des Rechenzentrums bereit. Für Außenstandorte bietet Cisco ein HyperFlex-Edge-Modell ohne diese Netzkomponenten an. Pro Cluster-Verbund sind derzeit maximal 16 Knoten möglich. Zusätzlich lassen sich bis zu 16 weitere reine Compute-Knoten hinzufügen. In wenigen Monaten will Cisco in einem Cluster doppelt so viele Systeme unterstützen.

Die Hyperflex-Appliances sind Cisco-Rack-Server mit einer oder zwei Höhenheinheiten (HE), die als All-Flash- oder als Hybrid-System erhältlich sind. In den 1HE-Systemen sind sechs SSD- oder HDD-Datenlaufwerke und eine Cache-SSD verbaut. Die 2HE-Systeme verfügen ebenfalls über eine Cache-SSD und bis zu 23 HDD- oder SSD-Datenlaufwerke.

LL11S01_3_Netapp_HCI
Die HCI-Lösung von NetApp besteht aus eigenen Storage- und Compute-Nodes. Bild: Netapp

Die 2HE-Modelle benötigen in der Startkonfiguration sechs Datenlaufwerke und lassen sich durch Hinzufügen einzelner Laufwerke Stück für Stück bis zum Endausbau erweitern. In einem Cluster-Verbund dürfen entweder nur 1HE- oder 2HE-Appliances vorhanden sein. Immerhin lassen sich verschiedene Servergenerationen wie M5 und M4 im selben Cluster mischen.

HyperFlex verwendet auf dem Data-Layer kein Tiering. Dieser Layer besteht entweder aus SSDs oder aus HDDs. Für eine hohe Performance sorgt in beiden Fällen die Cache-SSD. Nach Angaben von Cisco ist mithilfe der Cache-SSD auch das Hybrid-System in der Lage, Deduplizierung und Kompression inline durchzuführen. Wenn zu einem Cluster ein neuer Node hinzukommt, führt das System automatisch ein Re-Balancing der Daten von allen Nodes durch. Ziel ist es, dass sich alle Appliances gleichmäßig nutzen lassen. HyperFlex erstellt von allen gespeicherten Daten ein oder zwei Kopien.

Für die HyperFlex-Systeme ist es laut Cisco nicht so wichtig, auf welchem Knoten eine VM läuft und ob die zugehörigen Daten auf demselben oder einem anderen Knoten im Cluster gespeichert sind, weil die Nodes miteinander über ein sehr schnelles Netzwerk mit niedriger Latenz verbunden sind und das Filesystem für die HCI-Anforderungen optimiert wurde. Den Storage stellt HyperFlex als NFS-Share bereit und führt standardmäßig ein Thin Provisioning durch. Für Quality of Service stehen die Standardfunktionen von VMware zur Verfügung. Eigene Mechanismen haben Springpath und Cisco bisher nicht implementiert, weil die Performance bereits jetzt sehr gut ist.

Um vor einem Desaster zu schützen, lassen sich von HyperFlex bereitgestellte VMs mit einem asynchronen Spiegel über ein WAN an einen DR-Standort replizieren. In wenigen Monaten sollen die Systeme auch ein Stretched Cluster über zwei Standorte unterstützen, wobei die Roundtrip Time maximal fünf Millisekunden betragen darf. Für das Management liefert Cisco standardmäßig den UCS-Manager mit. Zum Lieferumfang zählen zudem ein vCenter-Plugin und ein HTML5-Browser-Tool mit demselben Feature-Set.

Eine Cloud-Anbindung zum Beispiel an AWS oder Azure kann über das Cisco Cloud Center erfolgen. Ein Backup oder eine Replikation direkt in die Cloud wird bislang nicht unterstützt. Dies ist jedoch über entsprechende Anwendungen von Drittherstellern möglich.

Dell EMC/VMware

Durch die Übernahme von EMC und der Tochter VMware hat Dell die Bandbreite des eigenen Storage-Portfolios stark ausgebaut, wozu mit ScaleIO auch eine HCI-Softwarelösung zählt. Im HCI-Markt spielt zudem VMware mit der vSAN-Lösung (Virtual SAN) schon seit einiger Zeit eine wichtige Rolle. Bereits vor diesem Merger konnte Dell durch eine strategische Partnerschaft mit Nutanix die Dell-XC-Appliances anbieten. Sie ermöglichen nach wie vor einen kostengünstigen Einstieg in die HCI-Welt. Für reine VMware-Umgebungen dürften sich die VxRail-Appliances des Herstellers aufgrund der stärkeren VMware-Integration besser eignen.

Die Anforderungen von sehr großen Unternehmen oder Providern, die mehrere tausend VMs bereitstellen, lassen sich mit VxRack abbilden. Diese Lösung bietet Dell zusammen mit einer vorbereiteten Netzwerkinfrastruktur, einer Bereitstellungsautomatisierung und vielen weiteren Tools an. Es gibt auch eine VxRack-Flex-Variante auf Basis von ScaleIO, die ohne oder mit kundenspezifischem Hypervisor erhältlich ist und bei der sich die Compute- und Storage-Nodes flexibel hinzufügen lassen.

Die Einstiegslösung VxRail benötigt mindestens zwei Nodes und lässt sich auf bis zu 64 Nodes ausbauen. Ein VxRail-Verbund lässt sich aus Knoten mit unterschiedlicher Hardwareausstattung realisieren. Es ist möglich, mehrere vSAN-Cluster in ein vCenter zu integrieren und von zentraler Stelle aus zu verwalten. VxRack beginnt bei einer Startkonfiguration von acht Nodes und kann in einem Cluster maximal 192 Nodes zusammenschalten. Diese Lösung lässt sich sehr gut in den verschiedenen Performance- und Kapazitätsdimensionen skalieren.

Um eine hohe Verfügbarkeit sicherzustellen, unterstützt vSAN sogenannte Fault Domains. Sie legen fest, wie viele Nodes maximal ausfallen dürfen, ohne dass Daten verloren gehen. Es ist auch möglich, eine Rack Resiliency zu konfigurieren, sodass ein komplettes Rack ausfallen kann ohne dass Datenverluste auftreten. Vor einem Desaster schützt ein vSAN Stretched Cluster mit einer synchronen Replikation oder eine asynchrone Replikation zu einem weit entfernten DR-Standort.

Für ScaleIO sind mindestens drei Nodes erforderlich. Ein Storage-Cluster lässt sich auf bis zu 1.024 Knoten ausbauen. Pro ESX-Cluster sind derzeit maximal 64 Nodes möglich. ScaleIO unterstützt auch Hyper-V, Citrix Xen und KVM. Die ScaleIO Controller VM läuft auf jedem Node und stellt dem Hypervisor die Speicherkapazitäten je nach Anforderung auf LUN-, NFS- oder CIFS-Ebene bereit. Auch externe Server lassen sich an den Storage anbinden. Zu einem ScaleIO-Verbund lassen sich auch reine Compute-Knoten hinzufügen. Ein Auto-Tiering unterstützt das System nicht, kann aber zwei verschiedene Storage-Layer aus HDD und SDD bedienen. Scale-IO beherrscht bislang nur eine Komprimierung, eine Deduplizierung fehlt noch auf der Feature-Liste.

Die Fault Sets von ScaleIO bieten einen Desaster-Schutz. Eine synchrone oder asynchrone Replizierung ermöglicht Recovery Points für VMs. Eine native Replikation auf der Storage-Ebene ist in Planung. ScaleIO unterstützt QoS-Mechanismen auf LUN-Ebene. Bei den vSAN-Lösungen stehen sie pro VM zur Verfügung.

Für das Management der VxRail-, VxRack- und VxRack-Flex-Lösungen bietet Dell EMC zahlreiche Tools an, die umfangreiche Aufgaben von der Installation über die Orchestrierung bis zu Systemupgrades erfüllen. Ein Health- und Performance-Monitoring zählt ebenfalls zum Funktionsumfang. Gleiches gilt für die Cloud-Anbindung, die über mehrere Wege möglich ist.

HDS

Hitachi Data Systems (HDS) bietet im HCI-Markt Hardwarelösungen auf Basis von VMware vSAN an. Die Systeme werden im Rahmen der HDS Unified Compute Platform (UCP) vermarktet. UCP HC entspricht den VxRail-Systemen von Dell EMC, die UCP-RS-Lösung ist das Rack-Pendant zu VxRack. Um Deduplizierung und Komprimierung nutzen zu können, bietet HDS reine Flash-Lösungen an, die mit Speicherkapazitäten von 12 bis 100 TByte pro Node erhältlich sind.

Die Hybrid-Lösungen verwenden immer ein Flash-Laufwerk als schnellen Cache. Bei den hybriden RS-Systemen sorgt ein Auto-Tiering für eine effiziente Nutzung des SSD- und HDD-Tiers. Die HCI-Appliances nutzen die Snaphshot-Funktionen von VMware vSAN. Mit dem HDS Instant Director bieten sie zusätzliche Möglichkeiten, um Backups und Snapshots von einzelnen VMs zu erstellen.

Der in das vCenter integrierte Hitachi UCP Advisor stellt eine Schnittstelle zwischen dem vCenter und der Appliance-Hardware bereit. Mit UCP 2000 bietet HDS zudem eine Lösung an, die HC und CI in einer Plattform mit einem übergreifenden Management abbilden kann. Bei Bedarf lässt sich die HC-Lösung mit den Content-Management-Werkzeugen von HDS integrieren, etwa um die gespeicherten Daten zu kategorisieren.

Die HDS-Lösungen lassen sich auch an Cloud-Provider anbinden. So ist UCP RS für die VMware Cloud Foundation zertifiziert. Ein Backup oder eine Replikation in die Cloud sind über die entsprechenden VMware-Schnittstellen ebenfalls möglich.

NetApp

Wie bereits erwähnt hat NetApp für seine neue HCI-Lösung All-Flash-Storage- und Compute/Networking-Appliances entwickelt und bietet diese als HCI-Gesamtprodukt an. Die Einstiegslösung besteht aus mindestens vier Storage-Nodes und zwei Compute-Nodes mit halber Baubreite, die in zwei 2HE-Racks sechs Einbauplätze belegen. Die maximale Ausbaustufe liegt derzeit bei 100 Knoten pro Cluster-Verbund. In der Praxis sind in größeren Umgebungen meist 40 bis 50 Knoten anzutreffen.

Sowohl die Storage- als auch die Compute-Nodes sind in drei Größen erhältlich. Bei den SolidFire-Arrays sind immer sechs SSDs verbaut, wobei diese entweder 480 GByte, 960 GByte oder 1,9 TByte groß sind. Die Compute-Nodes decken ein Spektrum von 16 bis 36 CPU-Cores und 256 bis 768 GByte RAM ab. Im Endausbau stellt ein HCI-Verbund derzeit bis zu 436 TByte Nettospeicherkapazität bereit.

Innerhalb eines Clusters lassen sich verschiedene Modelle mischen, so dass sich die Lösung bezüglich der bereitgestellten Speicherkapazität, IOPS-Performance und Compute-Power flexibel in alle Richtungen skalieren lässt. Als Storage-Betriebssystem kommt das Element OS von SolidFire zum Einsatz. Als Hypervisor wird bislang nur vSphere ESXi unterstützt. Ein zweiter Hypervisor ist auf der Roadmap, wobei noch nicht ausgemacht ist, ob dies Hyper-V oder KVM sein wird.

Die Storage-Nodes führen fortlaufend eine Deduplizierung und Komprimierung der gespeicherten Daten durch. Thin Provisioning wird ebenfalls standardmäßig unterstützt. Die Redundanz der Daten stellt SolidFire durch synchrone Replicas sicher. Ein Schreibvorgang wird der Applikation als erfolgreich gemeldet, sobald die Daten auf zwei Storage-Nodes in den NVRAM geschrieben wurden. Bislang erstellt das System nur zwei Duplikate. Die Architektur würde aber auch mehr Kopien erlauben.

Der Storage-Cluster verfügt über einen Kapazitäts- und einen Performance-Pool. Hierbei handelt es sich um eine logische Abbildung, um die Verwaltung zu vereinfachen. Physisch sind alle SSDs in beide Pools eingebunden. Wird ein neuer Storage-Knoten zu dem Verbund hinzugefügt, wachsen beide Pools entsprechend an. Im Hintergrund führt das System automatisch ein Rebalancing der gespeicherten Daten durch, um die neu hinzugekommenen Ressourcen bestmöglich zu nutzen.

Die Speicherressourcen stellt das System den ESXi-Servern als iSCSI-LUNs oder als VMware VVOLs (Virtual Volume) zur Verfügung. NFS wird von SolidFire nicht unterstützt. Mit den VVOLs ist eine automatisierte Storage-Provisionierung aus dem vCenter heraus möglich. Der Administrator muss lediglich die Datastores mit den gewünschten Storage-QoS-Parametern einrichten.

Über die VVOLs lassen sich die QoS-Vorgaben bis auf einzelne VMs hinunter granular steuern. Das System stellt dabei sicher, dass die QoS-Anforderungen möglichst gerecht zwischen schwächeren und leistungsfähigeren Nodes verteilt werden.

Ein Auto-Tiering ist nicht erforderlich, weil es sich um All-Flash-Systeme handelt. An die Storage-Nodes kann man auch externe physische Server anschließen. Zudem lassen sich vorhandene SolidFire-Arrays in den HCI-Verbund integrieren. Um vor Datenverlusten zu schützen, unterstützt die HCI-Lösung Snapshots mit Pointern, die die Performance nicht beeinträchtigen.

Zudem bietet NetApp eine eigene Backuplösung an, die auf VVOLs basiert. Des Weiteren ist eine Backup-Appliance erhältlich, die die Daten in ein Amazon- oder Azure-Rechenzentrum sichern kann.

Ein Desaster Recovery Schutz lässt sich zum einen über eine symmetrische Spiegelung mit einem zweiten HCI-Cluster erreichen. Zum anderen lässt sich das System mit dem VMware Site Recovery Manager integrieren, der eine synchrone und asynchrone Replikation zwischen zwei Clustern unterstützt.

Die Verwaltung von NetApp HCI erfolgt größtenteils über das VMware vCenter, für das ein Plug-in mitgeliefert wird. Für das Management der Storage-Nodes steht zudem ein Browser-basiertes Tool zur Verfügung.

Fazit

Hyperkonvergente Speicherlösungen haben bereits knapp ein Viertel des Gesamtmarktes der Converged-Infrastructure-Systeme erobert und werden in den kommenden Jahren weiter stark zulegen. Für die Server- und/oder Desktop-Virtualisierung bieten HCI-Appliances eine vergleichsweise einfach zu betreibende und kostengünstige Hardwareplattform, die ohne externe Storage-Arrays auskommt.

Bei der Architektur und den Funktionen gibt es durchaus größere Unterschiede zwischen den HCI-Anbietern. So sind bislang nur wenige Produkte erhältlich, die mehrere Hypervisoren unterstützen. Auch für die Bereitstellung der Speicherressourcen, die Hochverfügbarkeit der Plattform sowie den Schutz vor Datenverlusten kommen verschiedene technologische Ansätze zum Einsatz.

Ein wichtiger Aspekt ist auch die Skalierbarkeit. Bei einigen HCI-Lösungen müssen alle Appliances innerhalb eines Clusters dieselbe Hardwarekonfiguration haben. Andere unterstützen dagegen einen flexibleren Mischbetrieb unterschiedlicher Appliance-Ausbaustufen.

Da es sich um ein relativ junges Marktsegment handelt, sind von den HCI-Anbietern in den kommenden Jahren zahlreiche neue Features zu erwarten.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Sage Software GmbH

Weitere Artikel zu SM Selbstklebetechnik GmbH & Co. KG

Weitere Artikel zu DCS Computer Systeme GmbH

Weitere Artikel zu LEUWICO GmbH & Co. KG

Weitere Artikel zu ACR AG

Weitere Artikel zu AKI SYSTEM-ELECTRONIC GmbH

Weitere Artikel zu starline Computer GmbH

Weitere Artikel zu Visionapp

Matchmaker+