Die Anbieter von hyperkonvergenten Systemen haben sich eine Vereinfachung der RZ-Infrastruktur auf die Fahnen geschrieben. Mit derartigen Appliances lässt sich die Rechenleistung, Speicherkapazität und Netzwerk-Performance in kleinen Schritten linear skalieren. Dadurch eignen sich diese besonders gut für die Server- und Desktop-Virtualisierung. Unser Technikvergleich berücksichtigt sowohl Systeme etablierter Hersteller als auch Lösungen einiger spezialisierter Newcomer.Mit hyperkonvergenten Speichersystemen hat sich eine neue Produktkategorie etabliert, die den Anbietern klassischer Storage Arrays zunehmend Marktanteile streitig macht. Die neuen Systeme zielen bislang vor allem auf den nach wie vor stark wachsenden Markt der Server- und Desktop-Virtualisierung. Hyperkonvergente Appliances stellen auf der Basis von Standard-x86-Servern neben der Compute-Leistung auch die Speicherkapazitäten sowie virtualisierte Netzwerkfunktionen bereit, die der Hypervisor verwaltet. Im Vergleich zu klassischen Arrays, die eine sehr große Zahl an Festplatten und Flash-Laufwerken über spezialisierte Storage Controller zentral verwalten, lassen sich hyperkonvergente Systeme deutlich granularer skalieren. Fügt der Anwender eine weitere Appliance zum Clusterverbund hinzu, erhöht sich nicht nur die Speicherkapazität, sondern auch die CPU- und I/O-Performance skalieren linear. Ein großer Vorteil besteht zudem darin, dass die zu verarbeitenden Daten sehr viel näher bei den CPUs liegen und sich die Latenzzeiten dadurch deutlich reduzieren.
Hyperkonvergente Systeme beschleunigen den Aufbau von Virtualisierungsplattformen und verbessern die betriebliche Effizienz, weil sich die Compute-, Storage- und Networking-Ressourcen über ein zentrales Management-Tool verwalten lassen. In klassischen RZ-Infrastrukturen dagegen sind Spezialisten für die jeweilige Verwaltung der Speichersysteme, der Server-Virtualisierung und des Netzwerks erforderlich. Die neu entwickelten hyperkonvergenten Lösungen decken auch einen unterbrechungsfreien Betrieb, Datensicherung sowie Disaster Recovery ab. Für eine effiziente Nutzung der vorhandenen Ressourcen sorgen Funktionen wie Thin Provisioning, Deduplizierung, Datenkomprimierung und Optimierung von WAN-Übertragungen. Damit stellen hyperkonvergente Systeme alle wichtigen Funktionen bereit, die die Hersteller klassischer Speicherlösungen in den vergangenen Jahren entwickelt haben.
 
Wachstumsmarkt Hyperkonvergenz
Die Vorteile von hyperkonvergenten Lösungen überzeugen immer mehr Unternehmen. IDC sagt diesem Marktsegment in den kommenden Jahren ein Wachstum von jährlich mehr als 50 Prozent voraus. Die Analysten von Gartner kommen zu einer ähnlichen Wachstumsprognose und schätzen, dass der Umsatz mit sogenannten integrierten Systemen im vergangenen Jahr weltweit bereits bei etwa sechs Milliarden Dollar lag.
Unter integrierten Systemen versteht Gartner nicht nur hyperkonvergente Hardware-Appliances, sondern auch konvergente Infrastrukturangebote, die Produkte mehrere Anbieter zu einem Lösungspaket mit Compute-, Storage- und Networking-Komponenten zusammenfassen. Dazu zählen zum Bespiel die Flexpod-Architektur auf der Basis von Cisco UCS und Netapp-Storage oder die Vblock-Architektur, die aus EMC-Storage und Cisco UCS besteht. Ein wichtiges Merkmal aller konvergenten Ansätze ist eine Management-Software, mit der sich die Komponenten zentral verwalten und sämtliche Ressourcen provisionieren lassen.
Dieser LANline-Beitrag konzentriert sich auf hyperkonvergente Lösungen, die Compute, Storage und Networking in einer Hardware-Appliance zusammenfassen. Es gibt in diesem Markt auch zahlreiche Softwareanbieter, mit deren Lösungen sich hyperkonvergente Appliances bauen lassen. So hat zum Beispiel der Storage-Virtualisierungspionier Datacore seine Software Sansymphony mittlerweile um eine Virtual-SAN-Funktion erweitert. Damit lassen sich die lokal in einem x86-Server verbauten Festplatten und Flash-Laufwerke in einem Clusterverbund als hochverfügbarer Speicher bereitstellen. Auch Falconstor bietet seit Kurzem mit Freestor ein hyperkonvergentes Produkt an. Ähnliche Lösungen sind unter anderem von Red Hat, Collax, Maxta oder Nexenta erhältlich. Auch die mit Windows Server 2012 eingeführten Microsoft Storage Spaces zählen zu dieser Kategorie.
Da sich aus Platzgründen nicht alle Anbieter berücksichtigen lassen, haben wir uns entschieden, in diesem Beitrag auf die Systeme der Newcomer Atlantis Computing, Nutanix und Simplivity ausführlicher einzugehen. Zudem betrachten wir die von VMware unter dem Namen Evo Rail angebotene hyperkonvergente Lösung genauer. Evo Rail bieten bereits einige Hersteller als Hardware-Appliance an. Ein Kurzüberblick zu weiteren Start-ups sowie Angeboten etablierter Storage-Hersteller rundet den Beitrag ab.
 
Besonderheiten hyperkonvergenter Systeme
Die am Markt erhältlichen hyperkonvergenten Lösungen unterscheiden sich in einigen Punkten deutlich voneinander. So lassen sich einige Appliances nur mit VMware ESX einsetzen, während andere zusätzlich Microsoft Hyper-V sowie zum Teil weitere Hypervisoren wie Citrix Xenserver oder KVM (Kernel Virtual Machine) unterstützen. Unterschiede gibt es auch bei der von den meisten Herstellern implementierten Deduplizierungstechnik. Die Bandbreite reicht von Flash-Laufwerken über spezialisierte PCI-Karten bis zum Verarbeiten der Deduplizierung direkt im Arbeitsspeicher des Servers.
Bei der Skalierbarkeit verfolgen die meisten Anbieter den Ansatz, die Compute-, Storage- und Networking-Ressourcen durch Hinzufügen weiterer Appliances linear auszubauen. Das Netzwerk besteht in der Regel aus den virtuellen Switches des Hypervisors, die über 10GbE-Ports mit dem Rechenzentrumsnetz verbunden sind. Die Netzwerkfunktionen lassen sich mit virtuellen Switches wie zum Beispiel Nexus 1000V von Cisco ausbauen. Im Folgenden zeigen wir, welche Besonderheiten die hyperkonvergenten Appliances der Newcomer Nutanix, Simplivity und Atlantis Computing aufweisen.
 
Nutanix NX-Series mit eigenem File-System
Das im Jahr 2009 in den USA gegründete Unternehmen Nutanix (www.nutanix.com) hat es sich zum Ziel gesetzt, die für Server- und Desktop-Virtualisierung erforderliche RZ-Infrastruktur deutlich zu vereinfachen. Nutanix hat mit dem „Distributed File System“ eine Lösung entwickelt, die dem Google-File-System ähnelt. Die auf x86-Servern basierende Plattform kann der Anwender durch Hinzufügen weiterer Appliances einfach skalieren. Laut Hersteller lassen sich in einem Verbund beliebig viele Nodes betreiben. Die Netzanbindung erfolgt über Standard-LAN-Switches. Nutanix unterstützt die Hypervisoren VMware ESXi, Microsoft Hyper-V und Linux KVM. Mit „Acropolis“ hat Nutanix inzwischen einen eigenen Hypervisor auf den Markt gebracht, der auf KVM basiert. Acropolis ist für die Nutanix-Systeme optimiert und deutlich schlanker als die Hypervisoren von VMware oder Microsoft.
Für eine redundante Speicherung verteilt Nutanix die Daten über den gesamten Cluster hinweg. Die Redundanz lässt sich zudem so konfigurieren, dass ein Nutanix-Block mit vier Servern ausfallen kann, ohne dass Daten verloren gehen. Von traditionellen Speichersystemen unterscheidet sich Nutanix auch dadurch, dass die Speicherressourcen auf der Ebene der virtuellen Maschinen (VM) zugewiesen werden. Es gibt weder RAID-Gruppen noch LUNs (Logical Unit Numbers), die auf die Hypervisoren zu mappen sind. Speicherfunktionen wie Snapshots oder „Consistency Groups“ beziehen sich auf die jeweilige VM.
Um eine hohe I/O-Performance zu erreichen, hat Nutanix ein Auto-Tiering implementiert, das Daten mit hohen I/O-Anforderungen auf SSDs (Solid-State Drives) verlagert. Sinkt die I/O-Last wieder, verschiebt die Software die Daten zurück auf langsamere Festplatten. Die im Flash-Tier integrierte Deduplizierung reduziert den Platzbedarf der gespeicherten Daten.
Die Hardware-Appliances von Nutanix sind in verschiedenen Größen erhältlich. Die Produktfamilie umfasst die Modelle NX-1000 bis NX-9000. Das NX-8000-System stellt auf zwei Höheneinheiten bis zu 40 TByte Raw-Kapazität bereit. Mit dem All-Flash-System NX-9000 bietet Nutanix zudem eine Lösung für sehr hohe Performance-Anforderungen an.
 
Simplivity Omnicube mit spezieller Accelerator-Karte
Simplivity (www.simplivity.com) wurde ebenfalls 2009 in den USA gegründet. Das Unternehmen hat die hyperkonvergente Appliance „Omnicube“ entwickelt und 2013 auf den Markt gebracht. Bisher hat sich Simplivity mit Omnicube auf den marktführenden Hypervisor von VMware konzentriert. Die Management-Funktionen von Omnicube integrieren sich als Plug-in in das Virtual Center von VMware. Mitterweile hat Simplivity die Roadmap um Support für KVM und Microsoft Hyper-V ergänzt.
Die Omnicube-Software unterstützt Inline-Deduplizierung und Komprimierung, um das Volumen der gespeicherten Daten zu reduzieren. Für diese rechenintensiven Optimierungen hat Simplivity mit dem „Omnicube Accelerator“ eine spezielle PCIe-Karte entwickelt, die die CPU entlastet. Um eine hohe Performance zu gewährleisten, verwendet Omnicube einen schnellen Cache. Die gespeicherten Daten werden je nach Intensität der Nutzung zwischen den SSDs und den Festplatten verschoben. Für das Handling der Daten im Omnicube-Verbund hat Simplivity ein globales File-System mit globalem Namespace entwickelt.
Die Speicherverwaltung erfolgt auf der Basis der VMs, wodurch unter anderem eine granulare Zuweisung von Storage Policies möglich ist. Die Software ist zudem in der Lage, VMs automatisch zu sichern und schnell wiederherzustellen. Dabei lassen sich die Appliances auch über zwei oder mehr Standorte miteinander verbinden, um vor einem Standortausfall geschützt zu sein. Die WAN-Replikation ist ebenfalls optimiert, was Bandbreite einspart. Der hochverfügbare Omnicube-Verbund lässt sich erheblich skalieren – eine Obergrenze gibt der Hersteller nicht an.
Simplivity bietet die Omnicube-Appliances in fünf Varianten an, die alle zwei Höheneinheiten messen. Die Modelle reichen von CN-2200 mit einer effektiven Kapazität von fünf bis zehn TByte bis zum Spitzenmodell CN-5400, das 24 bis 48 TByte Speicherkapazität bietet. Die effektive Kapazität beinhaltet bereits die mithilfe von Deduplizierung und Komprimierung erzielbaren Einsparungen. Da diese stark von den eingesetzten Anwendungen abhängen, gibt Simplivity eine geschätzte „Von … bis …“-Bandbreite an.
 
Atlantis Computing USX nutzt auch RAM
Das im Jahr 2006 in den USA gegründete Unternehmen Atlantis Computing (www.atlantiscomputing.com) bietet seine USX-Software für die Verwandlung von Standard-Server-Hardware in hyperkonvergente Speichersysteme unter dem Namen „Hyperscale“ nun auch als komplett vorkonfigurierte Hardware-Appliances an. USX setzt auf den Hypervisoren von VMware oder Citrix auf. Die Software integriert alle im Server verbauten sowie extern angeschlossenen Speicherressourcen in einen zentralen Storage Pool. USX unterstützt alle gängigen Funktionen für ein effizientes Speicher-Management wie Thin Provisioning, Deduplizierung, Auto-Tiering und Unified Storage.
Bei der Hyperscale-Appliance handelt es sich um ein All-Flash-System, das zusätzlich zu lokalen SSDs auch das im Server vorhandene RAM nutzt und damit die Speicherzugriffe von virtuellen Servern und Desktops stark beschleunigen kann. Die Deduplizierung führt USX direkt im RAM durch, womit die Lösung eine sehr hohe Performance und eine geringe Latenz erreicht. Bei der Hardware kann der Kunde zwischen Server-Modellen von Cisco, HP, Lenovo und Supermicro wählen. Durch das Hinzufügen weiterer Appliances lassen sich Performance und Speicherkapazität laut Hersteller linear skalieren.
Zur Markteinführung ist Hyperscale in zwei Versionen mit zwölf oder 24 TByte Speicherkapazität erhältlich. Bei der Kapazitätsangabe hat Atlantis Computing die Einspareffekte durch Deduplizierung und Komprimierung bereits eingerechnet. Das Grundsystem besteht in beiden Varianten aus vier Nodes, wodurch sich eine hohe Ausfallsicherheit erzielen lässt. Für die Zukunft ist zudem ein System geplant, das 48 TByte Speicherkapazität bereit-stellen soll.
 
VMware Evo Rail
VMware ist im Jahr 2013 auf den hyperkonvergenten Zug aufgesprungen. Seit Vsphere 5.5 ermöglicht die VSAN-Funktion (Virtual SAN), die lokal in einem ESX-Host verbauten Speicherkapazitäten für einen hochverfügbaren Clusterverbund zu nutzen. VSAN 6 lässt sich als zweistufige All-Flash-Architektur implementieren, bei der Flash sowohl für das Caching als auch für das dauerhafte Speichern von Daten zum Einsatz kommt. Mit der neuen Funktion „Fault Domains“ kann der Administrator die über mehrere Racks verteilten ESXi-Hosts so gruppieren, dass auch der Ausfall eines kompletten Racks nicht zu Datenverlusten führt.
Mit VSAN 6 hat VMware sogenannte „Virtual Volumes“ (Vvol) eingeführt. Diese basieren auf mehreren Storage-APIs und ermöglichen eine granulare Integration zwischen dem Storage-System und den VMs. Anstelle von FC-LUNs, iSCSI-LUNs oder NFS-Shares stellt das Speichersystem sogenannte Container bereit, in denen die VMs gespeichert sind. Für diese Container definiert der Administrator die gewünschten Storage Policies, die zum Beispiel die I/O-Rate oder die Latenz nach oben und nach unten begrenzen können. Sobald einer VM eine Storage Policy zugewiesen ist, werden ihre Vdisks automatisch auf einem Datastore-Container platziert, der die geforderten Leistungsmerkmale erfüllt. Die jeweiligen Policies für die Vorgaben bezüglich I/O-Performance, Deduplizierung, Thin Provisioning, Auto-Tiering oder Replikation kommen direkt auf dem Speichersystem zur Ausführung. VSAN unterstützt bislang keine eigene Deduplizierung und Komprimierung, sondern nutzt die vom Storage Array bereitgestellten Funktionen.
Mitterweile bietet unter dem Namen „VMware Evo Rail“ eine ganze Reihe von Partnern VSAN-Appliances an. Zu diesen zählen unter anderem Dell, EMC, Fujitsu, HDS, HP und Supermicro. Eine Evo-Rail-Startkonfiguration besteht aus einem Block von vier Servern. EMC bietet auf der Basis von Evo Rail das Produkt „Vspex“ an. Vspex lässt sich mit Server-, Storage- und Netzwerkhardware von unterschiedlichen Herstellern einsetzen. Netapp wiederum bietet Evo Rail auf der Basis seiner FAS-Storage-Systeme an. Es ist auch möglich, größere Flexpod-Infrastrukturen mit Evo Rail zu kombinieren und Evo Rail zum Beispiel in Außenstellen einzusetzen.
 
Start-ups und etablierte Storage-Hersteller
Dass sich der Markt für hyperkonvergente Systeme im Aufschwung befindet, ist auch an der großen Zahl der Start-ups ablesbar. Neben den in diesem Beitrag ausführlicher vorgestellten Anbietern gibt es eine ganze Reihe weiterer Spezialisten. So bietet etwa Nimboxx auf der Basis von KVM eine hyperkonvergente Appliance mit einem „Mesh Operating System“ an. Auch Scale Computing setzt auf KVM in Verbindung mit objektorientiertem Speicher, den der Hypervisor direkt anspricht. Gridstore hat sich auf Appliances für Microsoft Hyper-V spezialisiert. Die Systeme sind als Hybrid- und als All-Flash-Konfigurationen erhältlich. Pivot3 wiederum bietet hyperkonvergente Appliances für Videoüberwachung und Desktop-Virtualisierung an.
Die etablierten Storage-Hersteller ergänzen ihr Angebot ebenfalls nach und nach um hyperkonvergente Lösungen. Wie schon erwähnt, haben bereits mehrere Anbieter Hardware-Appliances auf der Basis von VMware Evo Rail im Portfolio. Dell bietet OEM-Systeme an, auf denen die Software von Nutanix läuft. HP hat mit den Convergedsystem-Modellen eigene hyperkonvergente Appliances entwickelt. Fujitsu und Huawei bieten Systeme an, die auf der Virtual-SAN-Software Sansymphony von Datacore basieren. IBM wiederum hat angekündigt, in den kommenden Jahren eine Milliarde Dollar in die Weiterentwicklung von Software-Defined Storage (SDS) zu investieren, wozu auch hyperkonvergente Systeme zählen dürften. Die Speicherlösungen vermarktet IBM künftig unter dem Namen „Spectrum Storage“.
 
Fazit
Für reine Server- oder Desktop-Virtualisierungsumgebungen stellen hyperkonvergente Appliances einen interessanten Ansatz dar, mit dem sich die Komplexität im Rechenzentrum deutlich reduzieren lässt. Jedes x86-System liefert sowohl Rechenleistung als auch Speicherkapazitäten und Netzwerkfunktionen. Durch Hinzufügen weiterer Appliances kann der Betreiber die Virtualisierungsplattform sukzessive ausbauen. Unternehmen sollten sich aber darüber im Klaren sein, dass der Aufbau einer hyperkonvergenten Infrastruktur innerhalb eines RZs eine Insellösung darstellt und eine hohe Abhängigkeit vom gewählten Hersteller bedeutet. Ob sich hyperkonvergente Appliances auch bei kleineren Unternehmen durchsetzen, wird stark von der Preisgestaltung der Hersteller abhängen. Mit Einstiegspreisen jenseits der 50.000 Euro dürfte die Hürde für den KMU-Markt bislang noch zu hoch liegen.
Und Unternehmen, die eine größere Zahl an physischen Servern mit hohen Performance-Anforderungen betreiben, werden auch künftig auf klassische Storage Arrays setzen. Mit ausgefeilten Caching-Mechanismen, der Integration von RAM- und SSD-Speichern sowie Auto-Tiering-Funktionen liegen moderne Arrays in puncto Leistungsfähigkeit nach wie vor in der Spitzengruppe.
Der Autor auf LANline.de: chjlange

Dell vermarktet die hyperkonvergenten NX-Systeme von Nutanix als OEM-Produkt.

Die Omnicube-Appliances von Simplivity beschleunigen die Datenoptimierungen mit einer Accelerator-PCIe-Karte.

Die Hyperscale-Appliances von Atlantis Computing sind mit zwölf oder 24 TByte SSD-Speicherkapazität erhältlich.

Die hyper-konvergenten VMware-Evo-Rail-Systeme bestehen in der Grundkonfiguration aus vier Nodes, im Bild das Produkt von Fujitsu.

Mit Fault Domains stellt VMware Evo Rail sicher, dass selbst beim Ausfall eines kompletten Racks keine Daten verloren gehen.

Hyperkonvergente Systeme integrieren Server, Storage und Netzwerk in einer Appliance. Bild: Nutanix