Hyperconverged Infrastructure Systems

Cloud-Zukunft aus der Box

10. Dezember 2015, 7:00 Uhr | Thomas Boele/wg, Vice President of Solution Architecture for EMEA bei Simplivity, www.simplivity.com,

Vielfach werden die Vorteile von x86-Web-Scale- und Cloud-Umgebungen - wie sie beispielsweise Amazon, Facebook und Google nutzen - diskutiert und angepriesen. Doch wie können auch kleinere Unternehmen, die sich keinen riesigen Stamm an Entwicklern leisten können und zudem keine speziellen Anwendungsfälle wie Social Networking oder Map-Reduce/Search-Applikationen haben, die Vorteile derartiger Designs ausschöpfen? Unter dem Namen "HCIS" (Hyperconverged Infrastructure System) gibt es mittlerweile Lösungen, die eine vielversprechende Antwort auf diese Frage geben.In diesem Kontext ist es unabdingbar, sich mit den Themen Datenvirtualisierung, Datenmobilität, Datensicherung und Skalierung zu beschäftigen. Welche Optionen ergeben sich für die Kombination eigener Anwendungen (Private Clouds) mit SaaS- und anderen Public-Cloud-Angeboten zu Hybrid-Cloud-Implementierungen? Dieser Artikel soll hier einige Herausforderungen und Perspektiven aufzeigen - auch aus technischer Hinsicht.   Web-Scale-IT Gartner hat im Februar dieses Jahres das erste Mal "Web-Scale-IT" in seinen Top-10-Technologie-Trends genannt - und antizipiert damit einen Paradigmenwechsel im Bereich der aktuell vorherrschenden Technik für Rechenzentren. [1] Laut erweiterter Gartner-Definition ist "Web-Scale-IT" ein RZ-Setup mit dem Ziel, die Skalenvorteile von Cloud-Service-Providern mit den Anforderungen der Unternehmens-IT zu kombinieren - darunter Verfügbarkeit, Dateneffizienz und -sicherheit, Performance sowie einfaches Management. Immer mehr IT-Organisationen sind dabei, diesen radikalen Ansatz zu internalisieren: Sie beabsichtigen, die Ansätze von Unternehmen wie Amazon, Google und Facebook hinsichtlich Applikations- und Infrastrukturentwicklung für ihre eigenen IT-Strukturen zu adaptieren. Dies ist allerdings in vielen Fällen einfacher gesagt als getan: Auf der einen Seite existieren bewährte und allgemein anerkannte (um nicht zu sagen: eingefahrene) RZ-Strukturen; auf der anderen Seite sind - gerade im Bereich mittelständischer Unternehmen - üblicherweise nicht genügend Entwickler und Mittel vorhanden, um "Web-Scale-IT" für das eigene Unternehmen autark zu entwickeln und zu integrieren. Herkömmliche RZs sind mittlerweile komplexe Umgebungen, die aus einer Vielzahl unterschiedlicher Techniken und Komponenten aufgebaut sind, um den Betrieb und benötigten Funktionsumfang sicherzustellen: Server, SAN- und LAN-Switches, monolithische Storage-Systeme (inklusvie interner und externer SSD-Cache-Einheiten), Backup-Systeme und -Software, Cloud-Gateways, WAN-Beschleuniger/Traffic-Shaper, WAN-Gateways und Security-Appliances. Um den Betrieb derartiger Umgebungen sicherzustellen, ist ein entsprechend hoher Bestand an gut ausgebildetem Fachpersonal vorzuhalten - inklusive Spezialisten für Virtualisierung. Änderungen und Erweiterungen erfordern umfassende Planung und Tests, da das Zusammenwirken der unterschiedlichen Elemente und der geplanten Veränderungen nicht automatisch sichergestellt ist. Zudem ergeben sich mit zunehmendem Grad der Server-Virtualisierung nicht unerhebliche Herausforderungen im Bereich Storage - gerade hinsichtlich der "I/O Blender"-Effekte (also abnehmender Storage-Performance in virtualisierten Umgebungen). Gerade in diesem Kontext ist der Einsatz von Scale-out-Architekturen verlockend: Eine RZ-Umgebung - ob verteilt oder zentralisiert - wird auf Basis der aktuellen Anforderungen designt und kommissioniert, Erweiterungen lassen sich dann bedarfsgerecht in genau abgestimmten Einheiten hinzufügen. Wie müssen Bausteine für Web-Scale-IT aussehen, um dieses Versprechen zu erfüllen? Auf dem Markt sind in den letzten Jahren unterschiedliche Entwicklungen zu beobachten. Im Segment der Großunternehmen hat sich für spezielle Anwendungsfälle (Map/Reduce, Big Data, Modeling) und Projekte eine Renaissance von DAS (Direct Attached Storage) herauskristallisiert: Aktuelle Server-Plattformen lassen sich ohne großen Aufwand mit Plattenkapazitäten von 20 bis 30 TByte ausrüsten - also Speicherkapazitäten im Bereich kleinerer und mittlerer Storage-Systeme, allerdings zu sehr attraktiven Konditionen. Zudem bringt man im Bereich virtualisierter Umgebungen Storage und Compute näher zusammen. Hieraus ergeben sich jedoch neue Herausforderungen: Daten-Management und Datensicherung geraten in derartigen Umgebungen zum Problem, Gleiches gilt für DLP (Data Leakage Prevention).   SDN und SDS im Trend Über die letzten 15 Jahre sind unterschiedliche Scale-out-Lösungen auf den Markt gekommen, anfänglich im Bereich Scale-out Block Storage oder Converged Storage. Diese Lösungen standen allerdings lange im Schatten der klassischen monolithischen Storage-Systeme - und waren damit kommerziell weniger erfolgreich. Einhergehend mit den massiven Umwälzungen in Bereich der Netzwerkinfrastruktur, losgetreten durch die Einführung von SDNs (Software-Defined Networks), gewinnt allerdings nun auch der Bereich SDS (Software-Defined Storage) sowie VM-Aware Storage an Bedeutung. Allerdings drängt sich in diesem Zusammenhang die Analogie mit dem Sprichwort "Alter Wein in neuen Schläuchen" auf: File-Level oder Block-Level Storage in neuer Verpackung - ist das wirklich revolutionär? Eher nein. Schließlich sollte das Versprechen von Web-Scale-IT noch einige zusätzliche, essentielle Bestandteile umfassen. Wie sieht es mit Compute, Datensicherung und Datenmobilität aus? Die Antwort darauf heißt laut Gartner-Nomenklatur "HCIS" (Hyperconverged Infrastructure System).   Hyperkonvergenz im Überblick Idealerweise abstrahiert ein HCIS die Ressourcen, die ein x86-Server-System beinhaltet (CPU, DRAM, Storage, Netzwerk), vom physischen System und stellt den virtuellen Workloads (Servern) unterschiedliche, gemeinsam nutzbare Ressourcen-Pools zur Verfügung. Für die Bereiche Compute (CPU, DRAM) und Netzwerk übernimmt dies der Hypervisor, im Bereich Storage sollten das idealerweise Elemente ober- und unterhalb des Hypervisors umsetzen. Dies schafft die Basis für Scale-out-Umgebungen: In einer derartigen Kombination wird aus jedem physischen Server ein kompletter Baustein, der sich nahtlos in die RZ-Architektur einfügt. Das Management sollte am besten über das Framework erfolgen, das von der Virtualisierungssoftware zur Verfügung gestellt wird. Die optimale Orchestrierung zwischen den Bausteinen setzt beim Anbieter entsprechende Erfahrung und Innovationen im Bereich verteilter Systeme voraus. Weiterhin sollte die Lösung über eine Tie-Breaker-Funktionalität verfügen, um im Fehlerfall die Datenintegrität sowie den unterbrechungsfreien Betrieb sicherzustellen - dem CAP-Theorem (Consistency, Availability, Partition Tolerance) folgend. Mit diesen Funktionalitäten kann man bereits eine Konvergenz von Compute- und Storage-Ressourcen erreichen. Für den nächsten Schritt in Richtung einer umfassenden Konvergenz (also "Hyperconvergence") bedarf es einer geeigneten Datenarchitektur. Diese ermöglicht es, weitere im RZ benötigte Funktionalitäten zu integrieren. Eine solche Datenarchitektur hat zum einen die Aufgabe, sich dem Hypervisor in einer geeigneten Weise zu präsentieren: Die Präsentationsebene stellt mithin die Verbindung nach oben sicher, immer basierend auf Standardprotokollen. Eine zusätzliche Ebene, die Daten-Management-Ebene, registriert jegliche Daten, die in die VM-Container geschrieben werden, als Metadaten sowie die dazugehörigen Blöcke auf dem Massenspeicher. Diese Elemente ermöglichen es bereits, zusätzlich eine Cloning- und Backup-Funktionalität zu integrieren: Ein volles VM-Backup wird als Kopie der Metadaten angelegt. Gleiches gilt für einen VM-Klon, schließlich sind die übrigen Datenblöcke schon auf dem Massenspeicher abgelegt. Fügt man nun noch eine Ebene ein, um die Daten auf dem Pfad zwischen der VM und dem Massenspeicher einer Datenreduktion zu unterziehen, kann man die Funktionsintegration noch weitertreiben: Spezielle Appliances für die Datenreduktion bei Backups oder WAN-Transfers für Disaster Recovery (DR) sind damit hinfällig. Bildet man diese Datenarchitektur auf Cloud-Angebote (Compute und Storage) ab, so können verfügbare Cloud-Angebote als zusätzliche Option für Backup-to-Cloud Verwendung finden. Außerdem kann man andere RZ-Standorte als Backup-Ziel verwenden.   HCIS als Hybrid-Cloud-Basis In der genannten Kombination von Funktionalitäten ermöglicht ein HCIS den Aufbau privater und hybrider Clouds: Ein Unternehmen kann Ressourcen im Rechenzentrum seines bevorzugten Integrationspartners als Backup-Ziel und als DR-Rechenzentrum nutzen. Umgekehrt können auch kleinere Systemhäuser ihren Kunden hochwertige Dienste anbieten und ins Cloud-Business einsteigen. Zudem können beide Parteien auch die Angebote "klassischer" Cloud-Anbieter als zusätzliche Option in ihre Planungen integrieren - und dies mit überschaubarem Aufwand.   Quellen[1] www.gartner.com/smarterwithgartner/gartners-top-10-strategic-technology-trends-for-2015

Ein HCIS vereint eine Vielzahl von Bausteinen: von Server und Storage bis hin zu WAN-Optimierung und Backup-System. Bild: Simplivity

Das integrierte Zusammenspiel beteiligter Komponenten in einem HCIS erleichtert den Aufbau einer Private Cloud und letztlich auch einer Hybrid Cloud. Bild: Simplivity
LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu LEUWICO GmbH & Co. KG

Weitere Artikel zu Ingenico

Weitere Artikel zu Ascom Schweiz AG

Weitere Artikel zu Infosecurityguard

Matchmaker+