Daten-Hochverfügbarkeit für virtuelle Maschinen

Im Zweifel zwei

3. April 2013, 7:00 Uhr | Christian Marczinke, Director Strategic Systems Engineering EMEA bei Datacore Software (pf),

Zwei oder mehr physische Server mit virtuellen Maschinen auf einem gemeinsamen Shared Storage - so präsentiert sich eine zwar typische, aber keineswegs hochverfügbare und hoch-performante Architektur. Denn physische Redundanz und räumliche Trennung sind auch bei anspruchsvollen SAN-Geräten Voraussetzung für Hochverfügbarkeit. Höhere Ausfallsicherheit und bessere Performance bieten im Zweifel zwei Windows-Rechner mit Festplatten von der Stange - ein neues Speicherkonzept, der so genannte Storage Hypervisor, schafft dafür die Basis.Performance und Hochverfügbarkeit beschäftigen IT-Verantwortliche besonders dann, wenn sie geschäftskritische Anwendungen in eine virtualisierte Infrastruktur migrieren wollen. Beide Anforderungen sind nicht voneinander zu trennen, lassen sich aber durch herkömmliche Shared Storages kaum effektiv umsetzen. Mit einem Storage Hypervisor, ausgestattet mit synchronem Mirroring, adaptivem Caching und Auto-Tiering, kann dies gelingen. Entscheidend ist dabei, dass der Storage Hypervisor seine integrierten Techniken geräteübergreifend und unabhängig von der Speicherhardware auf die gesamte Speicherinfrastruktur ausbreitet.   Problematik von Shared Storage Häufig bildet der Shared Storage zugleich den "Single Point of Failure" wie auch den Leistungsflaschenhals einer virtuellen Infrastruktur. Das Problem besteht grundsätzlich in der neuen Konkurrenz der Anwendungen um gemeinsam genutzte Speicherressourcen - diese gab es nicht, als den Anwendungen noch jeweils der gesamte Speicher zur Verfügung stand. Solche Engpässe treten spontan auf, da die Anforderungen der Anwendungen unregelmäßig kollidieren. Dadurch ergeben sich unvorhersehbare Trägheits- und Latenzspitzen. Üblicherweise behilft sich die IT-Administration mit zusätzlichen Festplatten und Festplattenkanälen, um die Last zu verteilen. Als weitere Maßnahme platziert beispielsweise die als "Short Stroking" bekannte Technik die Daten nur in den Außenbereichen der Laufwerksplatten. Dies verringert die Radialdistanz (Stroke: Hubweg), die der Lesekopf zurücklegen muss. Eine solche Reduktion der mechanischen Verzögerung führt zu kürzeren Zugriffszeiten, allerdings bleibt ein erheblicher Teil der Plattenkapazität damit ungenutzt. Auch die teuren Caches der Speicher-Controller nutzen Anwender bis zum Maximum aus, um die Reaktionszeiten zu senken. Je nach Ausstattung des Speichersystems können die Begrenzungen durch Laufwerks-Slots, Kanäle und Caches den Kauf weiterer nicht ausgelasteter Disk Arrays erforderlich machen, um annehmbare Reaktionszeiten zu erzielen. Dies löst aber noch nicht das Problem der Verfügbarkeit der Arrays. Denn synchrone Spiegelung ist nur mit kostspieligen Enterprise-Systemen realisierbar und erfordert zusätzliche Lizenzen.   Das Storage-Hypervisor-Konzept Ein Storage Hypervisor konsolidiert sämtliche Speicherkapazitäten im Netzwerk unabhängig von Hersteller oder Technik in einem virtuellen zentralen Speicher-Pool. Er beseitigt damit die Inkompatibilitäten spezifischer Storage Controller und Funktionsbeschränkungen herstellerspezifischer Firmware und Administrations-Tools. Speicher-Management-Funktionen lassen sich so für die Speicherbereitstellung, Datensicherung, Replikation und Spiegelung sowie für Caching auf die gesamte Hardware anwenden. Damit geht das Storage-Hypervisor-Konzept über die übliche Speichervirtualisierung, wie sie viele Disk Arrays leisten, hinaus. Statt nur die LUN-Administration oder Partitionierung einzelner Subsysteme oder identischer Gerätegruppen zu vereinfachen, nimmt der Storage Hypervisor Einfluss auf die I/O-Operationen im Datenverkehr zwischen Server und Storage, wodurch sich auch Datenverfügbarkeit und Gesamt-Performance regeln lassen.   Infrastrukturübergreifendes Caching Ein Storage Hypervisor wie beispielsweise die Lösung von Datacore Software integriert möglichst intelligente Caching-Algorithmen, um mittels Schreibharmonisierung ("Write Coalescing") und Vorauslesen ("Read ahead") die Lese- und Schreibvorgänge auf dem Datenträger zu beschleunigen. Anstatt aber den Cache auf die engen Beschränkungen eines Disk Arrays zu limitieren, erfolgt das Caching über einen Speicher-Pool aus mehreren unabhängigen Speichersystemen hinweg. Ein solches adaptives Caching mittels verschiedener Speichergeräte führt zu folgenden Resultaten: schnellere Reaktion des elektronischen Arbeitsspeichers (DRAM), ökonomischere Skalierung, ohne dass - wie beim Short Stroking - eine Überversorgung mit Spindeln notwendig ist, sowie bestmögliche Nutzung von SSD- (Solid State Drive) beziehungsweise Flash-Speicher. Ein redundantes Hardware-Setup ist auch beim Einsatz eines Storage Hypervisors ein Muss für die Hochverfügbarkeit der Storage-Infrastruktur. Dazu ist dieser auf zwei oder mehr physischen x86-Maschinen (Windows Server 2008 R2 oder Windows Server 2012) zu installieren und mit der SAN-Fabric (iSCSI oder FC) zu verbinden. Zu den Hardwareanforderungen aktueller Lösungen gehören zwei Single-Core- oder eine Dual-Core-CPU sowie RAM, das für das Caching genutzt wird und so die Performance der Storage-Systeme erhöht. Die Storage-Knoten selbst sollten ebenso redundant ausgelegt sein wie die Speichermedien. Bei Letzteren kann der Anwender jedoch ein Mix aus verschiedenen Speicherklassen über die Grenzen eines Storage Arrays nutzen. Ein offener Storage Hypervisor integriert iSCSI-, Infiniband, FC- sowie FCoE-Ressourcen, unterstützt neben HDD-Techniken (SAS, SATA und FC) auch SSDs und nutzt in jüngsten Generationen zudem die Ressourcen von NAS-Appliances.   Auto-Failover und Auto-Failback Für die Hochverfügbarkeit virtueller und physischer Maschinen stellt die synchrone Spiegelung der Daten eine Kernkompetenz dar. Bei redundantem Aufbau stehen diverse SAN-Management-Werkzeuge zur Verfügung, mit denen sich Service-Levels, Verfügbarkeit, Performance und Datensicherheit umsetzen lassen. High Availability basiert zunächst auf Echtzeittechniken beziehungsweise einer synchronen Datenspiegelung. Bei der Auswahl der Tools sollte der Anwender darauf achten, dass die Lösung nicht nur Daten spiegelt, sondern auch das automatische Umschalten (Auto-Failover) der Datenpfade beim Ausfall einer Seite beherrscht. Wünschenswert ist ebenso eine Auto-Failback-Funktion, die nach Wiederanlaufen eine automatische Resynchronisation beider Seiten vornimmt. Inzwischen existieren Lösungen, die dies über Fibre Channel, iSCSI sowie in gemischten Umgebungen leisten. Der Storage Hypervisor repliziert Datenänderungen ökonomisch und in Echtzeit von Standort A nach Standort B. Synchrones Mirroring zwischen infrastrukturübergreifenden Caches erfolgt zu diesen Zwecken: Schaffung einer stabilen, heterogen zusammengesetzten Speicherinfrastruktur zwischen Standorten in einem Metropolitan-Area-Verbund, Minimierung der Latenz, bevor I/O-Operationen an die Anwendung rückbestätigt werden, sowie längeres Zwischenspeichern im Cache und spätere Weitergabe ("De-Staging") auf die Disk, ohne die Anwendungs-Performance zu beeinträchtigen. Mittlere und große Unternehmen setzen Disaster-Recovery-Vorgaben und Notfallplanungen per Replikation, also asynchroner Spiegelung um. Die Vorgaben der Geschäftsführung, des Kredit- oder Gesetzgebers zur Bereitstellung eines Offline-/Offsite-Datenbestands, lässt sich damit meist effektiver umsetzen als mit klassischen Backup-/Recovery-Methoden. Durch den Einsatz eines Offline-Tertiärspiegels über den Storage Hypervisor lässt sich zudem der Aufwand für die Archivierung auf Band inklusive dazugehörigem Tape- und Cartridge-Management reduzieren. Ganz auf Bandtechnik verzichten sollten Anwender jedoch nicht. Beim Betrieb von mehreren Rechenzentren kann sich Multi-Site-Replikation ("One to Many") als interessant erweisen, deren Implementierung meist speziell zertifizierten Fachleuten obliegt. Dies ermöglicht ein so genanntes Advanced Site Recovery ("Many to One"), also die Wiederherstellung eines zentralen Rechenzentrums aus den Filialen. Der Vorteil von Site Recovery über das blockbasierende SAN besteht in der Plattformunabhängigkeit gegenüber der SAN-Hardware oder von Betriebssystemen und Hypervisorern.   Effizienz durch geräteunabhängiges Auto-Tiering Eine wichtige Komponente für den effizienten Einsatz in der Speicherinfrastruktur bildet die Auto-Tiering-Funktion, da sie Anforderungs-"Hotspots" abfangen kann. Dabei ersetzen wenige SSD- oder PCI-Memory-Karten in den Storage-Servern zahllose Spindeln mit entsprechendem Energiebedarf. Erstere lassen sich im laufenden Betrieb auswechseln ohne das Gesamtsystem anzuhalten. Das System verschiebt nun je nach Priorität Hotspots in den High-I/O-Speicherbereich. Daten, die unterhalb einer bestimmten Access-Rate liegen, werden in einen weniger performanten Bereich geschoben. Das Resultat ist eine außerordentlich effiziente Speichernutzung, wie sie der Administrator von Hand nicht einrichten könnte. Ein universeller Storage Hypervisor integriert darüber hinaus ein Cloud Array Gateway, das die Ausweitung des Auto-Tierings von der Private in die Public Cloud ermöglicht. Die kombinierten Möglichkeiten durch adaptives Caching, Auto-Tiering und synchrones Mirroring, die sich mit Storage-Hypervisor-Technik implementieren lassen, führen zu der gewünschten erstklassigen Performance und der Hochverfügbarkeit, die Unternehmen für Tier-1-Anwendungen benötigen.

Auch die hochverfügbare Speicherarchitektur mit Storage-Hypervisor-Software erfordert eine redundante Architektur. Bild: Datacore
LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lacie

Weitere Artikel zu Fitbit

Weitere Artikel zu camos Software und Beratung GmbH

Weitere Artikel zu HFO Telecom AG

Matchmaker+