Hyper-Storage-Architekturen

Von der Hardware entkoppelt

20. Oktober 2017, 7:00 Uhr | Berthold Höflich und Re’em Hazan

Bei Hyper-Storage handelt es sich um eine intelligente Softwarearchitektur, die hardwarebedingte Einschränkungen aufhebt. Sie ist das Gegenteil einer stark hardwareorientierten Architektur, die versucht, softwarebedingte Einschränkungen zu lösen.

Ein solches Highend-System mit extrem hoher Speicherdichte und unendlicher Skalierbarkeit baut auf kostengünstiger, hochqualifizierter Hardware in Verbindung mit einer Architektur mit logischen Schutzgruppen auf, die Laufwerke jeder Größe ohne Kompromisse bei der Wiederherstellungszeit und der Performance unterstützt.

Als äußerst leistungsfähige Lösung im Multi-Petabyte-Bereich vereint Hyper-Storage-Technologie sehr hohe IOPS, sehr hohen Durchsatz und sehr kurze Antwortzeiten. Das Konzept beruht nicht auf reiner Leistung, sondern auf Intelligenz: optimierte parallele Verwendung statt unnötiger teurer Hardware, maschinelles Lernen statt Annahmen und Verschwendung wichtiger Ressourcen und Nutzung der Vorteile aller Komponenten unter Vermeidung ihrer Schwachstellen. Die Welt bewegt sich schnell in Richtung Datenanalytik und maschinelles Lernen in allen Einsatzszenarien zu - das gilt auch für die Speichertechnologie. Schließlich muss man jede einzelne E/A-Operation erkennen, dokumentieren, analysieren und auswerten, um die nächste, übernächste und über-übernächste zu verbessern.

Die Analyse und Verbesserung von E/A-Mustern aller Art ist die Basis für das Lernen der Speichermaschinen. Die erste Stufe dieser Technologie ist es, diesen automatisierten Mechanismus in jedes System zu integrieren, um die damit ausgeführten Workload-Muster zu erlernen und den Service im Laufe der Zeit erheblich zu verbessern.

Die zweite und interessanteste Stufe besteht darin, alle diese Muster aus allen weltweiten Systemen zu übernehmen, sie an einem einzigen Ort zu kombinieren und aus ihnen zu lernen. Damit lassen sich Algorithmen für das maschinelle Lernen konstant verbessern und optimieren. Messen und Analysieren der erfolgreichen und erfolglosen Cache-Zugriffe, Erlernen und Verändern der Methoden der Datenablage, Verbesserung der Prefetch-Mechanismen durch Erlernen ihrer Effektivität und Neuorganisation der Daten zur Verbesserung der Zugriffe - diese und viele andere erlernbare E/A-Muster werden jetzt zur Umsetzung grenzenloser Verbesserungen genutzt. Durch den gezielten Einsatz jedes dieser Muster und die Verwendung des jeweils am besten geeigneten Services kann diese intelligente Architektur die verschiedensten E/A-Muster unabhängig von ihrem Einsatzort im selben System abdecken. So lassen sich viele verschiedene Arten von Workloads gemeinsam auf ein und derselben Plattform einsetzen und jeweils gemäß ihren Anforderungen bedienen.

Maximale Performance und Verfügbarkeit

Hyper-Storage nutzt zahlreiche andere Technologien, um die Performance und Verfügbarkeit zu maximieren. Das Konzept physischer RAID-Gruppen ist eigentlich längst Vergangenheit, trotzdem wird es aus von vielen Speicheranbietern noch verwendet. Dies ist aber zumindest ineffizient und führt zu einer Kopplung zwischen Software und Hardware, die grundlos wenig flexibel ist. Denn bei jedem Ausfall eines Laufwerks werden langwierige Wiederaufbauprozesse gestartet, die drastische Auswirkungen auf die Performance haben und Systeme anfällig für Datenverluste machen. Denn die Kopplung logischer Einheiten wie LUNs und FSs mit bestimmten Hardwarekomponenten bedeutet Einschränkungen. Der Hyper-Storage-Mechanismus erzeugt dagegen eine große Anzahl logischer Schutzgruppen auf Blockebene, die vollständig von der Hardware entkoppelt sind. Dies führt zu leistungsfähigen Prozessen, die sich in einer Massen-Parallelitätskonfiguration auf allen Komponenten gleichzeitig und vollkommen ausbalanciert ausführen lassen. Außerdem stehen wesentlich schnellere datensensitive Wiederherstellungsprozesse bereit, die keine Auswirkung auf die Produktivleistung haben.

Mehrfache Redundanz

Redundanz ist ein weiteres Argument für Hyper-Storage. Der "Kein Single Point of Failure"-Standard ist veraltet und eine "Five Nines"-Verfügbarkeit ist nicht genug, wenn Systeme immer größer werden und der Wirkungsradius jedes Systems in der Größenordnung mehrerer Petabyte liegt. Sind Systeme nicht verfügbar, hat dies erhebliche und nicht mehr akzeptable Folgen. Deshalb bietet Hyper-Storage für jede einzelne Komponente ausnahmslos eine mehrfache Redundanz. Damit bleibt das System auch bei Ausfällen vollständig redundant.

Schutzgrad N+2 im gesamten Datenpfad und im gesamten Stromversorgungspfad ist die grundlegende Architektur, die für mehrfache Redundanz erforderlich ist. Ein noch viel höherer Schutz ist für Komponenten erforderlich, die üblicherweise ab und zu ausfallen, wie beispielsweise Plattenlaufwerke. Durch Entkopplung der Software von der Hardware durch Virtualisierungsschichten und durch Verwendung virtualisierter Reservekapazitäten anstelle physischer Reservelaufwerke können in Systemen sogar Dutzende von beliebigen Laufwerken ausfallen, bevor es erforderlich wird, diese zu ersetzen. Beim Ausfall eines oder mehrerer Laufwerke wird automatisch ein Selbstheilprozess unter Verwendung aller aktiven Laufwerke angestoßen. Nach wenigen Minuten sind die Daten auf allen aktiven Laufwerken vollständig, ausgeglichen und mit vollem Paritätsschutz rekonstruiert.

LL11S04_infinibox
Durch Lieferung der Software zusammen mit einer durchgetesteten, qualifizierten und integrierten Hardware-Referenzplattform ist Hyper-Storage eine softwaredefinierte Speichertechnologie der Enterprise-Klasse. Bild: Infinidat

Ein weiteres für Systeme im Multi-PByte-Bereich erforderliches Merkmal ist der CRC-Schutz. Beim Schreiben so enormer Datenmengen kommen logische Datenfehler einfach vor. Die Hyper-Storage-Technik, die für sich in Anspruch nimmt, dass sie eine mindestens 100-mal höhere Verfügbarkeit und Zuverlässigkeit bietet als alle herkömmlichen Speichersysteme, löst auch dieses Problem transparent: Sie behebt diese Datenverfälschungen im laufenden Betrieb, ohne dass Anwender die Fehler überhaupt bemerken. Dies sind nur einige der "eingebauten" Features der Hyper-Storage-Architektur zur Sicherstellung der Fehlertoleranz, Verfügbarkeit, Wartbarkeit und Datenintegrität.

Hohe Bedienungsfreundlichkeit

Hyper-Storage ordnet die Speicherkapazität zu externen Einrichtungen folgendermaßen: Die Frontend-Seite ist vollständig virtuell, und es wird kein einziger physischer Block formatiert oder dem bereitgestellten oder exportierten Adressraum fest zugeordnet. Der für den Nutzer sichtbare Bereich ist ein "dünn" bereitgestellter Adressraum, der durch die Virtualisierungsschichten von der Hardwareschicht getrennt ist. Daher kann der virtuelle Raum zehn, 100 oder 1.000 mal größer sein als der physische Raum. Diese Topologie bietet hohe Flexibilität, Massenparallelität, Auto-Balancing und eine umfangreiche datensensitive Funktionalität. Ein weiterer Vorteil auf Grundlage dieser Topologie sind die durchgehend sofortigen Abläufe. Jedes Erstellen, Löschen und Ändern einer Einheit wird augenblicklich durchgeführt, wobei nur Zeiger zwischen diesen Virtualisierungsschichten erzeugt und neu ausgerichtet werden. Dasselbe gilt für Datenkopien. Es lassen sich praktisch unendlich viele Datenkopien mit sofortiger Wirkung, mit jedem Detaillierungsgrad und der benötigten Aufbewahrungsvorschrift (Retention Policy) erstellen, löschen, klonen, zuweisen, neu zuweisen, aktualisieren und wiederherstellen. Auch wenn sich mit Hyper-Storage alle Operationen sofort durchführen lassen, dauern sie nur noch einen Sekundenbruchteil - unabhängig davon, ob man sie an einzelnen, mehreren oder sehr vielen Einheiten auf einmal durchführt.

Durch die Verwaltung dieser Virtualisierungsschichten aus dem DRAM lassen sich dabei Operationen mit Latenzzeiten im Mikrosekundenbereich durchführen - ohne jede Auswirkung auf die vom System bedienten E/A-Zugriffe. Diese Fähigkeiten und viele andere Automatisierungsprozesse zur Optimierung aller Management-Operationen sorgen für höchste Bedienungsfreundlichkeit bei der Verwaltung von Datenmengen im TByte-, PByte- oder gar EByte-Bereich.

Berthold Höflich und Re’em Hazan sind Sales Director Germany (DACH) und Technical Sales Director bei Infinidat, www.infinidat.com.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+