Speichervirtualisierung

Trends im Speicherbereich

9. Mai 2007, 23:15 Uhr | Christoph Lange/mw

Technologien für die Speichervirtualisierung etablieren sich in immer mehr Bereichen. Im Trend liegen virtuelle Bandbiliotheken (VTLs), Tiered-Storage-Konzepte sowie die Filesystem-Virtualisierung. Der neueste Trend bei VTLs besteht darin, sie mit einer De-Duplikationslösung zu kombinieren. Diese Technologie kann die zu sichernden Datenmengen deutlich reduzieren, indem sie alle Dateien auf dem Block-Level inspiziert und identische Blöcke nur ein einziges Mal speichert.

Dass eine Virtualisierung von Speichersystemen eine ganze Reihe Vorteile bietet, dürfte den
meisten IT-Verantwortlichen mittlerweile bekannt sein. Zu den wichtigsten Pluspunkten zählt die
bessere Auslastung vorhandener Speichersysteme, wobei sich Disk-Arrays unterschiedlicher Hersteller
in einen gemeinsamen Storage-Pool integrieren lassen. Auch reduziert sich der als Reserve
vorzuhaltende freie Speicherplatz, da er vom zentralen Pool bereit gestellt wird und nicht mehr
jedem einzelnen Server exklusiv zugeteilt werden muss.

Stark im Kommen sind derzeit virtuelle Bandbibliotheken (VTL, Virtual Tape Library), eine
Speziallösung für schnelle Backups und Restores. Dabei handelt es sich um Disk-Arrays, die mithilfe
einer speziellen Software sämtliche Funktionen einer Bandbibliothek emulieren. Dass virtuelle
Bandbibliotheken so erfolgreich sind, liegt vor allem an ihrer Geschwindigkeit. Sie beschleunigen
das Backup deutlich, weil die Daten nicht auf Band, sondern auf ein schnelles Disk-System
geschrieben werden. Noch wichtiger ist der Geschwindigkeitsvorteil bei der Wiederherstellung von
Daten. Diese geht ebenfalls deutlich schneller vonstatten als mit herkömmlichen Tape Libraries.
VTLs integrieren sich zudem nahtlos in die vorhandene Backup-Infrastruktur, da sie sich wie eine
normale Bandbibliothek verhalten.

Virtuelle Bandbibliotheken sind mittlerweile von zahlreichen Herstellern erhältlich. Zu ihnen
zählt zum Beispiel Quantum mit den DX-Systemen sowie der von Quantum übernommene Hersteller ADIC,
der die Pathlight-VX-Familie entwickelt hat. Fujitsu-Siemens hat mit Centric Stor bereits seit
einigen Jahren eine VTL-Lösung im Portfolio, die wie die Pathlight-Systeme von ADIC das Tape-Backup
gleich mit integriert (Disk-to-Disk-to-Tape). Zu den Veteranen von Backup-to-Disk-Lösungen gehört
auch IBM. Die Backup-Lösung IBM Tivoli Storage Manager (TSM) verwendet schon seit langer Zeit einen
Disk-Pool als primäres Speicherziel für die Sicherung von Servern und verschiebt die Daten erst zu
einem späteren Zeitpunkt auf die am TSM-Server angeschlossenen Bandbibliotheken. IBM bietet
zusätzlich auch dedizierte VTLs an, ebenso wie Sun mit der Storagetek Virtual Tape Library. Die
Clariion-Disk-Libraries von EMC basieren auf der VTL-Software von Falconstor. Auch Overland Storage
ist mit den Reo-Systemen in diesem Bereich aktiv. Network Appliance hat im vergangenen Jahr eine
VTL-Lösung auf Basis der FAS3000-Midrange-Plattform vorgestellt.

De-Duplikation spart Speicherplatz

Der neueste Trend bei virtuellen Bandbibliotheken besteht darin, sie mit einer so genannten
De-Duplikationslösung zu kombinieren. Diese Technologie kann die zu sichernden Datenmengen deutlich
reduzieren, indem sie alle Dateien auf dem Block-Level inspiziert und identische Blöcke nur ein
einziges Mal auf dem Backup-System speichert. Zu welchen Dateien ein Block gehört, merkt sich das
System mithilfe von Metadaten. Je nach Beschaffenheit der Daten soll sich das Volumen von
gesicherten Dateien durch De-Duplikation um das zehn- bis fünzigfache reduzieren lassen.

Quantum hat vor kurzem mit den DXi-Systemen eine neue Generation seiner VTL-Lösung vorgestellt,
die eine De-Duplikationstechnik integriert. Dabei handelt es sich um eine In-Line-Appliance, die
die De-Duplizierung bereits während der Datensicherung auf die virtuelle Bandbibliothek durchführt.
Dies hat allerdings zur Folge, dass die Backup-Geschwindigkeit niedriger ist als ohne
De-Duplikation. Um trotzdem eine möglichst hohe Performance zu erreichen, führen die DXi-Systeme
die De-Duplizierung nicht in Echtzeit durch, sondern mit einer leichten Zeitverzögerung. Die zu
sichernden Daten werden zunächst auf dem VTL-System gespeichert und dann in 256-MByte-Blöcke
aufgeteilt. Sobald ein Block länger als 30 Sekunden vorhanden ist, wird er als Kandidat für die
De-Duplizierung markiert und wenig später vom System verarbeitet. Die VTL-Sicherung läuft
währenddessen parallel weiter. Die um einige Sekunden zeitversetzte De-Duplizierung hat den
Vorteil, dass die Sicherungsgeschwindigkeit der VTL relativ konstant ist und nicht stark schwankt,
wie es bei einer De-Duplizierung in Echtzeit der Fall wäre. Noch in diesem Jahr will Quantum ein
weiteres System anbieten, bei dem der Administrator wählen kann, ob die De-Duplikation In-Line
durchgeführt wird oder erst nach Abschluss des Backups.

Zu den Anbietern von In-Line-Lösungen zählt auch Data Domain mit den gleichnamigen
De-Duplikationssystemen. Diligent hat sich ebenfalls auf In-Line-De-Duplikation spezialisiert. Die
Protectier-Familie integriert diese Technologie mit einer leistungsfähigen VTL und richtet sich vor
allem an große Unternehmen. Die Lösung von Diligent wird unter anderem von HDS vermarktet. Auch EMC
ist inzwischen in dieses Marktsegment eingestiegen und hat mit dem Hersteller Avamar das nötige
De-Duplikations-Know-how zugekauft.

Zu den Anbietern von nachgelagerten De-Duplikationslösungen gehört unter anderem Falconstor. Die
neue Technologie wird unter dem Namen Single Instance Repository (SIR) als Add-on für die
VTL-Lösung vermarktet. Die VTL-Lösung von Falconstor wird auch künftig von EMC als Clariion Disk
Library angeboten.

Im Laufe dieses Jahres wird mit Network Appliance ein weiteres Storage-Schwergewicht in den
De-Duplikations-Markt einsteigen. Der Hersteller hat angekündigt, dass die hauseigenen VTL-Systeme
um entsprechende Funktionen erweitert werden sollen. Die neuen De-Duplication-Lösungen ermöglichen
eine starke Reduktion der zu sichernden Datenmengen. Wenn die Technik hält, was die Hersteller
versprechen, dürfte sich eine Investition in derartige Produkte bereits nach kurzer Zeit
rechnen.

Tiered Storage optimiert Kosten

Kostensenkungen sind auch eine wichtige Triebkraft für die Einführung von
Tiered-Storage-Lösungen, die sich mit den neuen seriellen Übertragungstechnologien SAS und SATA
sehr einfach implementieren lassen. Sie bieten eine deutlich höhere Flexibilität als die parallele
SCSI-Technik, die hinsichtlich der maximalen Übertragungsraten ausgereizt ist. Ein großer Vorteil
der seriellen Protokolle besteht darin, dass sich an demselben Storage-Controller sowohl SAS- als
auch SATA-Platten betreiben lassen. Einige Hersteller unterstützen sogar einen Mischbetrieb mit
beiden Festplattentypen.

Damit lassen sich auf einfache Weise Speicherhierarchien mit zwei Ebenen aufbauen: der
Administrator kann kostengünstige SATA-Platten für Daten mit geringeren Perfomance-Anforderungen
und SAS-Platten für leistungshungrige Anwendungen in einem Speichersystem parallel betreiben.
Einige Hersteller bieten derartige Systeme gemeinsam mit einer Virtualisierungslösung an. Dadurch
wird es zum Beispiel möglich, Daten im laufenden Betrieb ohne Unterbrechung von einem SAS- auf ein
SATA-Volume zu verschieben. Der umgekehrte Weg ist ebenfalls möglich.

Dass sich die klassische Speichervirtualisierung noch nicht auf breiter Front durchsetzen
konnte, liegt vor allem daran, dass es bislang für diesen Bereich keine gemeinsamen Standards gibt.
Mit der Verabschiedung der Storage Management Initiative Specification (SMI-S) für die Verwaltung
von Speichersystemen hat die Storage Networking Industry Association (SNIA) einen wichtigen Schritt
vollzogen, damit derartige Lösungen künftig bereitwilliger eingesetzt werden.

Neben einer besseren Auslastung der vorhandenen Speicherressourcen ist die Integ-ration
unterschiedlicher Protokolle wie Fibre Channel (FC), iSCSI (Internet SCSI over IP) oder NAS (NFS
beziehungsweise CIFS) ein weiterer Vorteil von Virtualisierungslösungen. Zudem lassen sich dank der
Virtualisierung Funktionen wie Snapshots, Clones, Spiegelung, Replikation, LAN- oder Server-free
Backup, HSM sowie Datenmigrations-Tools von Speichersystemen unterschiedlicher Hersteller
nutzen.

Lösungen für die Speichervirtualisierung arbeiten entweder In-Band oder Out-of-Band. Bei
In-Band-Lösungen sitzt die Virtualisierungs-Appliance direkt im Datenpfad zwischen den
Speichersystemen und den Servern. Dies hat den Vorteil, dass auf den Speichersystemen und Servern
keine Agenten nötig sind. Allerdings kann die Virtualisierungs-Box bei sehr hohen
Performance-Anforderungen zum Flaschenhals werden, da alle I/O-Operationen (Input/Output) über sie
laufen müssen.

Out-of-Band-Lösungen haben den Vorteil, dass die Appliances nicht im Datenpfad sitzen. Sie
verwalten lediglich die Metadaten und steuern die I/O-Operationen, indem sie entweder mit Agenten
kommunizieren oder den I/O-Traffic über die SAN-Switches kontrollieren. Dadurch bieten sie eine
sehr gute Skalierbarkeit. Zu den bekanntesten Vertretern dieser Kategorie zählen EMC mit der
Virtualisierungslösung Invista, die sich in SAN-Switches integriert, sowie das mittlerweile von LSI
übernommene Unternehmen Storeage mit dem Storage Virtualization Manager (SVM). Invista ist für
SAN-Switches von Brocade/McData und Cisco erhältlich. Die Lösung unterstützt neben dem Volume
Management unter anderem ein Cloning für Datenmigrationen und Remote Replication. Die von Storeage
entwickelte SVM-Lösung wird unter anderem von Computer Associates in Kombination mit den
CA-Brightstor-Produkten für das Speicher- und Datenmanagement angeboten. Eine integrierte Lösung
ist auch von Qlogic erhältlich. Qlogic vermarktet den SVM zusammen mit einer durch die Übernahme
von Troika Ende 2005 zugekauften Speichernetz-Appliance. Die Besonderheit der SVM-Lösung von Qlogic
besteht darin, dass auf den Servern keine Agenten mehr nötig sind.

Von den Unternehmen, die bereits eine Speichervirtualisierung eingeführt haben, setzt bislang
die Mehrheit In-Band-Lösungen ein. Der erfolgreichste Anbieter ist IBM mit dem SAN Volume
Controller (SVC). Die Virtualisierungssoftware läuft auf einer geclusterten Linux-Plattform, die
sich durch Hinzufügen weiterer Appliances gut skalieren lässt. Spezialisierte Anbieter wie Datacore
und Falconstor stellen ebenfalls bereits seit Jahren die Praxistauglichkeit ihrer In-Band-Produkte
für die Speichervirtualisierung unter Beweis. Neben dem FC-Protokoll unterstützten diese beiden
Hersteller auch eine Virtualisierung von iSCSI-Speichersystemen. Hitachi Data Systems (HDS) hat bei
der Speichervirtualisierung einen dritten Weg eingeschlagen und scheint damit durchaus erfolgreich
zu sein. Die von HDS entwickelte Unified Storage Platform (USP) integriert die
Virtualisierungslösung direkt ins Speichersystem. Mit USP lassen sich die Speicherressourcen von
Disk-Arrays anderer Hersteller als so genannte Externe LUNs einbinden. Dadurch können alle
Funktionen wie Snapshots, Replikation oder Shadow Copy auch mit Speichersystemen von Drittanbietern
genutzt werden. Im Highend-Bereich umfasst USP die Tagmastor-Systeme von HDS. Dieselben Funktionen
sind mit dem NSC 55 auch für den Midrange-Bereich erhältlich. Um die Verwaltung großer
Speichernetze zu vereinfachen, bieten mehrere Hersteller virtuelle File-Systeme an. Zu ihnen zählt
Brocade mit StorageX. Das Produkt stellt einen globalen Namensraum zur Verfügung und kann dadurch
Dateien von unterschiedlichen Speicher- und Serverplattformen in einem einzigen logischen
Daten-Pool zusammenfassen. Brocade hat für diese neuen Technologien den Begriff File Area Network
(FAN) geprägt.

Network Appliance vermarktet die Stor-ageX-Lösung als Virtual File Manager (VFM). Die Software
ist auch für die Migration großer Datenbestände ein hilfreiches Werkzeug. EMC hat bereits vor
einiger Zeit mit Rainfinity einen Anbieter übernommen, der eine ähnliche Lösung für die
Virtualisierung von Dateien in verteilten Netzwerken entwickelt hat. Aber auch neue Unternehmen wie
beispielsweise Acopia versuchen, sich in diesem Marktsegment zu etablieren. Bei der
File-Virtualisierung ARX von Acopia handelt es sich um eine In-Band-Lösung, die den NFS- und
CIFS-Protokollen einen virtuellen Namensraum überstülpt. Dadurch lassen sich die Dateizugriffe der
Clients von der physikalischen Hardware trennen, ohne dass auf den Clients Agenten benötigt
werden.

Auch der von Quantum übernommene Hersteller ADIC hat mit Stornext ein Metafilesystem im
Portfolio, das unterschiedliche Filesysteme zu einem gemeinsamen Repository zusammenfassen kann.
Vor kurzem hat Quantum eine neue Version von Stornext mit integrierter De-Duplikation vorgestellt.
Unternehmen können die De-Duplikation dadurch nicht nur mit einer VTL nutzen, sondern auch
unabhängig davon auf Filesystem-Ebene einsetzen.

Durch das unverändert starke Datenwachstum sind Unternehmen gezwungen, ihre Speicherkapazitäten
laufend auszubauen. Am wirtschaftlichsten sind unter diesem Aspekt Speicherlösungen, die sich ohne
großen Aufwand erweitern lassen. So bietet zum Beispiel Pillar Data Systems mit seinen
Axiom-Systemen eine Tiered-Storage-Lösung an, die durch ihre einfache Speicherverwaltung die
Gesamtkosten senken soll. 3PAR setzt mit seinen Lösungen für Utility Storage auf ein Thin
Provisioning, dem eine vernetzte Mesh-Architektur aus mehreren Speichersystemen zugrunde liegt.
Laut Anbieter sollen sich damit die Gesamtkosten für die Datenspeicherung um 50 Prozent reduzieren
lassen, die Kosten für Kapazitätserweiterungen sogar um bis zu 75 Prozent.

Grid Computing

Ein anderer Ansatz, Speicherressourcen möglichst effizient bereit zu stellen, ist das so
genannte Grid Computing. HP hat mit RISS eine Grid-Lösung entwickelt, bei der die einzelnen
Storage-Zellen je nach Bedarf unterschiedliche Aufgaben übernehmen können. Zum Beispiel arbeitet
eine bestimmte Zelle eine Weile als Fileserver und wird dann als Archivserver eingesetzt. Sun ist
mit Server-Grids bereits seit einiger Zeit sehr aktiv. Im Speicherbereich entwickelt Sun unter dem
Namen Honeycomb ein Storage-Grid, das eine große Zahl an Storage-Nodes zu einem Gesamtsystem
zusammenschaltet. Die Daten werden dabei mithilfe des so genannten Distributed Data Placement über
die verschiedenen Nodes verteilt, wodurch eine hohe Performance möglich wird. Kapazität und
Leistung lassen sich durch Hinzufügen weiterer Stor-age-Nodes, die das System automatisch erkennt,
sehr einfach skalieren. Auch bei IBM sind Storage-Grid-Services im Aufbau, wobei dies im Rahmen des
On-Demand-Computings erfolgt, das die benötigten Rechenleistungen und Speicherressourcen nach
Bedarf bereit stellt. Dies ist sicher ein interessantes Angebot, weil Unternehmen nur für die
Kapazitäten bezahlen, die sie tatsächlich nutzen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+