Backup- und Archivierungslösungen

Viele Wege führen zum Ziel

16. Dezember 2005, 0:16 Uhr | Christoph Lange/mw

Der Markt für Backup- und Archivierungslösungen ist in Bewegung. Veränderte Paradigmen und neue technische Ansätze fordern die Anbieter klassischer Produkte heraus. Diese reagieren darauf, indem sie ihre Lösungen um entsprechende Funktionen erweitern.

Bei der Wahl der richtigen Backup- und Archivierungslösung für ein Unternehmen ist zunächst zu
klären, welchen Anforderungen sie gerecht werden soll. Für die tägliche Datensicherung spielt eine
wichtige Rolle, wie groß das zur Verfügung stehende Backup-Zeitfenster ist. Reicht es nicht aus, um
das zu sichernde Datenvolumen auf Band zu schreiben, müssen entweder schnellere Bandtechnologien
oder Backup-to-Disk-Lösungen eingesetzt werden. Eine weitere Alternative wäre, das Backup-Volumen
zu reduzieren, indem Daten archiviert werden (siehe unten). Der Zugriff auf die archivierten Daten
ist dann nach wie vor möglich, dauert aber je nach eingesetzter Speichertechnologie deutlich
länger.

Der Zeitfaktor ist auch beim Restore der entscheidende Punkt. Erfahrungsgemäß dauert das
Zurücksichern einer gegebenen Datenmenge deutlich länger als das Backup, weil die Dateien an
unterschiedlichen Stellen des Bandes gespeichert sind oder von unterschiedlichen Bändern
zurückgeschrieben werden müssen. Ein Unternehmen sollte deshalb zunächst festlegen, wie schnell die
Daten nach einem Verlust wieder zur Verfügung stehen müssen. Wenn die Wiederherstellung bis zu
einen Tag dauern darf, dürfte das herkömmliche Restore von Band in der Regel ausreichen. Liegt die
Anforderung dagegen bei maximal einer Stunde, müssen für eine Rücksicherung von größeren
Datenmengen leistungsfähigere Techniken eingesetzt werden.

So versprechen Backup-to-Disk-Lösungen deutlich schnellere Wiederherstellungszeiten,
insbesondere wenn so genannte Virtual Tape Libraries (VTL) zum Einsatz kommen. Diese Systeme
emulieren eine Tape Library mit Bandlaufwerken und schreiben die zu sichernden Daten linear auf
Festplatte. Dadurch und aufgrund der schnelleren Festplattenzugriffe sind die Restore-Zeiten
deutlich kürzer als bei der Wiederherstellung von echten Bandbibliotheken. Allerdings sind
derartige Lösungen mit Einstiegspreisen von 50.000 bis 100.000 Euro bislang noch relativ
kostspielig.

Disaster Recovery

Über das Ausfallthema sollten IT-Abteilungen gründlich nachdenken und eine Di-
saster-Recovery-Strategie entwickeln, die den von der Geschäftsführung definierten maximalen
Ausfallzeiten gerecht wird. Denn um einen aufgrund von Software- oder Hardwarefehlern ausgefallenen
Server wiederherzustellen, sind spezielle Mechanismen erforderlich. Zwar lässt sich dies
prinzipiell auch mithilfe des normalen Backups bewerkstelligen, vorausgesetzt, die
Systemeinstellungen wurden mitgesichert. Das Restore von Band dauert aber meist sehr lange.

Wenn kürzere Wiederherstellungszeiten gefordert sind, müssen andere Methoden gewählt werden.
Eine Möglichkeit wäre zum Beispiel, eine Software wie Live State Recovery von Symantec einzusetzen,
die von allen Servern regelmäßig Images der Systempartition erstellt. Prinzipiell lassen sich mit
diesem Produkt auch die Datenpartitionen per Image-Backup sichern. Mithilfe eines Image-Browsers
können Anwender auch einzelne Dateien oder Verzeichnisse zurücksichern. Hersteller wie Cristie Data
Products bieten zudem Speziallösungen für ein so genanntes Bare-Metal-Recovery an, durch das sich
Server "from the scratch" schnell wiederherstellen lassen. Die meisten etablierten Anbieter von
Backup-Lösungen bieten diese Funktionalität auch als kostenpflichtige Zusatzoption für ihre
Sicherungssoftware an.

Auswahlkriterien für Backup-Lösungen

Um die passende Datensicherungslösung zu finden, sollten vor allem die unterstützten Funktionen
und Plattformen evaluiert werden. Eine Backup-to-Disk-Option (B-to-D) ist inzwischen in den meisten
Produkten integriert. Es gilt allerdings, genau hinzuschauen, wie sie implementiert wurde. Ein
wichtiger Punkt ist, ob das Backup auf dem langsameren File-Level oder auf dem schnelleren
Block-Level ausgeführt wird. Bei Image- oder Snapshot- Backups sollte zudem darauf geachtet werden,
dass sich nicht nur komplette Partitionen, sondern auch einzelne Dateien und Verzeichnisse
wiederherstellen lassen. Unterstützt die Backup-Software Online-Snapshots, können sogar Datenbanken
oder Exchange-Server im laufenden Betrieb gesichert werden.

Syncsort hat mit dem Advanced Protection Manager eine Lösung entwickelt, die anhand von einmal
erstellten Snapshots und darauffolgenden inkrementellen Sicherungen ein synthetisches Voll-Backup
erstellen kann. Das Produkt ist bislang nur für Netapp-Filer erhältlich, eine Version für andere
Plattformen ist für 2006 geplant.

Der Backup-Spezialist Bakbone hat in sein Netvault-Produkt sowohl eine B-to-D- als auch eine
VTL-Lösung integriert. Mit Brightstor Arcserve 11.5 von Computer Associates (CA) lassen sich
Snapshots jetzt nicht mehr nur von kompletten Volumes erstellen, sondern auch inkrementell und
differenziell. Die Smart-Restore-Funktion von Arcserve sorgt dafür, dass das Band bei einem Fehler
nicht mehr stehen bleibt, sondern das Restore fortgeführt wird.

Eine Disaster-Recovery-Option ist wie bereits erwähnt von den meisten Backup-Anbietern
erhältlich. Microsoft hat mit dem Data Protection Manager 2006 für Windows 2003 eine Disk-basierte
Backup- und Recovery-Lösung entwickelt. Das System erstellt Block-Level-Snapshots und kann damit
nicht nur Dateien und Verzeichnisse, sondern auch komplette Server wiederherstellen. Der
Administrator legt fest, in welchen Abständen die Daten repliziert werden und wie viele Versionen
das System speichert. Verloren gegangene Daten können die Anwender selbst wieder zurückholen. Noch
einen Schritt weiter geht Veritas Backup Exec 10d von Symantec: Der integrierte Continuous Data
Protection Server schreibt alle Änderungen an Dateien sofort mit, wodurch überhaupt kein
Backup-Zeitfenster mehr erforderlich ist. Zudem ist das Produkt in der Lage, verlorene Dateien über
ein Web-Interface wiederherzustellen.

Bezüglich der Unterstützung von Speichernetzen sollten Unternehmen darauf achten, dass die ins
Auge gefasste Backup-Lösung sowohl NDMP (Network Data Management Protocol) unterstützt als auch die
Techniken für eine effiziente Datensicherung in Fibre-Channel-SANs wie LAN-und Server-free
Backup.

Für kleine Unternehmen, die nur sehr wenige Rechner sichern müssen, bieten immer mehr Hersteller
Backup-to-Disk-Produkte auf Basis von USB-2.0-Festplatten an. Von der Kingston-Tochter Storcase ist
zum Beispiel mit Data Express External DE50 eine Lösung erhältlich, die zusammen mit dem
Backup-Tool Retrospect von EMC/Dantz ausgeliefert wird. Vergleichbare Produkte sind mittlerweile
auch bei Saturn oder im Media Markt erhältlich. Damit lassen sich in sehr kleinen Netzen die
Geschäftsdaten für wenig Geld automatisiert sichern.

Sicherung von PCs, mobilen Geräten und Filialen

Der Schutz der auf PCs, Notebooks und mobilen Geräten gespeicherten Geschäftsdaten wird immer
noch von vielen Unternehmen vernachlässigt. Die meisten Backup-Anbieter haben bereits seit einiger
Zeit Lösungen im Programm, die auf die Sicherung mobiler Devices spezialisiert sind und das Backup
automatisch starten, sobald ein Notebook oder PDA wieder mit dem Firmennetz verbunden wurde.

Ein anderer Ansatz, der zum Beispiel mit der Backup-Software von Connected/Iron Mountain möglich
ist, die unter anderem von T-Systems eingesetzt wird: Unternehmen nutzen einen Dienstleister, um
die Daten über das Internet in das Rechenzentrum des Providers zu sichern.

Für das Backup der in Filialen gespeicherten Daten sind ebenfalls Speziallösungen erhältlich.
Zum einen lassen sie sich mithilfe von Replikationslösungen wie EMC/Legato Replistor oder Microsoft
Data Protection Manager 2006 an den Hauptsitz übertragen und dort sichern. Zum anderen sind von
verschiedenen Anbietern Appliances für Wide-Area-File-Services erhältlich, die von der Filiale aus
einen direkten Dateizugriff auf die Server im zentralen Rechenzentrum ermöglichen. Dadurch sind in
den Filialen weder eigene Server noch Backup-Systeme nötig.

ILM und Tiered Storage

Um die nach wie vor stark wachsenden Datenmengen besser in den Griff zu bekommen, hat sich
bereits seit einiger Zeit das so genannte Information Lifecycle Management (ILM) als neues
Paradigma etabliert. Die Kernaussage dieses Ansatzes lautet: Daten sollen nach ihrem Lebenszyklus
behandelt werden, wobei sich ihre Wertigkeit im Lauf der Zeit ändert. Für die Speicherverwaltung
bedeutet dies, dass Daten je nach Lebenszyklus automatisch auf unterschiedlichen Medien gespeichert
werden. Das klassische Beispiel: geschäftskritische Daten liegen auf Highend-Disk-Systemen
(Onlinespeicher), weniger kritische auf kostengünstigeren Serial-ATA-Festplattenspeichern
(Nearline-Speicher), und die nicht mehr im Sofortzugriff benötigten Daten wandern ins Archiv auf
Bandbibliotheken oder optische Libraries (Offlinespeicher). Eine derartige ILM-Architektur wird
auch Tiered Storage genannt.

HSM als Ordnungshüter

Um die Daten in einer Tiered-Storage-Infrastruktur automatisch von einer Ebene auf die nächste
migrieren zu können, sind so genannte HSM-Lösungen (Hierarchical Storage Management) erforderlich.
HSM-Produkte gibt es schon seit vielen Jahren, sie führten allerdings bislang ein Nischendasein.
Durch den ILM-Hype stehen sie jetzt wieder stärker im Rampenlicht.

Das größte Problem von ILM besteht nach wie vor darin, dass die Daten bereits bei ihrer
Entstehung klassifiziert werden müssen. Dies ist die Voraussetzung, damit die HSM-Software sie nach
der für die jeweilige Datenart definierten Zeitspanne automatisch auf kostengünstigere Medien
verschieben beziehungsweise löschen kann. Entsprechend hoch ist der Anfangsaufwand bei der
Implementierung einer ILM-Strategie. Für strukturierte Informationen wie sie zum Beispiel in
Datenbanken vorliegen, ist dies noch relativ einfach zu bewerkstelligen. Sehr viel schwieriger wird
dieses Unterfangen bei unstrukturierten Daten wie E-Mails, Word-Dokumenten, Excel- oder
HTML-Dateien. Eine schlüssige Lösung für dieses Problem können die Hersteller bislang nicht
anbieten.

Am erfolgversprechendsten erscheint derzeit der Ansatz, die bislang auf Fileservern
gespeicherten Verzeichnisstrukturen möglichst vollständig in ein Dokumenten- oder
Content-Management-System (DMS, CMS) zu integrieren. Die dadurch vorgegebenen Kategorisierungen
lassen sich relativ einfach mit den gewünschten HSM-Richtlinien verbinden. Eine Datei würde dann
jeweils so behandelt, wie es die HSM-Policy für die jeweilige Dokumentkategorie vorschreibt. Auch
die bislang unstrukturierten Daten würden durch eine DMS-Lösung kategorisiert und damit einfacher
handhabbar.

HSM-Lösungen sind von verschiedenen Anbietern erhältlich. So bieten Hersteller von
Bandbibliotheken wie Storagetek oder Adic ihren Kunden entsprechende HSM- und Archivierungsprodukte
an. Computer Associates hat in die neue Brightstor-Version 11.5 ebenfalls eine HSM-Option
integriert. Das Tool arbeitet eng mit der Backup-Software Arcserve 11.5 zusammen. Auch Commvault
bietet für die Backup-Lösung Galaxy mit dem Qinetix Data Migrator ein HSM-Produkt an, das sowohl
Fileserver-Daten als auch E-Mail-Attachments automatisch auf kostengünstigere Speichersysteme
verschieben kann. Die Enterprise-Lösungen von IBM/Tivoli, EMC/Legato, Hewlett-Packard,
Symantec/Veritas und einigen anderen Herstellen bieten ebenfalls derartige Funktionen. Sie
entlasten die Speichersysteme, indem E-Mail-Attachments für das ganze Unternehmen nur einmal
zentral gespeichert und gesichert werden.

Backup und Archivierung

Die Grenzen zwischen Backup und Archivierung verschwimmen in vielen Unternehmen zusehends, weil
das Tape-Backup immer häufiger gleichzeitig auch als Langzeitarchiv genutzt wird. Eine Ausnahme
bilden optische Speichersysteme, die in der Regel ausschließlich für die Archivierung angeschafft
wurden.

Um die gesetzlichen Vorschriften zur elektronischen Archivierung einzuhalten, müssen
Speichersysteme nach der so genannten WORM-Methode (Write Once Read Many) arbeiten. Sie stellt
sicher, dass einmal geschriebene Daten nicht mehr nachträglich verändert werden können.

Die WORM-Technologie ist mittlerweile sowohl für die meisten Bandlaufwerke als auch für
Archivierungs-Disk-Systeme zum Beispiel von EMC oder Network Appli- ance erhältlich. Bei den Tape
Drives hat Quantum mit DLT ice eine WORM-Lösung entwickelt, die herkömmliche DLT-Medien mit einer
speziellen Servo-Spur versieht und so sicherstellt, dass die Daten nicht mehr gelöscht werden
können. Andere Hersteller bieten Bandlaufwerke an, die nur auf WORM-Medien schreiben können.

Optische Archivierungslösungen

Gegenüber Tape- und Disk-Lösungen bieten optische Archivierungssysteme den Vorteil, dass weder
beim Schreiben noch beim Lesen ein mechanischer Kontakt zwischen dem Schreib-Lese-Kopf und dem
Medium stattfindet. Bandlaufwerke und Festplatten kämpfen dagegen mit Verschleißerscheinungen, die
über kurz oder lang dazu führen, dass sich die gespeicherten Daten nicht mehr lesen lassen. Deshalb
ist bei einer Langzeitarchivierung alle paar Jahre eine kostspielige Migration auf neue Medien
beziehungsweise Speichersysteme erforderlich.

Optische Medien werden durch die neue Blue-Laser-Technologie, die höhere Schreibdichten
ermöglicht, in den nächsten Jahren große Kapazitätssprünge machen. Die PDD von Sony (Professional
Disc for Data) bietet bereits heute 23 GByte, im nächsten Jahr sollen es 50 GByte sein und 2007
dann 100 GByte. Ein vergleichbares Potenzial hat auch die UDO-Technologie (Ultra Density Optical),
die heute mit beidseitigen Medien bereits 30 GByte beschreiben kann. Die schon seit längerem
erhältlichen DVD- und MO-Libraries können pro Scheibe gut 9 GByte Daten speichern.

Ausblick

Für die Langzeitarchivierung von großen Datenmengen, für die ein Nearline-Zugriff nötig ist,
werden optische Bibliotheken auch künftig eine wichtige Rolle spielen. Die Archivierung der im
Unternehmen anfallenden Geschäftsdaten wird dagegen zunehmend durch Bandbibliotheken erfolgen, da
sich die Sicherung auf Band in den kommenden Jahren immer stärker von einer Backup- zu einer
Archivierungslösung wandeln wird. Die nächsten Bandlaufwerkgenerationen werden deshalb vor allem
höhere Kapazitäten liefern, der Geschwindigkeitsaspekt tritt in den Hintergrund. Als schnelle
Backup- und Restore-Lösungen dürften sich dagegen Disk-to-Disk-Systeme bereits in absehbarer Zeit
sowohl in größeren als auch in kleineren Unternehmen etablieren.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+