Techniktrends bei Backup und Archivierung

Fast für die Ewigkeit: Daten auf Tape und Disk

2. November 2005, 0:06 Uhr | Hagen Wolfstetter/jos Hagen Wolfstetter ist Mitglied der Geschäftsleitung von LSK Storage. Fragen zu diesem Artikel beantwortet er gerne unter hwolfstetter@lskstorage.de.

Bei Datensicherung und Archivierung kommt es gleichermaßen auf das richtige Konzept und die passende Technik an. Doch selbst wenn für den Moment alles perfekt funktioniert, kann eine auf womöglich Jahrzehnte ausgelegte Strategie zusätzliche Fragen aufwerfen. Die Thematik lässt sich unter dem Schlagwort "Business Continuity" einordnen, was für einen reibungslosen Geschäftsbetrieb steht und wegen des langen Zeitraums eine hohe Priorität haben sollte.

In der Datensicherung ist das Backup der lange Weg – und das schnelle Recovery das Ziel.
Gleiches gilt für die Archivierung: Das Auslagern von Daten ist das notwendige Übel, das
Wiederfinden bei Bedarf das eigentliche Ziel. Backup-Fenster minimal zu halten, ein schnelles
Restore zu ermöglichen oder auf archivierte Daten umgehend zugreifen zu können: All dies sind
wiederkehrende Anforderungen an die IT von heute. Die gesamte Thematik lässt sich gut unter dem
Schlagwort "Business Continuity" einordnen, was für einen reibungslosen Geschäftsbetrieb steht und
oberste Priorität haben sollte.

Beim Backup und bei der Archivierung werden mehrere Trends deutlich, teilweise sogar so
signifikant, dass sich kaum jemand entziehen kann. Dies gilt zum Beispiel für das anhaltende
Datenwachstum, einer regelrechten Explosion. Heute ist der Umgang mit GByte-Mengen Standard, im
professionellen Umfeld gar TByte, und Petabyte steht gewissermaßen vor der IT-Tür. Eine Konsequenz
dieser Entwicklung ist es, das Backup nicht mehr direkt auf Bänder zu schreiben. Das so genannte
Backup to Disk lässt sich unkompliziert und kostengünstig mit handelsüblichen S-ATAPlatten
realisieren. GByte-Netzwerkkomponenten sind erschwinglicher Standard. Auch iSCSI-Systeme lassen
sich in bestehenden Netzen leicht auch für Backup und Archivierung bereitstellen.

Viele Unternehmen setzen Backup to Disk bereits heute ein. Die Tendenz ist offenbar steigend.
Gut konzipiert nutzt diese Technik nicht nur die täglichen Backup-Fenster besser aus, sondern
verkürzt auch die im Bedarfsfall immens wichtigen Restore-Zeiten massiv. Setzt ein Unternehmen
diesen Weg strategisch und konsequent ein und kombiniert ihn mit der bewährten Bandspeicherung,
dann gewinnt es große Flexibilität und ausreichend Sicherheit. Jeder Administrator, der bei einem
Restore schon einmal ein Band nicht mehr lesen konnte, wird mit dem Wissen nachts besser schlafen,
seine Daten sofort und im schnellen Zugriff auf dem Plattenzwischenspeicher zu finden.

Gleichzeitig wird jeder Profi es sehr schätzen, die für sein Unternehmen lebenswichtigen Daten
zusätzlich noch auf bewährtem Band und sicher im Tresor zu wissen. Auf das Tape im Tresor kann sich
kein Virus verirren, kein Platten-Crash und kein Stromausfall können dem Band etwas anhaben,
solange es "offline" dort schlummert. Kein rotierender Datenträger bietet diese wichtigen Vorteile
mit einem zudem unschlagbaren Preis. Die Kosten pro GByte liegen beim neuen VXA-3 zum Beispiel bei
nur noch rund 0,30 Euro, nimmt man 240 GByte als komprimierte Kapazität an. LTO3 (Ultrium 3)
unterbietet dies noch mit gerade einmal 0,11 Euro pro GByte, eine vereinfachte komprimierte
Kapazität von 800 GByte pro Band vorausgesetzt.

Bei der Verwendung von Bändern ist zudem davon auszugehen, dass sie bei sachgemäßer Lagerung
auch noch nach weit mehr als zehn Jahren lesbar sind. Nach Herstellerangaben schaffen zum Beispiel
VXA2- und VXA3-Bänder 20.000 "Passes" (Quelle: Exabyte), was in der Praxis etwa 1000 Voll-Backups
entspricht. Mehrere Generationen lassen sich so bequem anlegen und verwalten. Bei manchen Anwendern
sorgt dieses Vorgehen zudem auch für eine Art "Papiereffekt": Bänder beziehungsweise die Cartridges
lassen sich anfassen, beschriften und sind außer gegen massive Einwirkungen relativ
unempfindlich.

Beim Umgang mit den Tapes gilt es allerdings auch, auf die Details zu achten, wie die folgenden
Anekdoten aus der Praxis belegen: Bei einer Bank in Österreich kam es zu einer Überschwemmung des
Rechenzentrums. Dabei wurden unglücklicherweise auch die Tapes der Datensicherung mit erfasst. Die
VXA-Bänder waren nach dem Trocknen ohne Probleme zu lesen, der Betrieb konnte mit neuer Hardware
weiter gehen. In einer Bank in England wurde ein altes System auf Basis einer RS/6000 abgelöst, die
Daten auf Band gespielt und das Altsystem verkauft. Jahre später musste sich das Geldinstitut für
viel Geld eine Maschine und ein Bandlaufwerk ausleihen, das die Bänder von damals lesen konnte, da
eine sonst nicht zu bewältigende angekündigte Prüfung anstand. Ein weiterer Fall: Nach einigen
Jahren sollten in einem Unternehmen die ausgelagerten Jahresdaten wegen einer Betriebsprüfung
zurückgespielt werden. Das Backup war mit einem Kennwort gesichert. Da der damalige Operator nicht
mehr aufzufinden war und das Kennwort der Software nicht zu hacken, war ein Zurückspielen der Daten
nicht möglich.

Meist gibt es allerdings ganz simple Probleme: Eine häufige Ursache für nicht korrekt
durchgeführte Datensicherungen ist immer noch das nicht getauschte oder eingelegte Band. Zu Zeiten
von vollautomatischen Bandwechslern (Autoloadern), die zum Beispiel 1,6 TByte speichern können, ist
dies mehr als verwunderlich. Um so mehr, als heute Zehnfach-Wechlser schon für unter 2500 Euro zu
haben sind.

Um zum Beispiel Daten in ein Standby-Rechenzentrum zu übertragen, setzen fortschrittliche
Konzepte bereits heute schon auf einem Ansatz, den Insider gern als "Backup to Disk to Any"
bezeichnen. Ob die Daten letztendlich auf CD oder DVD gebrannt sicher in dasBackup-Rechenzentrum
gelangen oder über eine gesicherte Verbindung direkt auf ein Online-Plattensystem, spielt dabei
eine untergeordnete Rolle. Wichtig ist ein transparenter, kontrollier- und nachvollziehbarer und
vor allem automatischer Ablauf. Die Software einiger Hersteller gibt dies heute schon her. Erst
kürzlich hat die Firma Yosemite diesen Trend mit dem Release von "Backup 8.1" aufgenommen und
konsequent in das Produkt integriert.

Ob Backups oder Archive am Ende mithilfe von Festplatten, mit Einzelbandlaufwerken, mit
Band-Libraries oder auf CD oder DVD gespeichert werden, bleibt natürlich dem individuellen Konzept
überlassen. Ein gesunder Mix von Platten und anderen Medien erscheint als der momentan beste Weg
unter Betrachtung von Kosten und Nutzen. Redundante Medien und Hardware haben sich in der Praxis
bewährt.

Ebenfalls im Trend liegen so genannte "Backup-Appliances". Dabei handelt es sich um eine
Kombination aus einfachem Festplattenspeicher (Direct Attached, NAS oder iSCSI), Band-Library und
einer guten aktuellen Backup-Software in einem Gerät. Dies ist eine Lösung, die alle Vorteile für
ein schnelles Restore in die Rechenzentren bringt, Backup- und Restore-Prozesse vorhält und sich
einfach und transparent nutzen lässt.

Seit Jahren halten zentrale Backup-Lösungen Einzug in die Unternehmensnetzwerke. Vorbei ist
offenbar die Zeit, in der für jedes einzelne Betriebssystem und für jede spezielle Datenbank eine
eigene – manchmal mitgelieferte – Software zum Einsatz kommt. Ist damit auch die Zeit vorbei, da
ein Personalwechsel ein Restore tatsächlich in Frage stellt? Mit modernen Lösungen fahren
Unternehmen zentrale Ansätze. Ressourcen schonend ist dies in mehrerer Hinsicht: Personal und
Hardware lassen sich für multiple Systeme einsetzen. Vom Windows-eigenen Backup, vom Unix-eigenen
TAR, vom Sichern eines mit einem Skript gezogenen Dumps einer Datenbank bis hin zur zuverlässigen
einfach zu bedienenden Backup-Anwendung ist alles denkbar. Bei Letzteren handelt es sich im besten
Fall um Lösungen, die vom Betriebssystem unabhängige Oberflächen und Konzepte aufweisen und damit
per se meist schon eine bessere Bedienbarkeit bieten.

Für schnellere Backups und Restores implementieren die Softwarehersteller immer wieder neue
Techniken. Dem Sichern, Speichern und Restore von redundanten Daten ist damit anscheinend endgültig
der Kampf angesagt. "Single Point of Instance" lautet in diesem Zusammenhang das Schlagwort.
Vollkommen identische Dateien sollen in Zukunft nur einmal gesichert werden, ein Trend, der schon
bald in die Betriebssysteme eingehen könnte. In Groupware-Lösungen ist dies ansatzweise schon seit
geraumer Zeit implementiert.

Der K-Fall

Wenn der Katastrophenfall eintritt, steht plötzlich das gesamte Konzept auf der Probe. Dann
zeigt sich, ob die Planung, die Organisation, die alltäglichen Arbeiten und das Training Früchte
tragen. Dabei ist es unerheblich, ob der K-Fall eine vom Vorstand versehentlich gelöschte
Excel-Datei ist oder ein gerade komplett abgestürzter Datenbankserver. Der Verlust eines kompletten
EDV-Raums oder gar eines kompletten Gebäudes kann jeden treffen, jederzeit. Genau dann, wenn
niemand damit rechnet treten K-Fälle ein – Murphy?s Law lässt grüßen. Dann offenbart sich, wie gut
die Vorbereitung und Routinen sind, wie gut beraten man bei der Anschaffung der richtigen Hard- und
Software war. Wenn der Außendienstmitarbeiter sein Notebook verloren hat, wenn in einer Außenstelle
einige PCs entwendet wurden, zeigt sich wie komplex das Thema Datensicherung und vor allem das
Restore in der Praxis tatsächlich ist. Die Frage lautet im Grunde nicht, ob oder beim wem ein
Datenverlust eintritt, sondern nur wann! Kein Verantwortlicher sollte den Gedanken "das wird uns
schon nicht passieren" siegen lassen. Das "globale" Durchspielen der möglichen Risiken im
Zusammenhang mit Kosten und Nutzen ist heute eine Pflicht. Das Fortbestehen ganzer Unternehmen kann
davon abhängen.

Schon direkt bei der Planung ist es durchaus hilfreich, die folgenden Praxiswerte zu beachten,
auch wenn diese von Fall zu Fall deutlich variieren. Nach diesen Erfahrungen kommt es in folgenden
Fällen zu Datenverlust: Bedienfehler 12 Prozent, Hardwarefehler (wie Harddisk-Crash) 35 Prozent,
logische Fehler 29 Prozent, physikalische Zerstörung (Brand, Wasser etc.) 15 Prozent, elektrische
Schäden (Überspannung etc.) zehn Prozent. Beachtet man all diese Werte, folgt sofort, dass die
Datenbänder stets in anderen Gebäuden zu lagern sind. Daten in einem internen und einem externen
Tresor (etwa bei einer Bank) zu lagern, kann damit ebenfalls durchaus sinnvoll sein. Der Aufwand
sollte allerdings stets in Relation zum Risiko stehen. Bei der Planung oder der jährlichen
Überprüfung der Backup-Strategie kann die Tabelle auf Seite 64 einen guten Anhaltspunkt
liefern.

Tests sind notwendig

Nur ein Test, wie ihn jede Feuerwehr auch zum Löschen immer wieder regelmäßig durchführt, bringt
allen Beteiligten die nötige Routine für den möglichen Ernstfall. Solche Tests finden
erfahrungsgemäß in zahlreichen Unternehmen viel zu selten statt. Erst nach einem Datenverlust wird
man sensibel, zumindest für einige Zeit.

Gleichgültig, ob man mit Bändern oder anderen Speichermedien arbeitet, tritt manchmal ein
weiterer Aspekt auf, nämlich dann, wenn die Aufbewahrungsfrist endet oder wenn Medienwechsel
anstehen. Dann geht es um die vorschriftsmäßige Vernichtung und um die zulässige Entsorgung der
verschiedenen Medien. Nicht nur das BDSG (Bundesdatenschutzgesetz) verlangt hier eine besondere
Sorgfalt. Löschen, Schreddern, oder das so genannte De-Gaußen sollten unbedingt von ausgebildetem
Personal oder/und von zuverlässigen Dienstleistern mit Zertifikat vorgenommen werden. Die Mülltonne
darf in keinen Fall zum Fundort sensibler Daten werden. Unternehmen, die ihren Kunden etwa
bestätigen, deren Daten gelöscht zu haben, müssen dies in fast allen Fällen auch auf all ihren
Archiven tun. Genau zu klären ist, was im Rahmen der gesetzlichen Aufbewahrungsfrist aufgehoben und
was im Rahmen persönlichen Datenschutzes komplett und konsequent vernichtet werden darf und
muss.

Auch beim Transport von Daten ist unbedingt professionell und sehr sorgsam vorzugehen.
Gleichgültig, ob Daten sicher über das Internet verschickt oder einfach konventionell einer
Spedition übergeben werden, die Vorschriften bestehen, und die unternehmerische Sorgfalt gebietet
es. Praxisbeispiele belegen dies: Erst im Dezember 2004 gingen "einfach so" Kreditkartendaten von
1,2 Millionen Menschen verloren. Ein Paket verschwand wohl beim Transport. Einige Tage später habe
die Bank bemerkt, dass "eine kleine Anzahl" der Tapes fehle, hieß es dann. Jeden Tag verlieren
Post- und Paketdienste Pakete, auch dies sollte man nie vergessen.

Die GDPdU (Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen) und die GoBS
(Grundsätze ordnungsmäßiger DV-gestützter Buchführungssysteme) zusammen mit möglichen Einsparungen
durch die Nutzung digitaler Archivsysteme haben auch dem Thema ILM (Information Lifecyle Managment)
einen nachhaltigen Boom beschert. Gilt es, Daten zehn Jahre oder länger aufzubewahren, müssen sie
nach GoBS unveränderlich und nur einmal- beschreibbar gespeichert sein. Spezielle LTO3- (Ultrium
3-) Bänder gibt es seit einiger Zeit auch als echtes WORM-Medium (Write Once Read Many).

Das Thema der langfristigen Datenspeicherung ist eine Frage der richtigen Unternehmensstrategie
und nicht "nur ein EDV-Thema für Spezialisten". Basel II wird 2006 voll wirksam werden, spätestens
dann müssen viel mehr Unternehmen ihren Status in puncto Archivierung und Backup auch gegenüber
ihren Banken ausführlich dokumentieren. Einen ausführlichen Überblick dazu findet man zum Beispiel
unter CP.Basel-II.info/.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+