Die Abwicklung klassischer Geschäftsprozesse findet mittlerweile vollständig digital statt. Im Zuge des Wettbewerbs ist außerdem die Verwaltung, Verarbeitung und Auswertung von Daten für Unternehmen zu einem geschäftskritischen Faktor von zentraler Bedeutung avanciert, den es zu sichern gilt.

Ein weitläufiger, aber karger Lagerraum, funktionale Beleuchtung, der Geruch von altem Papier und ordentlich Staub: Noch bis vor wenigen Jahrzehnten war die Datensicherung unweigerlich mit dem Sinneseindruck eines Papierarchivs verknüpft. In der Gegenwart allerdings entspricht die Menge an Daten, die Unternehmen einst über Jahre angesammelt und in ihren Archiven gelagert haben, gerade mal einem Bruchteil des täglichen Datenaufkommens.

Eine Auskunft, die einst mit einer Anfrage an die Verwaltungsabteilung, der Arbeit mehrerer Mitarbeiter und je nach Umfang mit einem Zeitaufwand von mindestens einem Tag verbunden waren, stehen heute mit wenigen Klicks für sämtliche Mitarbeiter unternehmensweit zur Verfügung. Der Prozess ist im Prinzip aber immer noch derselbe: Der Datenbestand muss zunächst möglichst effizient durchsucht und die ermittelten Ergebnisse schließlich ausgewertet und der Anfrage entsprechend aufbereitet werden. Im Zeitalter von Big Data und Business-Intelligence-Anwendungen gilt dabei zusätzlich die Maxime: Je mehr Daten der Anwender für Analysen heranziehen kann, desto besser sind die Aussichten für die Optimierung der Geschäftsprozesse und somit der Wettbewerbsposition.

Grenzen traditioneller Konzepte

Was sich jedoch dramatisch verändert hat, sind die Anforderungen an die Aufbewahrung und Sicherung des Datenbestands. Angesichts des stetig und massiv anwachsenden Datenaufkommens und immer besser werdender Rechenleistung sind traditionelle digitale Backup-Konzepte, die mit einer Vollsicherung auf Offline-Speichermedien operieren, längst an ihre Grenzen gestoßen. Um zukünftig der Datenflut in den Unternehmen stets ein paar Schritte voraus zu sein, ist es essenziell, Speicherkapazitäten effizient zu nutzen und die Wiederherstellungszeit möglichst gering zu halten.

Die Sicherung der Daten in der Cloud ermöglicht es der IT-Abteilung, die Daten schnell wiederherzustellen.

Dazu müssen Unternehmen grundlegend neue Backup-Strategien und -Strukturen entwickeln. Cloud-Umgebungen und Virtualisierung erschließen dabei große Potenziale. Insbesondere die Anforderung eines Offsite-Backups für Katastrophenfälle (Disaster Recovery) lässt sich sowohl über Public- als auch Private-Cloud-Dienste zeit- und kosteneffizient umsetzen. Darüber hinaus ermöglichen es die Recovery-Optionen der Cloud, verschiedene Katastrophenszenarien flexibel zu adressieren. Eine komplette Wiederherstellung aller Systeme, etwa im Falle von Naturkatastrophen, tritt äußerst selten auf. Viel häufiger hingegen erleiden Unternehmen einen Datenverlust im täglichen Arbeitsablauf, beispielsweise durch das versehentliche Löschen oder Überschreiben von Dateien oder durch Diebstahl oder Beschädigung eines Endgerätes. In der Cloud hingegen können Unternehmen ihre Daten direkt über einen Sync-and-Share-Service veröffentlichen. Dies bietet nicht nur den Mitarbeitern bequemen Zugriff auf ihre Daten über den Webbrowser, sondern ermöglicht auch der IT-Abteilung die Wiederherstellung von verlorengegangenen Daten auf dem Client.

Bei der gegenwärtigen allgemein vorherrschenden Begeisterung für Cloud-Dienste sei jedoch noch angemerkt, dass auch diese Ressourcen ein Backup benötigen. Wenn der Cloud-Dienstleister beispielsweise mit technischen Schwierigkeiten kämpft oder aus anderen Gründen seinen Vertrag nicht einhält, können die Leistungseinbußen Unternehmen mitunter teuer zu stehen kommen. Um dies zu vermeiden, sollten sie mehrere Dienstleister im Zuge einer Cloud-to-Cloud-Backup-Strategie wählen. Cloud-to-Cloud-Backup bietet die Gewissheit, jederzeit auf alle Daten Zugriff zu behalten, auch wenn einer der Dienstleister mit Service-Problemen zu kämpfen hat.

Inkrementelles Backup und Archivierung

Ein in regelmäßigen Abständen durchgeführtes Voll-Backup gehört allmählich auch in kleinen Betrieben der Vergangenheit an. Was noch bis vor wenigen Jahren als wichtige Maßnahme für die Sicherstellung einer konsistenten Datenbasis galt, sorgt mittlerweile für eine tagelange Beeinträchtigung der Unternehmensnetzwerke. Die Einbußen im Geschäftsablauf infolgedessen führen wiederum zu einer stärkeren Belastung des IT-Personals. Moderne Backup-Strategien zielen daher darauf ab, den Backup-Zeitraum möglichst gering zu halten. Inkrementelle Sicherungen mit Deduplizierung an der Backup-Quelle stellen sicher, dass man innerhalb der gesetzten Backup-Zeiträume lediglich die aktualisierten Daten überträgt. Das Voll-Backup wird damit zu einem einmaligen Ereignis. Nachdem dies erstmalig erfolgt ist, werden künftig nur noch die Aktualisierungen übertragen. Ein Eingreifen durch einen Administrator ist damit überflüssig, da die Technologie die Konsistenz der Daten durch Prüfsummen sicherstellt. Auf diese Weise wird automatisch und fortlaufend ein konsistenter Datenbestand, der dem eines Voll-Backups entspricht, vorgehalten.

Cloud-Umgebungen und Virtualisierung bieten verschiedene Möglichkeiten für eine effiziente Backup-Strategie.

Um neben der Backup-Dauer auch die Größe des Speicherplatzes unter Kontrolle zu behalten, sollten Unternehmen vor allem für Datenschwergewichte wie Mail- und File-Server eine Archivierungslösung nutzen. Da sich im Gegensatz zu Produktivdaten Archive kaum verändern, lässt sich die Server-Größe durch Archive massiv reduzieren. Selbst große Datenbestände stellen nach erfolgter Archivierung kaum noch eine Belastung für das Backup-System dar.

Intelligente Backup-Prozesstechnologien

Der Backup-Prozess wird allerdings nicht nur kompakter und schneller, sondern auch effizienter und agiler. Die intelligente Übertragung und Sicherung von Daten wird künftig immer mehr an Bedeutung gewinnen. Gegenwärtig ist Deduplizierung das Maß aller Dinge, um das Backup-Volumen möglichst gering zu halten und die Bandbreite zu schonen. Redundante Daten werden im Backup dabei nur ein einziges Mal physisch gespeichert. Idealerweise nutzen Unternehmen Deduplizierung „global“, also über sämtliche Backup-Daten aller Unternehmensstandorte hinweg. Systeme mit Inline Deduplication stellen bereits vor dem Backup-Prozess fest, welche Daten es ins Backup zu übertragen gilt und sparen so erheblich Übertragungszeit, Bandbreite und Speicherkapazität.

Doch auch die Datensicherung nach aktuellen Standards hat ein Ablaufdatum. Daten sind der Rolle des starren Ablageobjekts, das nur Menschen umfassend verarbeiten können, längst entwachsen. Jenseits des Papiersilos machen automatisierte Verarbeitungsverfahren sie zum Rohstoff des digitalen Zeitalters, den es zu sichern gilt. Denn im Falle eines Datenverlusts müssen nicht nur einzelne Server oder Clients, sondern bis hinunter auf einzelne Ordner oder Dateien schnell und einfach wiederherzustellen sein. Dies ist heute dank Disk-basierten Backups und dezidierten Backup-Appliances möglich. Da das Datenaufkommen im Zuge der digitalen Transformation weiterhin zunehmen und nach verbesserten Verarbeitungsprozessen verlangt, wird auch die Backup-Technologie mit dieser Entwicklung Schritt halten müssen.

Stefan Schachinger ist Consulting System Engineer – Data Protection bei Barracuda Networks, www.barracuda.com.