Daten sind heute das wertvollste Kapital eines Unternehmens, daher ist die Datensicherung äußerst wichtig. Das traditionelle Backup-Modell Disk-to-Disk-to-Tape (D2D2T) scheint jedoch nicht mehr ausreichend für Unternehmen zu sein, die eine schnelle Datenwiederherstellung benötigen.

D2D2T sieht so aus: Die primäre Festplatte erstellt ein lokales Backup auf der sekundären (Backup-)Festplatte oder auf einer zweckgebundenen Backup-Appliance (Purpose-Built Backup Appliance, PBBA). Anschließend erfolgt in der Regel die Sicherung auf Bandmedien, die außerhalb des Unternehmens verlagert werden, oder die Replikation auf einer anderen PBBA an einem externen Standort für Disaster-Recovery-Zwecke.

Dies führt zu mehreren Backup-Silos und einer teuren dedizierten Infrastruktur, die nur für das Backup gedacht ist. Hinzukommen die fragile Datenhaltbarkeit auf Band und die zusätzliche Hardware, die für die Bandsicherung benötigt wird. Aus funktionaler Sicht sind die Sicherungsdaten auf Band extern in Silos „weggesperrt“ und können daher bis zum Abruf keinen zusätzlichen Wert liefern.

Dieser Ansatz weist zwei wesentliche Mängel auf, insbesondere bei den PBBAs: Erstens sind sie unflexibel, da sie in der Regel speziell dazu konzipiert sind, Daten in eine Richtung von der Quelle zum Ziel zu kopieren und diese Daten durch Deduplizierung effizient zu speichern. Inzwischen bewegt sich der Rest der IT-Branche rasant hin zu agilen und elastischen Lösungen. Zweitens liefern PBBAs im Allgemeinen eine schlechte Wiederherstellungsleistung, da die deduplizierten Backup-Daten fragmentiert sind, sowohl auf Festplatte als auch auf Band.

Diese beiden Probleme führen oft zu einer langsamen und komplexen Dateninfrastruktur. Da die Wiederherstellung von Daten von der Backup-Appliance lange Zeit in Anspruch nimmt, kann es sein, dass die IT-Abteilung zusätzliche Speicherinfrastrukturen bereitstellt, um andere Work-loads wie beispielsweise die Test-/Dev-Umgebung zu unterstützen. Snapshots der Produktionsanwendungen und Datenbanken sind oft auch auf separaten Speichersystemen gesichert, um bei Bedarf eine schnellere Wiederherstellung zu ermöglichen. Dennoch garantiert Disaster Recovery nicht, dass sich alle Daten schnell und zuverlässig wiederherstellen lassen.

Schnell und einfach ist besser als langsam und komplex

PBBAs und Backup-Datensilos sind Bausteine eines veralteten Ansatzes. In der heutigen datengesteuerten Welt wollen Unternehmen jedoch ihre Daten nutzen, um Innovationen voranzutreiben und Wettbewerbsvorteile zu erzielen. Datenwissen-schaftler suchen nach neuen Wegen, um mehr Daten zu analysieren. Daten sollten nicht außerhalb des Unternehmens weggesperrt sein, weil sie zu wertvoll sind. Heute geht es um „Time to Insight“, während bisher „Costs per TByte“ der alte Treiber für die Datensicherungsstrategie war. Die gesamte Dateninfrastruktur muss schneller werden, was auch dem Backup zugutekommt.

Bei hohen Transaktionsvolumen und großen Datenmengen geht es nicht mehr nur um kostengünstigen Speicher, sondern auch darum, mehr aus den Daten herauszuholen. Ältere Datensicherungsarchitekturen können es jedoch extrem schwierig, wenn nicht gar unmöglich machen, Work-loads über Backup und Recovery hinaus zu unterstützen.

In modernen Backup-Szenarien ersetzt Flash bereits die herkömmliche Festplatte und das altgediente Speicherband. Im Vergleich zum traditionellen Ansatz ermöglicht Flash-to-Flash-to-Cloud (F2F2C) als neues Backup-Modell eine schnellere Wiederherstellung und vereinfacht den IT-Betrieb. Das primäre Flash-Speichersystem mit Oracle oder VMware zum Beispiel sichert auf Flash-basierenden sekundären Speicher für schnelle Wiederherstellungen. Dann werden die Backup-Daten in die Public Cloud wie beispielsweise Amazon Web Services (AWS) migriert, um die Vorteile der Cloud wie Wirtschaftlichkeit und Beständigkeit zu nutzen.

Backup-Daten vor Ort oder in der Cloud lassen sich durch Komprimierung und Deduplizierung äußerst effizient speichern. Dieser Ansatz ermöglicht schnellere Restores, flexiblere Wiederherstellungen, eine sichere langfristige Aufbewahrung von Backup-Daten und eine einfachere Handhabung. Die schnelle Wiederherstellung findet in der lokalen Umgebung statt, während Backup-Daten in der Public Cloud automatisch zur Unterstützung von Wiederherstellungsvorgängen dienen, wenn lokale Daten nicht verfügbar sind.

Flash in Kombination mit der Cloud

Das Zusammenspiel von On-Premises- und Public-Cloud-Lösungen ist jedoch nicht von Haus aus harmonisch. Es gilt sogar, eine Art Kluft zu überwinden: Die Cloud ist nicht speziell für Unternehmensanwendungen konzipiert, und die Unternehmensinfrastruktur ist nicht so benutzerfreundlich wie die Cloud. Unternehmen sollten heute jedoch in der Lage sein, Infrastrukturentscheidungen auf der Grundlage dessen zu treffen, was für ihre Umgebung am besten geeignet ist. Die Erweiterung einer datenzentrischen Flash-Architektur in die Cloud hinein bietet Unternehmen mehr Mobilität und Flexibilität. Betreiber können die Cloud für Backup und Datenschutz nutzen sowie komplexere Webscale-Anwendungen entwickeln, mit erweiterten Speicherfunktionen wie Snapshots und Multizonenreplikation. Darüber hinaus bietet sich der Einsatz einer Deduplizierungs-Engine für Objektspeicher an.

Unternehmen können herkömmliche zweckgebundene Backup-Appliances durch Flash-Umgebungen ersetzen – für schnelle Wiederherstellung – und Speicherbänder durch Cloud-Objektspeicher – für externe Datenaufbewahrung. Diese neue F2F2C-Backup-Architektur modernisiert Backup- und Wiederherstellungsprozesse, indem sie Flash und die Public Cloud kombiniert. Daraus resultieren flexible Wiederverwendungsmöglichkeiten für die bislang eher als Last empfundenen Backup-Daten. Speicherangebote in der Public Cloud bieten eine zuverlässige Basis, um Mehrwertfunktionen zu schaffen und Unternehmensanwendungen im Betrieb über lokale Standorte und die Cloud hinweg zu unterstützen.

Die Datensicherungsarchitektur der nächsten Generation sollte auf Scale-out-Speichersystemen basieren, die von Grund auf für unstrukturierte Daten entwickelt wurden und eine hohe Leistung für viele Workloads bieten. Schnelle Backup- und Wiederherstellungs-, aber auch Test/Dev- und Analytik-Operationen lassen sich somit auf einer einzigen Storage-Plattform konsolidieren. All dies kann in einer einheitlichen Hybrid-Cloud erfolgen – also nahtlos in einer großen Umgebung.

Die Speicherplattform muss daher konsistente Speicherdienste, Ausfallsicherheit und APIs für On-Premises-Umgebungen und verschiedene Cloud-Modelle liefern. Dies hilft, zu gewährleisten, dass einmal erstellte Anwendungen sich nahezu überall ausführen lassen. Dies gilt speziell für die Datensicherung. Backups können vor Ort erstellt, in die Public Cloud migriert und bei Bedarf abgerufen werden. Je nach Anforderungen, Datenmenge und Sensibilität der Daten können Unternehmen entscheiden, ob die Daten in die Public Cloud wandern oder lokal abgelegt sein sollen. In diese Entscheidung können die verschiedenen Optionen für Backup, Wiederherstellung und langfristige Aufbewahrung einfließen, die in der Public Cloud oder vor Ort gegeben sind.

Es ist nie zu spät, die Datensicherungsumgebung zu modernisieren sowie das Problem der Infrastrukturkomplexität und -kosten zu lösen. Dies ist heute problemlos möglich, und zwar mit einer einheitlichen, schnellen und einfachen Flash-basierenden Datenplattform – basierend auf dem F2F2C-Ansatz.

Markus Grau ist Principal Systems Engineer bei Pure Storage, www.purestorage.de.