80 Prozent der Daten in Unternehmen sind sogenannte „Sekundärdaten“, die selten oder nie abgerufen werden. Dennoch treiben Firmen den Ausbau von teuren Primärspeichern voran und missbrauchen Backups als Archive. Unternehmen investieren den Löwenanteil ihres Budgets für Primär-IT. Schnellere und größere Speichersysteme stehen dabei stets ganz oben auf der Prioritätenliste. Glaubt man den Trendauguren, ist spätestens übermorgen sowieso alles nur noch All-Flash, Software-Defined und hyper­konvergent.

All-Flash Storage ist aber für 80 Prozent der Daten, die selten oder nie benötigt werden, trotz fallender Preise nach wie vor zu teuer. Obwohl sich die Kosten pro TByte für SSD- und Disk-Speicher stetig annähern, wird dies auch noch viele Jahre weiterhin gelten. Gleichzeitige Skalierung von Performance bei Steigerung der Kapazität (Hyperkonvergenz) ist bei brachliegenden „kalten“ Daten meist unnötige Investition in Rechenpower, die nie nötig ist. Viel wichtiger ist die problemlose Skalierung der Kapazität im laufenden Betrieb.

Durch frühzeitige Auslagerung selten benötigter Daten auf schnelle, aber günstige Disk-Speicher lässt sich eine Reduzierung des Primärspeicherbedarfs erzielen – oder zumindest dessen Wachstum verlangsamen. Der Großteil der Daten liegt dabei auf File-Servern mit „Nearline-Performance“, die nicht so schnell wie All-Flash-Systeme sein müssen, jedoch ebenso wahlfreien Zugriff (Random Access) und ständige Verfügbarkeit der Daten bieten, etwa für Big-Data-Analysen.

Die Verschlankung des Primärspeichers hat dabei einen doppelten Vorteil: Je nach Einsatzbereich können statt aufwändiger, teurer Speicherstrukturen einfachere Flash-Speichersysteme genutzt werden, da eine massive Skalierung oft nicht nötig ist.

Mehrstufige Backup-Strategien zur Datensicherung

Backups schützen Produktivdaten auf Primärspeichern vor Verlust. Mehrstufige Backup-Strategien versprechen hohe Verfügbarkeit und optimale Absicherung gegen Datenverlust. Backup-to-Disk (oder -to-Flash) erlaubt die schnelle Wiederherstellung und sogar die sofortige Verfügbarkeit („Instant Recovery“) durch das direkte Starten der gesicherten VMs aus dem Backup. Backup-to-Tape bietet höchste Sicherheit durch Auslagerung auf offline-fähige Medien. Ersetzt man Tape durch VTL (Virtual Tape Library), sind die Daten zusätzlich durch Redundanz geschützt. Das Medium sollte aber dennoch offline-fähig sein und die Möglichkeit des „Air Gaps“ bieten – also die physische Trennung vom sichernden Netzwerk. Nur so besteht die Möglichkeit, bei Befall durch Schadsoftware wie beispielsweise Ransomware garantiert auf eine saubere Instanz zurückzugreifen.

80 Prozent der Daten in Unternehmen sind Sekundärdaten. Dennoch investieren Firmen hauptsächlich in teuren Primärspeicher. Bild: Fast LTA

Sind Daten frühzeitig vom Primärspeicher auf einen File-Server auszulagern, muss auch dieser über entsprechende Datensicherung verfügen. Naheliegend wäre die Integration in die Backup-Strategie des Primärspeichers, was den Aufwand wiederum erheblich erhöht, Backup-Fenster vergrößert und – je nach Lizenzmodell – zu hohen Backup-Kosten führen kann. Besser sind File-Server, die von Haus aus über hohe Sicherheitsreserven und/oder über eine integrierte Datensicherung verfügen. Hochredundante Speicher, die sich etwa durch permanente Snapshots und lineare Sicherung quasi selbst absichern, benötigen nur einfache, zusätzliche Sicherungen, wie beispielsweise Replikation oder zeitlich unkritische Full-Backups.

Backup- und Archivspeicher müssen dagegen von Haus aus gegen Datenverlust und Manipulation geschützt sein, da sie die „last line of defense“ bilden. Hohe Redundanz ist dabei die Grundlage, die man bei Tape-Speichern nur durch mehrfache Kopien erreichen kann. Administratoren müssen Medien regelmäßig überprüfen, um sicherzustellen, dass die gesicherten Daten auch wirklich noch lesbar sind. Die zugriffssichere Auslagerung von Kopien („Air Gap“, etwa Lagerung im Safe) verlangt Offline-Fähigkeit der Medien. Für spezielle Daten muss der Archivspeicher zudem WORM-versiegelt und somit revisionssicher sein.

Je mehr unterschiedliche Systeme im Einsatz sind, desto aufwändiger sind Wartung, Konfiguration und Absicherung gegen Datenverlust und Manipulation. Die Gefahr eines Datenverlusts durch Fehlbedienungen, Ausfall unterschiedlicher Systeme oder Angriffe sinkt deutlich, wenn als Sekundärspeicher ein einziges System für alle Anwendungen dienen kann. Dabei müssen einzelne Speicherbereiche aber für jede Anwendung individuell konfigurierbar und maximal flexibel sein.

Die Bestückung mit SSDs oder Disks, verschiedene Stufen der Absicherung durch Redundanz, File-System und Replikation sowie Merkmale wie Offline-Fähigkeit und WORM-Versiegelung tragen dazu bei, für File-Server, Backup- und Archivspeicher das jeweils optimale Verhältnis von Sicherheit zu Performance zu gewährleisten. Ebenso wichtig: Speicherbereiche müssen unabhängig voneinander skalieren, wobei beim Sekundärspeicher die Kapazität wichtiger ist als die Performance – die man dennoch nicht außer Acht lassen darf.

Hannes Heckel ist Director Marketing bei Fast LTA, www.fast-lta.de.