Storage- und Datenanalyse

Kluge Auslastung

23. April 2020, 07:00 Uhr   |  Marc Ahlgrim

Kluge Auslastung

Wer seine Daten und Speicherressourcen effizient managt, kann Ressourcen klüger auslasten, Kosten senken und Compliance-Anforderungen strenger durchsetzen. Dazu ist es wichtig, in die Daten hineinzuschauen - unabhängig davon, wo sie liegen.

In den Rechenzentren der Unternehmen wird es langsam eng: Alle zehn Minuten entsteht ein gigantischer Datenberg mit fünf Milliarden GByte, so schätzen Experten. Weil die Speichertechnologie sich dabei nicht mit der gleichen Rate weiterentwickelt und der Platz im heimischen Rechenzentrum eng wird, sehen viele Unternehmen in der Cloud eine praktikable Alternative. Dort lassen sich auch sehr große Informationsmassen einstweilen bequem ablegen. Weil Firmen in vielen Fällen dennoch nicht komplett auf das eigene Datacenter verzichten wollen, entstehen in der Folge hybride Cloudstrukturen mit sehr komplexer Ausgestaltung.

So arbeiten laut einer Veritas-Studie weltweit 74 Prozent der Unternehmen mit mindestens zwei Cloud-Infrastrukturanbietern zusammen, 23 Prozent kooperieren sogar mit vier Partnern oder mehr. In der Folge entstehen nicht nur Datensilos mit ungenutzten Informationen, sondern auch Datengräber aus so genannten ROT-Daten. Diese sind redundant, obsolet oder trivial und ließen sich ohne Bedenken löschen. Schlimmer noch sind jedoch die ebenfalls entstehenden Bestände aus Daten, die man aus Compliance-Gründen - die DSGVO lässt grüßen - eigentlich löschen müsste.

Dringender denn je müssten Unternehmen also ihre Speicher, sowohl Cloud als auch On-Premises, aufräumen und entrümpeln. Das bedeutet, dass sie Daten auf inhaltlicher Ebene klassifizieren, sortieren und gegebenenfalls löschen sollten.

In der Praxis funktioniert dies nur durch automatisierte Lösungen, die die "Datenwelt" des Unternehmens verstehen und mit möglichst wenig menschlichem Eingriff diese Aufgabe erledigen können. Eine zweite wichtige Säule einer effizienten "Aufräumstrategie" muss jedoch darin bestehen, den Storage auf Hardwareebene über eine einheitliche Plattform zu verwalten. Immerhin liefern die großen Anbieter von Storage-Systemen heute dazu sehr ausgefeilte Management-Tools. In ihrer Systemwelt können Firmen damit gut steuern, wo genau diese die Daten ablegen sollen. Solche Werkzeuge überwachen den Gesundheitszustand des Gesamtsystems und prüfen auch, ob Backups sauber durchgeführt wurden.

501 LANline 2020-04 Bild2
©

Ein "hardwareagnostischer" Überblick über die in der Umgebung vorhandene Infrastruktur hilft dabei, Silos zu vermeiden. Bild: Veritas

Dieser Ansatz funktioniert innerhalb einer kleinen IT-Umgebung reibungslos und gut, kommt in größeren, heterogenen Infrastrukturen aber an seine Grenzen: Wenn jede einzelne Hardwareinsel und deren Backup-Lösung über ein isoliertes dazugehöriges Reporting-Tool überwacht wird, ist ein unternehmensübergreifender Blick auf die Storage- und Backup-Situation kaum möglich. Außerdem müssen sich die zuständigen IT-Teams in unterschiedliche Werkzeuge, ihre Arbeitsweise und Konzeption einarbeiten.

Wer den Überblick behalten und sich ungern in Silos isolieren lassen will, kann die verschiedenen Tools und deren Ergebnisse an einer Stelle konsolidieren und gewinnt so einen "hardwareagnostischen" Überblick. Mit Hilfe einer solchen Software können Unternehmen beispielsweise sofort erkennen, welche Fachabteilung eine virtuellen Maschinen zwar angefordert, aber niemals aktiviert hat. Auch Konfigurationen, bei denen ein Administrator die Aufbewahrungszeit versehentlich auf "permanent" gestellt hat, sodass ein Backup niemals gelöscht wird, lassen sich damit sehr gut und schnell aufspüren. Ein weiterer häufiger Fund in solch einem Szenario sind Laufwerke, die der IT-Verantwortliche versehentlich nicht in die Sicherung aufgenommen hat.

Eine umfangreiche Daten-Management- und Analyseplattform wie beispielsweise Aptare IT Analytics kann sich in solchen Fällen bewähren. Sie konsolidiert zehntausende Datenpunkte und hilft Unternehmen dabei, wertvollen Speicherplatz in der Cloud, On-Premises oder in hybriden Infrastrukturen zu sparen. Außerdem unterstützt sie Organisationen dabei, ihren Compliance-Anforderungen wesentlich leichter nachzukommen, wodurch besonders Unternehmen in kritischen Bereichen profitieren. Dazu gehören etwa Banken, die in regelmäßigen Abständen bei Audits demonstrieren müssen, dass sie wichtige Daten ordnungsgemäß über Backups sichern.

Weniger Daten sparen Geld

Durch eine solche (Daten-)Transparenz können Unternehmen ihr Archivierungskonzept verbessern und damit eine Menge Geld sparen. Jedes gesparte TByte an Daten bringt im Schnitt zwischen 600 und 700 Euro Kosteneinsparungen mit sich. Somit ist der Return on Investment für eine entsprechende Lösung innerhalb kurzer Zeit erreicht.

Ein weiterer Vorteil einer solchen Lösung: IT-Verantwortliche können ihre Kostenstruktur gegenüber dem Management wesentlich effizienter und genauer dokumentieren. Dabei helfen Prognosefunktionen, den Einkauf von Speicher wesentlich besser zu steuern: Wer bei einem Speicheranbieter von Zeit zu Zeit kleinere Tranchen an Storage ordert, ist schließlich in einer schlechteren Verhandlungsposition als derjenige, der über eine genaue Bedarfsprognose für die kommenden zwei Jahren verfügt. Entsprechend groß ist auch der Spielraum, um Mengenrabatte auszuhandeln.

Viel Potenzial ergibt sich auch dadurch, die Funktion Storage Tiering effizienter zu nutzen. Dadurch ist auf einem Blick ersichtlich, auf welche Speicherbereiche besonders häufig zugegriffen wird. Idealerweise hält man diese auf schnellen SSDs vor. Andere, seltener nachgefragte Daten lassen sich in der Folge auf preiswertere Speicherarten verlagern - von der SATA-Platte bis zum Bandlaufwerk für die Langzeitarchivierung. Auch Deduplizierungslösungen lassen sich auf diese Weise überwachen und optimieren.

Damit sich all diese Analysen leichter mit konkreten Kosten verbinden lassen, sollte die Lösung es außerdem ermöglichen, entsprechende Einträge für die verschiedenen Speicheranbieter vorzunehmen. So lassen sich beispielsweise die Verrechnungsdaten von AWS Glacier hinterlegen. Die Software erkennt anschließend sofort, welche Backup-Daten immer wieder kostspielig aus dem Speicher gezogen werden und deshalb besser auf einer preiswerteren und leichter verfügbaren Alternative untergebracht wären. Aber auch global liefert die Lösung über ein Dashboard sofort Einblicke darüber, welche Teile der IT-Infrastruktur aus Backup-Sicht immer wieder für Probleme sorgen.

Marc Ahlgrim ist Digital Transformation Specialist Risk Mitigation and Compliance, GDPR bei Veritas, www.veritas.com.

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Veredelte Daten
StorCycle automatisiert das Daten-Management
Daten-Management zur Erkundung des Weltalls

Verwandte Artikel

Daten-Management

Veritas