Speicherverwaltung aus ökonomischer Sicht

Speicheroptimierung

29. Juli 2009, 22:56 Uhr | Andreas Wagner/dp Andreas Wagner leitet deutschlandweit den Bereich Global Services bei Hitachi Data Systems.

Speichersysteme sorgen für einen gesicherten Zugriff und eine zuverlässige Ablage der Unternehmensdaten. Die zugehörigen Techniken, Verfügbarkeiten und Preise unterscheiden sich allerdings gravierend. Auch aus wirtschaflicher Sicht sinnvoll ist eine zentrale und hierarchische Speicherarchitektur mit jeweils auf die Anforderungen zugeschnittenen Systemen. Deren Effizienz lässt sich mit Virtualisierung und Deduplikation noch weiter optimieren.

Die Konzepte der Datenspeicherung haben sich in den letzten Jahren enorm verändert. Aus den
vergleichsweise einfachen DAS-Platten (Direct Attached Storage) mit parallelem Anschluss haben sich
Speichersubsysteme (NAS, SAN) entwickelt. Ihre Verbindung ist meist seriell wie bei iSCSI oder
Fibre Channel (FC). Darüber hinaus setzt sich zunehmend die Zentralisierung der Datenhaltung durch,
um eine effiziente Storage-Virtualisierung und dynamische Kapazitätszuweisungen zu ermöglichen.
Denn verteilte Daten auf verteilten DAS-Platten erfordern eine aufwändige Vorortverwaltung. Die
Inbetriebnahme, das Rollout, die Verwaltung, die Wartung sowie die Datensicherung – all diese
Arbeiten lassen sich schneller und einfacher abwickeln, wenn die Daten auf zentralen
Speichersystemen liegen.

Wer von DAS auf ein zentralisiertes Speichernetz umsteigen will, sollte im ersten Schritt die
Plattensysteme nur in den Servern des Rechenzentrums vorhalten. Somit befinden sich die
Speicherplatten zwar an einem zentralen Ort, aber immer noch jeweils an einen Server gebunden. Im
zweiten Schritt sollte der Administrator sie vom Server getrennt in ein dediziertes Speichersystem
integrieren. Erst durch die Trennung des Plattenspeichers vom Server können die Plattenkapazitäten
allen Servern gemeinsam zur Verfügung gestellt werden. Da nun das lokale Betriebssystem des Servers
nicht mehr alleiniger Herrscher über die Platten ist, muss eine zusätzliche Verwaltungsschicht
eingezogen werden. Diese muss die Speicherfragmente den unterschiedlichen Servern und dessen
Betriebssystemen und Applikationen zuordnen. Die Storage-Virtualisierung erfolgt analog zu den
Techniken der Server- oder Desktop-Virtualisierung durch die dynamische Zuweisung der Ressource
Speicherplatz an die Verbraucher. Das erlaubt eine effizientere Nutzung des Plattenplatzes: Statt
eines physischen Einbaus von Platten in den Server ermöglicht die Virtualisierung eine einfache
Zuweisung des benötigten Platzes an die anfordernden Systeme. Benötigt ein Server mehr
Plattenplatz, weist der Administrator ihm diesen einfach als "LUN" (Logical Unit Number) zu. So
lässt sich der Plattenplatz besser nutzen, weil jeder Server nur die Speicherkapazität zugewiesen
bekommt, die er tatsächlich benötigt.

Bei dieser Vorgehensweise ist die Speicherkapazität, die der Administrator einem Server zuweist
allein für diesen reserviert und steht keinem anderen Server zur Verfügung, auch wenn der Server in
diesem Moment nur einen Bruchteil davon belegt. Die Ursache dafür liegt in den meisten
Betriebssystemen und deren Dateisystemtreibern. Diese erlauben meist keine Änderungen am
zugewiesenen Plattenplatz im laufenden Betrieb.

Doch auch dafür haben die Anbieter der Speichersysteme eine Lösung gefunden: Thin Provisioning
bildet die geforderte Dynamik in der Virtualisierungsschicht nach. Sie gaukelt dem Betriebssystem
den zugewiesene Platz vor, reserviert aber auf den physischen Platten nur den Anteil, den der
Server zurzeit benötigt. Thin Provisioning ermöglicht somit eine noch genauere Anpassung des
Speicherbedarfs an die Anforderungen.

Deduplizierung

Speichersysteme wachsen mit der Menge der darin abgelegten Daten, und häufig speichern sie
dieselben Daten mehrfach im System. Eine E-Mail etwa, die an zehn Personen gesandt wird, deren
Postfächer auf unterschiedlichen Servern liegen, wird im ungünstigsten Fall auch zehn Mal
gespeichert. Sind dieser E-Mail noch umfangreiche Anhänge beigefügt, wird ein Mehrfaches des
Platzes für die immer gleiche E-Mail belegt. Um hier Speicherplatz zu sparen, vermeiden
E-Mail-Systeme genauso wie Archivsysteme mit Deduplizierungsverfahren schon seit Jahren diese
doppelte Speicherung von Daten. Dies lässt sich auch auf die Speicherung anderer Daten und auf die
File-Systemebene ausweiten: Dabei untersuchen die Deduplizierungslösungen die zu speichernden Daten
auf doppelte Inhalte und ersetzen identische Daten durch einen Index (Hash-Wert) auf den
eigentlichen Inhalt. Diese Technik reduziert den benötigten Speicherplatz auf den physischen
Platten und senkt so die Kosten der Speicherhaltung.

Hierarchische Storage-Lösungen

Daten haben unterschiedliche Wichtigkeit und Zugriffshäufigkeit. So werden beispielsweise
aktuelle E-Mails oder auch Bestellungen und Verträge aufgrund ihrer Aktualität in dieser Zeitspanne
häufig benötigt. Deren Zugriffsrate und Wichtigkeit sinkt aber mit der Zeit. Nach dem Abschluss der
Verträge, der Lieferung der Ware oder der Bearbeitung der E-Mail werden diese Inhalte häufig nur
noch zum Zwecke der Beweissicherung oder aus Compliance-Gründen benötigt. Diese Daten müssen nicht
zwingend auf den gleichen Speichermedien hinterlegt sein wie die aktuelle Korrespondenz. Eine
Tiered-Storage-Architektur erlaubt es, Daten auf unterschiedlichen Medien mit ebenso
unterschiedlichen Zugriffstechniken abzuspeichern. Aktuelle und wichtige Dinge (Tier-1-Daten)
werden beispielsweise auf schnellen und teuren Festplatte mit FC-Anschluss gespeichert
(Primärspeicher). Weniger Wichtiges (Tier-2-Daten) kann auch auf preisgünstigen SATA-Platten
abgespeichert werden (Sekundärspeicher). Archivdaten (Tier-3-Daten) können in speziell dafür
ausgelegten, langlebigen und entsprechend geschützten Systemen gesichert werden
(Tertiärspeicher).

Jegliche Speichertechniken und die dabei verwendeten Medien und Zugriffsvarianten weisen
unterschiedliche Qualität, Zugriffsgeschwindigkeit, Ausfallsicherheit und Kosten auf. Hinzu kommt,
dass alle diese Techniken auch Unterschiede in der Verwaltung und der benötigten Infrastruktur
aufweisen. Der Zugriff mittels FC etwa fordert anders als iSCSI eine eigene Hardware und
Verkabelung. Dafür ist der Zugriff schneller als bei allen anderen Varianten. SATA-Platten wiederum
sind günstig, aber nicht so ausfallsicher wie SAS-Platten. Es gilt also, aufeinander abgestimmt
jeweils die passensten Produkte und Techniken für den jeweiligen Anwendungszweck
herauszufinden.

Baselining über 33 Faktoren

TCO-Berechnungen allein reichen hier nicht aus. Ein übergreifender Blick auf alle zugehörigen
Parameter könnte dabei helfen, die für die Kosten verantwortlichen Faktoren zu identifizieren.
Hitachi entwickelte hierzu zum Beispiel die Storage-Economics-Methode mit einer Reihe von
Werkzeugen und Analyse-Tools, die 33 Faktoren in die Betrachtung einbezieht, um Kosten und
Tätigkeiten zu veranschaulichen. Dazu gehören beispielsweise die Administration via interner oder
externer Ressourcen, der Aufwand für Wartungsarbeiten, die Kosten für Strom, Kühlung sowie der
Platzbedarf im Rechenzentrum, Konventionalstrafen bei Überschreitung der SLA-Vereinbarungen und
natürlich die Anschaffungskosten der Speichersysteme. Letztere stellen bei dieser Analyse im
Durchschnitt weniger als ein Drittel der gesamten Speicherkosten dar.

Diese umfassende Betrachtung der Speicherinfrastruktur bringt nicht nur eine Zusammenstellung
der Kosten, sondern auch der involvierten Funktionen und Aufgaben im Betrieb. Dies ermöglicht eine
bessere Steuerung der Speichernutzung und der Investitionen. Ziel ist es, die Anlagenrendite zu
erhöhen. Auf Basis dieser Analysen lässt sich dann mit Tiered-Storage-Techniken, Deduplikation und
Storage-Virtualisierung die Effizienz der Speicherumgebung meist deutlich anheben.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+