Storage-Virtualisierung schafft Speicherkapazität

Die Mischung machts

31. August 2005, 23:06 Uhr | Wolfgang Stehr/wj Wolfgang Stehr ist Leiter Service und Support bei der Tropper Data Service AG und und dort für die Entwicklung des Geschäftsfelds Storage verantwortlich.

SAN, Host, Speicher und Switch bieten Ansätze zur Virtualisierung vorhandener Speicherkapazitäten, um der Datenflut Herr zu werden. In der Praxis werden künftig vor allem Mischformen der bekannten Konzepte im Vordergrund stehen. Vor der Implementierung ist eine genaue Analyse der gewachsenen Infrastrukturen fällig.

In den vergangenen Jahren waren die meisten Unternehmen mit den Investitionen in ihre IT sehr
sparsam. Doch es kann nicht dauerhaft "alles beim Alten" bleiben, denn parallel haben sich die
Anforderungen an die Informationstechnik stark verändert. Speziell der Bedarf an Speicherplatz ist
gestiegen. Nach Expertenaussagen liegt das jährliche Datenwachstum bei 50 bis 100 Prozent.

Untersuchungen zeigen, dass dabei die E-Mails einen immer größeren Anteil der
Gesamtspeicherkapazität beanspruchen. Sie sind aber nicht die alleinige Ursache für die Datenflut.
Auch bei allen anderen Dokumentenarten ist ein immer größeres Aufkommen zu verzeichnen. Aufgrund
gesetzlicher Vorgaben zum einen, zum anderen aber auch aufgrund der Rationalisierungspotenziale,
die sich aus optimierten Prozessen ergeben, werden heute viele Belege, Briefe, Rechnungen, Angebote
und Formulare gescannt und elektronisch archiviert. Bei großen Unternehmen gehört das Scannen des
gesamten täglichen Posteingangs heute schon zum Standard. Hinzu kommen auch noch größere
Datenmengen in den Trend-Formaten "JPG" und "PDF" sowie die zahllosen Mehrfachspeicherungen von
Dokumenten und Mails.

Gewachsene Storage-Strukturen

Wohin also mit der Flut an elektronischen Dokumenten? Hier sind im Laufe der Jahre Strukturen
gewachsen, die nicht immer einheitlich sind. Gespeichert wird auf Festplatten, optischen Medien und
Tapes. Vielfach sind in den Unternehmen mehrere Insellösungen entstanden, in denen jeder Server
sein eigenes Storage-System unterhält. Es existieren daher sogar unterschiedliche Konzepte für
Hochverfügbarkeit und Desaster Recovery. Dadurch steigen letztlich auch die Kosten für das
Storage-Management rapide und drohen, zukünftig die IT-Budgets zu sprengen.

Zahlreiche große Unternehmen stehen nun vor der Herausforderung, dass ihre Kapazitäten bei
optischen Speichersystemen und Festplatten nahezu erschöpft sind. Eine geeignete Strategie muss
daher her, um die Datenberge mit wirtschaftlich sinnvollen Maßnahmen zu bezwingen. Dabei sollen die
Kosten im Zaum gehalten und gleichzeitig auch vorhandene Speicherkapazitäten einbezogen werden.
Nicht zuletzt wird eine einfachere Administration angestrebt, denn ein ganzheitliches Konzept soll
den Speicherplatz und -bedarf transparenter und kontrollierbarer machen. Auch Migrationen auf
modernere Hardware stehen an – ein komplexes Vorhaben, wenn noch verschiedene Konzepte und Systeme
parallel existieren, zwischen denen jegliche Verbindung fehlt.

Rechen- und Speicherkapazität entkoppeln

Storage-Virtualisierung wird als die Lösung der Probleme gehandelt. Dabei ist der Begriff der
Virtualisierung nicht neu, er wird bereits seit Jahrzehnten im EDV-Umfeld genutzt. In Bezug auf
Storage bedeutet Virtualisierung, dass die Nutzung von Rechen- und Speicherkapazität von der
tatsächlichen Hardware entkoppelt wird. Auf diese Weise entsteht eine logische Sicht auf die
physikalische Schicht.

Durch die Virtualisierung sollen die vorhandenen sowie neu geschaffenen Ressourcen besser
ausgenutzt werden. Im Projekt ist sicherzustellen, dass die Applikationen zeitgerecht mit der
benötigten Infrastruktur versorgt werden, ohne dass die IT-Kosten explodieren. Darüber müssen die
gesetzlichen Auflagen hinsichtlich der Aufbewahrung von Daten und Dokumenten Beachtung finden.
Hierzu werden die bestehenden unterschiedlichen Hardwaretechnologien zu einem so genannten
Speicherpool zusammengefasst, in dem Disk Arrays, Optical Storage Systeme und Tape Librarys
gleichermaßen unterstützt werden. Mit Storage-Management-Tools werden Regeln definiert, auf deren
Basis sich die gespeicherten Daten weitgehend automatisiert verwalten lassen. Das Kategorisieren,
Kopieren und auch das Verschieben von Daten über vorhandene Speichereinheiten hinweg sind so
möglich.

Als Verbindungstechnologie zwischen den Speichersystemen werden Storage Area Networks (SANs)
genutzt. Die Virtualisierung selbst ist auf unterschiedlichen Ebenen möglich, die jeweils einen
separaten Ansatz für die Virtualisierung darstellen. Eine noch relativ neue Methode ist die
Switch-basierte Virtualisierung, bei der die Virtualisierungsinstanz direkt in den Switch oder
Router integriert wird. Alle gängigen Server- und Speichersysteme lassen sich hier anschließen.
Befürworter dieses Ansatzes sind von der Zukunfts- und Investitionssicherheit einer solchen Lösung
überzeugt. Empfehlenswert ist sie aber lediglich für Unternehmen, die ihre bisherigen
Storage-Systeme komplett gegen eine neue Infrastruktur austauschen wollen. Wahrscheinlicher ist es,
dass Firmen ihre bisher eingesetzten, unterschiedlichen Hardwarekomponenten nutzen und diese durch
die Virtualisierung harmonisch verbinden wollen. Daher sind in einem Projekt zunächst die
Virtualisierungmöglichkeiten auf Serverebene (Host-gestützt), auf SAN-Ebene (Appliance-gestützt)
und auf der Speicherebene (Array-gestützt) zu betrachten.

Storage-Konzept entwickeln

Jede der Varianten weist Vor- und Nachteile auf. Bei der Host-basierten Virtualisierung liegen
die gesamte Software und die Last auf den Servern. Diese Form der Virtualisierung ermöglicht einen
schnellen Zugriff auf mehrere Speicher und ist in der Praxis sehr performant. Allerdings begeben
sich Unternehmen dadurch in Abhängigkeit von einem Lösungshersteller. Ein weiterer Nachteil: Eine
einheitliche Darstellung der Kapazitäten ist mit diesem Ansatz nicht gegeben.

Die SAN-basierte Virtualisierung ist schnell zu implementieren, einfach in der Verwaltung und
bietet Zugriff auf mehrere Speicher und Server. Je nach Größe des Netzwerks besteht aber die
Gefahr, dass diese Virtualisierungsform zu einem Flaschenhals wird und die Performance im Netzwerk
leidet. Auch hinsichtlich der Skalierbarkeit bietet dieser Ansatz nur beschränkte
Möglichkeiten.

Die Speicher-basierte Virtualisierung schließlich setzt eine Architekturveränderung des
Netzwerks voraus, um den Zugriff auf mehrere Speicher zu ermöglichen. Positiv sind die Nähe zu den
Daten sowie der Zugriff auf mehrere Server. Ein Nachteil ist die Gefahr, sich zu sehr an einen
Hersteller zu binden.

Um ein geeignetes Storage-Konzept aufzusetzen, ist zunächst einmal Transparenz notwendig. Geht
es um einen sachgerechten Umgang mit dem wertvollen Datenbestand eines Unternehmens, ist im ersten
Schritt eine Analyse des Lebenszyklus, der gesetzlichen Vorschriften und der Verfügbarkeit der
Daten erforderlich. Im Rahmen eines Storage-Konzepts sollten darüber hinaus auch die jeweiligen
Applikationen und Anwendungen betrachtet werden. Verfügt ein Unternehmen bereits über geeignete
Workflow- oder Business-Process-Management-Systeme, stellen diese die Informationen zeitgerecht
bereit. Dabei spielt es in den meisten Fällen keine direkte Rolle, welches Storage-System dabei im
Einsatz ist. Funktionen des Prefetching gehören bereits bei den meisten
Business-Process-Management-Systemen zum Standard.

Zweiter Schritt in einem Gesamtkonzept ist das Betrachten der Datensicherheit. Hier ist stets
vom schlimmsten Fall auszugehen. Katastrophenfälle wie zum Beispiel die Überflutung des
Rechenzentrums müssen berücksichtigt werden, denn auch in einem solchen Fall müssen die Mitarbeiter
schnellstmöglich wieder auf die Daten zugreifen können. Danach sollte aber auch der Fall untersucht
werden, dass plötzlich einzelne Systemkomponente ausfallen können, ohne dass die Fehlerquelle
gleich lokalisiert werden kann. Ein zuverlässiger Schutz und eine schnelle Wiederherstellung von
Unternehmensdaten sind daher als kritisch für das Überleben eines Unternehmens einzuschätzen. Oft
bestehen diesbezüglich unterschiedliche Unternehmensanforderungen, die in einem Gesamtkonzept
berücksichtigt werden müssen.

Bevor schließlich im dritten Schritt die einzelnen virtuellen Speicherpools gebildet werden,
muss man die einzelnen Speichertechnologien auf Zuverlässigkeit und optimalen Einsatz prüfen. Im
Mittelpunkt steht dabei die Frage der Datenmigration: Wie soll diese zukünftig aussehen, und
welcher Datenbestand ist nach einigen Jahren auf modernere Technologien zu migrieren? Die heutige
Heterogenität der Storage-Umgebungen ist zum Teil durch "Lowest-Price"-Entscheidungen entstanden.
Inzwischen ist dieser vermeintliche Kostenvorteil jedoch zum Kostentreiber geworden. Diese Kosten
werden durch eine TCO-Betrachtung über einen Zeitraum von etwa drei Jahren schnell sichtbar und
sind häufig im Bereich des Stromverbrauchs, der Kühlung sowie der Hard- und Softwarewartung zu
finden.

In der Praxis werden aufgrund der zahlreichen Vor- und Nachteile der verschiedenen
Virtualisierungsansätze kaum "reine" Formen der Virtualisierung auftreten. Die Ansätze lassen sich
aber auch ohne weiteres so kombinieren, dass die individuellen Anforderungen eines Unternehmens
erfüllt werden. Unterschätzen darf man das Projekt Storage-Virtualisierung keinesfalls. Es werden
sich nur dann die erhofften Einsparungen und Optimierungen ergeben, wenn zuvor das Speicherumfeld
gründlich durchleuchtet und das Für und Wider aller Optionen geprüft wurde.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+