Von der Geräte- zur Komplettvirtualisierung

Darf es ein bisschen mehr sein?

14. September 2006, 22:00 Uhr | Klaus Rumsauer/mw Klaus Rumsauer ist Director Enterprise Server and Storage Business Unit bei HP.

Eine adaptive Speicherinfrastruktur, die sich flexibel an die Anforderungen des Unternehmens anpasst: Laut einer Umfrage der Marktanalysten von Gartner hat dies für CIOs oberste Priorität. Virtualisierungstechnologien und -lösungen leisten einen wichtigen Beitrag dazu, dass dies nicht nur Vision bleibt, sondern in den Betriebsalltag Einzug hält. Die Implementierung wirkt sich nicht allein auf die Technik aus, sondern kann auch die zugrunde liegenden Geschäftsprozesse beeinflussen.

Die Virtualisierung macht Schluss mit isolierten Speicherkapazitäten. In traditionellen
IT-Umgebungen ist dies noch gang und gäbe, denn die Speicherressourcen sind meist für bestimmte
Anwendungen oder Geschäftsprozesse "reserviert". Sie sind so ausgelegt, dass sie auch maximale
Belastungen der jeweiligen Applikationen auffangen können. Im Alltagsbetrieb bedeutet dies
allerdings, dass ein Großteil der Kapazitäten zumeist brach liegt. Und noch schlimmer: Sollte ein
Speichersystem dennoch temporär an seine Leistungsgrenzen stoßen, kann es nicht auf die freien
Kapazitäten anderer Einheiten zugreifen. Hier kommt die Virtualisierung ins Spiel: Sie schafft eine
Abstraktionsebene zwischen den physischen Speichereinheiten und den logischen Datenträgern, die von
den Anwendungen belegt sind. Auf diese Weise lassen sich Ressourcen in einem virtuellen Pool
zusammenfassen. Dies bringt zusätzliche Kapazität für die einzelnen Anwendungen, mehr Bandbreite
und höhere Datenverfügbarkeit.

Ressourcen flexibel zuteilen und besser auslasten

Insgesamt sorgt die Virtualisierung für eine verbesserte Auslastung von IT-Ressourcen. Denn
diese lassen sich je nach Bedarf automatisch zuordnen. Der virtuelle Pool kann schnell um neue
Kapazitäten ergänzt und vorhandene Ressourcen können rasch umverteilt werden. Dank dieser neu
gewonnenen Flexibilität können Unternehmen IT-seitig schneller auf veränderte
Geschäftsanforderungen reagieren. Davon profitieren Organisationen jeder Größe und Branche –
insbesondere Betriebe, deren Geschäft durch starke saisonale Schwankungen gekennzeichnet ist. Auch
auf der Kostenseite macht sich die Virtualisierung positiv bemerkbar. Infolge der optimierten
Auslastung sind insgesamt weniger Speichersysteme nötig. Dies zeigt sich nicht nur bei den
Anschaffungskosten, sondern auch beim Betrieb und Management der Speicherinfrastruktur. Zudem
bildet die Technik eine ideale Voraussetzung für neue Abrechnungsmodelle – in Rechnung gestellt
werden nur die tatsächlich in Anspruch genommenen Ressourcen.

Hardware und Dienste bereit für die Virtualisierung?

Um die zahlreichen Vorteile der Virtualisierung optimal ausnutzen zu können, sollten Unternehmen
sich entsprechend vorbereiten – also zunächst Hardware und Dienste standardisieren und
konsolidieren. So haben zum Beispiel Berater von McKinsey herausgefunden, dass sich auf diese Weise
bereits mindestens 20 Prozent der Kosten für den Betrieb und die Administration der IT-Umgebung
einsparen lassen. Weiteres Optimierungspotenzial ergibt sich durch die Vereinheitlichung und
Optimierung von Management-Tools. Insgesamt führt die Konsolidierung zu einer deutlich stabileren
IT-Infrastruktur.

Virtualisierung ist jedoch nicht gleich Virtualisierung. Die Spannweite reicht hier von der
Elementvirtualisierung über die integrierte Virtualisierung bis hin zu einer vollständigen
Virtualisierung aller IT-Ressourcen im Unternehmen. So entsteht zunächst eine stabile, im nächsten
Schritt eine effiziente und schließlich eine adaptive IT-Infrastruktur. Als Faustregel gilt dabei:
Je höher der Grad der Virtualisierung, desto höher die geschäftlichen Vorteile, da sich die Kosten
des Managements und der ungeplanten Ausfallzeiten reduzieren.

Von der Elementvirtualisierung zur integrierten Virtualisierung

Die Elementvirtualisierung optimiert die Nutzung einzelner Geräte oder Gruppen gleicher Geräte.
So werden zum Beispiel den einzelnen Applikationen über virtuelle Verbindungspfade die benötigten
Speicherkapazitäten zur Verfügung gestellt.

Der integrierte Ansatz geht darüber hinaus und schließt die Optimierung der
Speicherinfrastruktur für die Anwendungsumgebungen und Geschäftsprozesse mit ein.
Virtualisierungslösungen, die je nach Bedarf auf unterschiedlichen Ebenen der Speicherhierarchie
eingesetzt werden, registrieren, wie viele Ressourcen die jeweiligen Applikationen benötigen und in
welchem Maß die eingesetzten Systeme ausgelastet sind. Ist zusätzliche Speicherkapazität nötig,
geschieht die Zuweisung durch entsprechend definierte Regeln. Die dazu notwendigen Informationen
über die Auslastung der einzelnen Storage-Komponenten erhalten sie über die ohnehin von den
Systemen bereitgestellten Daten.

Es ist also keine zusätzliche Software erforderlich, die diese Daten erfasst. Basieren die
eingesetzten Speichersysteme auf Industriestandards, erleichtert dies die Integration und
einheitliche Verwaltung deutlich. Die integrierte Virtualisierung befähigt Unternehmen, Service
Level Agreements (SLAs) automatisch einzuhalten. Eine wichtige Rolle bei der integrierten
Speichervirtualisierung spielt das Storage Grid. Die Speicherarchitektur der nächsten Generation
bezieht sämtliche Speichergeräte – zum Beispiel Plattenspeicher oder Bandbibliotheken – mit ein und
verwaltet diese an zentraler Stelle.

Storage Grid nutzt Komponenten der Smart Cells

Kernstück der Storage-Grid-Architektur sind so genannte Smart Cells. Diese setzen sich aus
Komponenten zusammen, die selbst auf Standardbausteinen basieren und stellen in sich geschlossene
Systeme mit eigenem Prozessor, Netzwerk, Arbeitsspeicher und Speicher sowie eigener Software dar.
Im Prinzip sind alle Zellen identisch, sie lassen sich jedoch beispielsweise durch unterschiedliche
Ausbaustufen oder einen schnelleren Prozessor unterschiedlich konfigurieren. Ihre jeweilige Aufgabe
im Grid wird durch die auf ihnen laufende Software definiert. Administratoren können Zellen
jederzeit je nach Bedarf auch andere Aufgaben zuweisen. Die Architektur ermöglicht skalierbare und
leicht zu verwaltende Speichersysteme. Denn unabhängig von der Anzahl der verwendeten Zellen werden
diese wie ein einziges System verwaltet. Die gesamte Speicherinfrastruktur lässt sich so dynamisch
verändern, ein Storage Grid über einen Port-Switch wie ein konventionelles Storage Array in ein SAN
einbinden. Die Zukunft gehört dabei Architekturen, die über Plug-ins die Integration vorhandener
Arrays verschiedener Anbieter ermöglichen. Dies vereinfacht die Verwaltung noch weiter. Ein
weiterer nicht zu unterschätzender Vorteil der Architektur: Durch ihren Aufbau gewährleistet sie
eine hohe Verfügbarkeit.

Entwicklungsziel: Virtualisierung total

Doch die Entwicklung geht weiter. Anbieter von Virtualisierungslösungen wie zum Beispiel HP
arbeiten bereits an der vollständigen IT-Virtualisierung (Complete IT-Utility), die sowohl Speicher
und Server als auch das Netzwerk mit einbezieht. Im Rechenzentrum der nächsten Generation stehen
alle heterogenen Ressourcen in Echtzeit bereit – sie werden als Service bezogen und nach Verbrauch
bezahlt. Ein hoher Servicegrad und maximale Flexibilität zeichnen ein solches Rechenzentrum
aus.

Dazu tragen vor allem auch vordefinierte IT-Utilities bei, die sehr einfach an individuelle
Anforderungen angepasst werden können. Die Utilities verfügen über einen hohen Automationsgrad und
detaillierte Management- und Reporting-Mechanismen. Ein Beispiel aus der Praxis ist die bereits
heute verfügbare Shared Infrastructure Utility für Test- und Entwicklungsumgebungen.

Vom Ressourcen- zum Business-Management

Ein wichtiger Aspekt der Implementierung ist, dass die Folgen nicht ausschließlich technischer
Natur sind: Je weiter die Virtualisierung in einem Unternehmen fortschreitet, desto mehr ändert
sich die Betriebsführung. Sie beschränkt sich immer weniger auf das traditionelle
Ressourcenmanagement, das den sicheren IT-Betrieb gewährleistet und die Bereitstellung von
IT-Services in hoher Qualität sicherstellt. Zunehmend an Bedeutung gewinnt das Servicemanagement.
Dabei werden definierte IT-Prioritäten durch Service Level Agreements (SLAs) gewährleistet und
durch Best Practices auf Basis der IT Infrastructure Library (ITIL) optimiert. Ferner stellt das
Servicemanagement dar, wie sich Infrastrukturprobleme womöglich auf kritische Geschäftsanwendungen
auswirken können.

In der höchsten Stufe der Virtualisierung steht schließlich das Business-Management im
Vordergrund (siehe dazu auch das Bild auf Seite 70 unten). Auf der Grundlage einer
serviceorientierten Architektur (SOA) ist dabei die IT vollständig mit den Geschäftsprozessen
verzahnt. Konkret heißt das: Zu den Aufgaben des BusinessManagements zählen zum Beispiel die
Abbildung der Abhängigkeiten zwischen Geschäftsprozessen und den IT-Ressourcen, die diese
unterstützen. Dazu gehören auch die Analyse der Auswirkungen anstehender Änderungen in der IT auf
die Geschäftsprozesse sowie die Optimierung durch die automatische Anpassung der IT-Infrastruktur.
Dies bringt dem Unternehmen wiederum recht schnell handfeste Vorteile, und zwar sowohl in
technischer wie auch in finanzieller Hinsicht.

Fazit und Ausblick: einheitliche Managementplattform gefragt

Speicher- und Servervirtualisierung sind derzeit für die meisten Unternehmen noch zwei paar
Stiefel. Die nächste Station der Virtualisierungs-Roadmap wird jedoch die gesamte IT-Infrastruktur
mit einbeziehen – von den Servern über die Speichersysteme bis zum Netzwerk. Für optimale Effizienz
sorgt dabei eine einheitliche Managementplattform für sämtliche Hardwareressourcen – gleich ob
physisch oder virtuell.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+