Virtualisierung bis zum Rechenzentrum

Schein und Sein

09. März 2005, 00:16 Uhr   |  Thomas Harrer/jos Thomas Harrer ist als Systemarchitekt bei IBM in Stuttgart tätig.

Die Virtualisierung von IT-Infrastruktur ist bereits heute mehr als nur ein Schlagwort, wie etwa das funktionierende Konzept logischer Rechnerinstanzen auf großen Servern beweist. Die Planungen der IBM-Systemarchitekten gehen sogar noch ein ganzes Stück weiter: Selbst ein komplett virtuelles Rechenzentrum muss künftig keine Vision bleiben.

In der Geschäftswelt und der darunter liegenden IT ist Virtualisierung ein aktueller Trend, der
mehrschichtig zu sehen ist. Seit Mitte der 90er-Jahre sprechen die Insider von virtuellen
Organisationen und meinen damit die Zusammenarbeit eines Verbundes von Einzelpersonen und
Organisationen, die so aussieht, als wäre sie eine Organisation im engeren Sinne. Auf der
technischen Ebene spricht man von virtuellen Computern, die sich logisch so verhalten wie physische
Computer. Viele dieser logischen Rechner können auf einem einzigen physischen Computer laufen.

Virtuelle Systeme (Computer, Anwendungen, Infrastrukturen, Organisationen) lassen sich so
definieren: Ihr Verhalten ist das gleiche wie das von physischen Systemen – sie existieren jedoch
nicht in herkömmlichen physischen Strukturen. Virtualisierung soll es IT-Verantwortlichen
ermöglichen, ihre Ressourcen effizient und effektiv einzusetzen. Virtualisierung abstrahiert die
Logik eines Systems von der Physik des Systems. Abstraktion ist ein sehr altes Prinzip der
Informatik, das die Komplexität eines Systems hinter einer Funktions- und
Schnittstellenbeschreibung versteckt. Virtualisierung in Computersystemen ist ebenfalls ein altes
Prinzip, das sich schon früh bei Time-Sharing-Systemen, Speichermanagement, Volume-Management bis
hin zu virtuellen Maschinen manifestiert hat. Virtualisierung kann Ressourcen sowohl partitionieren
als auch aggregieren. Letzteres ermöglicht es, leistungsfähige virtuelle Maschinen aus physischen
Bausteinen aufzubauen.

Die Architektur von IT-Geschäftsanwendungen und die darunter liegende Infrastruktur hat sich
deutlich verändert.

Gründe für die Entstehung

Anwendungen der 70er- und 80er-Jahre des 20. Jahrhunderts nutzten Terminals als Schnittstelle
zwischen dem System und den Anwendern, die – obwohl sie für die Zeit sehr intelligent waren –
selbst keine Geschäftslogik ausführten. Daten und Transaktionen, die Geschäftslogik und die
Präsentation liefen zentral auf Großrechnern. In den 90er-Jahren entwickelte sich die
Client/-Server-Architektur, bei der die Anwendungslogik, Daten und Transaktionen zentral
verarbeitet wurden, die Präsentation aber verteilt auf Personalcomputern realisiert ist.
IT-Anwendungen optimierten die Geschäftsprozesse innerhalb eines Unternehmens.

Ende der 90er-Jahre, unterstützt durch Internettechnik und Standards, begannen Anwendungen die
erweiterten Beziehungen der wirtschaftlichen Zusammenarbeit zwischen Zulieferern, Partnern,
verschiedenen Organisationen im Unternehmen und den Kunden zu überspannen. Obwohl sich hier
deutlich ein neues Anwendungsparadigma entwickelt hat, blieben die charakteristischen Merkmale in
Bezug auf die IT-Infrastruktur erhalten: Einzelne Anwendungsbausteine wurden dediziert auf eigenen
Servern implementiert – mit der Tendenz (bei Storage und Netzen), die Ressourcen von mehreren
Anwendungen gemeinsam zu nutzen. Es entstanden Inseln. In größeren Unternehmen wurden für
E-Business, CRM (Customer Relationship Management), ERP (Enterprise Resource Planning) in der Regel
disjunkte IT-Infrastrukturen betrieben.

Vor- und Nachteile

Vorteile der Dedizierung sind: IT-Leistung läst sich gut verrechnen, Software einfach
lizenzieren und Umgebungen sind trivialerweise isoliert, sodass Störungen in einer Umgebung keine
Auswirkung auf eine andere Umgebung haben. Auf der anderen Seite führen dedizierte Umgebungen zu
Überkapazitäten. Jede einzelne Infrastruktur ist für ihre eigene Spitzenlast gebaut, die damit
geschaffenen Reserven lassen sich jedoch nicht von anderen Anwendungen mitnutzen. In Untersuchungen
für Serverkonsolidierungsprojekte wurde oft ein Auslastungsgrad von unter zehn Prozent für alle
Intel-basierenden Server eines Unternehmens gemessen. Selbst mittlere bis große Unix-Server sind im
Durchschnitt nicht höher als 20 bis 30 Prozent ausgelastet. Ein weiteres Problem ist, dass sich
unterschiedliche Verfahren für Provisioning (Bereitstellung von IT-Ressourcen),
Service-Level-Management, Problem Management etc. für die einzelnen Inseln entwickelt haben, die
überwiegend manuell ausgeführt werden und maßgeblich für die hohen Kosten des Betriebs von
Anwendungen verantwortlich sind. Das größte Problem ist die Zeit: Die IT kann nicht schnell
reagieren und bremst damit die Geschäftschancen des Unternehmens aus.

Ausprägungen in der IT-Virtualisierungstechnik entwickelten sich in den vergangenen Jahren
rapide. Die zukünftige Entwicklung scheint sich noch zu beschleunigen. Relativ gut ausgeprägt ist
die Virtualisierung bei Storage und Netzen. Storage-Infrastruktur wird aktuell bereits als
SAN-Dienst virtuell für mehrere Anwendungen zugewiesen. Die eingebaute Intelligenz von Storage wie
zum Beispiel Partitionierung, logische Datenspiegelung und die Spiegelung über entfernte Standorte
wandert von Storage-Servern in das SAN – und steht dort als virtuelle Funktion in zwei Ausprägungen
zur Verfügung. Blockorientiert – als virtueller Speicher, der über beliebige physische
Storage-Systeme hinweg zugeordnet ist. Oder dateiorientiert – als virtuelles Filesystem, das die
gleichzeitige gemeinsame Nutzung von Dateien über Systemarchitekturgrenzen hinweg mit hoher
Leistung und Skalierbarkeit ermöglicht. Bei den Netzen sind virtuelle Strukturen breit etabliert
und werden unter anderem als VLANs (Virtual LAN) oder als VPNs (Virtual Private Network)
eingesetzt.

Eine aktuelle Richtung der Virtualisierung bei Servern sind die Partitionierung und der Betrieb
mehrerer logischer Umgebungen auf einer physischen Umgebung. Softwarebasierende virtuelle Maschinen
wie Vmware ESX, Microsoft Virtual Server 2005 oder z/VM für IBM Eserver Zseries sollen es
ermöglichen, neue Umgebungen in kurzer Zeit und mit geringem Aufwand zu erstellen. So genannte
Hypervisor-basierende Systeme wie die Eserver P5 und I5 stellen virtuelle Umgebungen als
skalierbare 64-Bit-Serverumgebung zur Verfügung, bei denen die Hardware sicherstellt, dass die
Umgebungen isoliert sind.

Das On-Demand-Zeitalter

Unternehmen beginnen, ihre IT-Anwendungen neu auszurichten. Eine wichtige Rolle spielt die
Integration von Geschäftsprozessen über virtuelle Unternehmensorganisationen hinweg, die durch eine
serviceorientierte Denkweise und die Verwendung offenerer Standards wie Webservices ermöglicht
werden. Das Ziel dieser Unternehmen ist es, auf Änderungen ihres Markts schnell reagieren zu
können. Die Rechenzentren, die die neuen IT-Anwendungen bereitstellen und betreiben, befinden sich
in einer langjährigen Entwicklung, bei der sie Techniken standardisieren und IT-Prozesse
automatisieren.

Konsequenz: Das Rechenzentrum wird zu einem virtuellen System. In der Vergangenheit investierte
das Rechenzentrum in neue Infrastruktur für jede neue Anwendung – in Zukunft sollen neue
Anwendungen möglichst in die vorhandene Infrastruktur eingebracht werden, die erst dann erweitert
wird, wenn durch wachsenden Geschäftserfolg die Anzahl der Transaktionen steigt.

Autonomic Computing als Grundlage für Automatisierung

Um ihre Systeme optimal betreiben zu können, haben IT-Abteilungen von Unternehmen bis hin zu
großen Dienstleistern sehr spezifisches Know-how aufgebaut. Wichtige Entscheidungen müssen von
Personen getroffen werden. Das so genannte Autonomic Computing ist eine Designphilosophie, bei der
das System die Intelligenz erhält, sich selbst optimal zu installieren, zu konfigurieren und für
den Betrieb zu optimieren. Hinzu kommen Mechanismen für Fehlertoleranz und Selbstheilung sowie für
den Selbstschutz vor unberechtigten Eindringlingen von außen. Da Komplexität exponentiell mit der
Anzahl verschiedener Komponenten wächst, lässt sich nur ein solches System effektiv automatisieren,
bei dem die einzelnen Komponenten möglichst problemlos funktionieren und auf Fehlersituationen
korrigierend reagieren können. Die Vision eines virtuellen Rechenzentrums kann nur dann tragen,
wenn Autonomic Computing realisiert wird.

Die Virtualization Engine

Große Anbieter von IT-Produkten und -Dienstleistungen bündeln ihre Angebote für Virtualisierung
im Rechenzentrum und investieren signifikant in deren Weiterentwicklung und Integration. Neben den
eigentlichen Virtualisierungstechniken spielen auf Anbieterseite übergreifende
Virtualisierungsfunktionen und -services für die gesamte IT-Infrastruktur eine wichtige Rolle. Eine
zentrale Funktion ist die automatisierte Bereitstellung, die mit Provisioning bezeichnet wird, die
ein Rechenzentrum als einen Pool von Ressourcen abstrahiert, die automatisch für die verschiedenen
Einsatzzwecke instrumentiert werden. Provisioning stellt aus einem Pool vorhandener physischer oder
virtueller Systeme dynamisch komplette Betriebsumgebungen zur Verfügung. Workflow-Technik
automatisiert die einzelnen Schritte: Der Provisioning-Manager installiert Betriebssystem und
Anwendungssoftware, parametrisiert deren Personalitäten, definiert Netzadressen, schaltet
Firewall-Ports frei, weist Storage-Kapazität zu, nimmt die notwendigen Definitionen im SAN-Switch
vor, meldet den neuen Applikationsserver bei der Anwendung an und vieles mehr.

Dies können sämtliche Schritte sein, die nötig sind, um Hardware in einen Zustand zu bringen, in
dem Business-Transaktionen ausgeführt werden können. Weitere Disziplinen sind das
transaktionsbasierende Workload-Management und das einheitliche und plattformübergreifende
Systemmanagement.

Big Blues Weg

IBM bietet Virtualisierungstechniken und -services unter dem neuen einheitlichen Markennamen "
Virtualization Engine" an, die die Basis für die zukünftige Entwicklung von
Virtualisierungsprodukten sein soll. Dynamic Infrastructure kann als Beispiel zum Verwalten von
komplexen SAP-Umgebungen dienen. Die Vision eines komplett virtualisierten und automatisierten
Rechenzentrumsbetriebs ist nur evolutionär in überschaubaren Portionen zu realisieren, da die
Vielfalt vorhandener Systeme die komplette Einführung von Provisioning und Workload-Management sehr
komplex gestaltet.

Ein technisch und wirtschaftlich sinnvoller Einstieg in ein virtualisiertes Rechenzentrum wird
sich zu Beginn auf eine bestimmte Anwendungsklasse oder konkrete Aufgabenstellung beschränken. Eine
Klasse von Anwendungen, bei denen die Realisierung in greifbare Nähe rückt, sind SAP-Anwendungen.
SAP kommt mit dem Adaptive-Computing-Konzept den Herstellern von IT-Infrastruktur entgegen, die
damit eine stabile Grundlage haben, um ihre Virtualisierungs- und Provisioning-Lösung speziell für
die Software der Walldorfer zu integrieren und zu optimieren. IBM bietet die "Dynamic
Infrastructure for mySAP Business Suite" als eine komplette Infrastrukturlösung für SAP-Systeme an,
die neben Provisioning und Service-Level-Optimierung eine eigene Abrechnungskomponente umfasst. Der
wirtschaftliche Vorteil eines virtualisierten RZ-Betriebs liegt in der höheren Effizienz des
Rechenzentrums selbst und im zeitlichen Vorteil, den die Klienten des IT-Services erhalten, indem
neue Geschäftsanwendungen und Funktionen schneller bereitgestellt werden können.

Fazit für IT-Betreiber

Die Abstraktion des virtuellen Rechenzentrums wird für IT-Betreiber wichtig, um Services in
hoher Qualität schnell und kostengünstig bereitstellen zu können. Virtuelle Umgebungen sowie die
Abstraktion eines Pools von Ressourcen, aus dem sich eine komplette Anwendungsumgebung
provisionieren lässt, werden einen signifikanten Anteil an der Innovation von zukünftigen
Rechenzentren ausmachen. Der generische Einstieg in diese Technik lohnt sich für IT-Betreiber, die
eine erhebliche Zahl von Anwendungen und Systemen betreiben. Der einfachste Weg hin zu
virtualisierten Strukturen ist der Einsatz von virtuellen Servern und Storage-Virtualisierung.
Automatisches Provisioning wird dann realisierbar, wenn IT-Betreiber sich als überschaubaren
Einstieg auf einzelne Anwendungstypen konzentrieren, etwa auf Provisioning von SAP-Umgebungen. Eine
vorintegrierte Lösung erleichtert den Einstieg und stellt auch für kleinere und mittlere Firmen
eine wichtige Option hin zum virtuellen RZ dar.

Auf Facebook teilen Auf Twitter teilen Auf Linkedin teilen Via Mail teilen

Das könnte Sie auch interessieren

Verwandte Artikel

Default