Interview: Virtualisierung im Rechenzentrum

Applikationen entkoppeln

17. August 2006, 22:00 Uhr | jos

Das Schlagwort Virtualisierung ist derzeit allgegenwärtig. Allerdings existieren verschiedene und nicht immer miteinander konform gehende Definitionen. Was muss der Anwender vom Hersteller fordern, was kommt auf ihn zu? Frank Reichart, bei Fujitsu Siemens Computers in der Position des Directors Product Marketing Enterprise Products and Solutions, nimmt im LANline-Interview Stellung.

LANline: Wie spielen die Bereiche Server- und Infrastrukturmanagement und Virtualisierung
zusammen?

Reichart: Die Verwaltung und der Betrieb moderner IT-Infrastrukturen stellt aufgrund der
wachsenden Komplexität dieser Umgebungen eine große Herausforderung für Unternehmen dar. Der
Aufwand für Server- und Infrastrukturmanagement ist dabei ein erheblicher Kostenfaktor, der trotz
Budgetkürzungen bewältigt werden muss. Vor diesem Hintergrund denken viele IT-Verantwortliche
stärker über dynamische Rechenzentren nach. Diese ermöglichen, mittels Virtualisierung vorhandene
Serverlandschaften inklusive Netzwerkinfrastruktur zentral zu überwachen und Anwendungen
automatisiert zur Verfügung zu stellen. Basis hierfür sind Policies, die anhand von
Verfügbarkeits-, Auslastungs-, und Prioritätskriterien definiert wurden. Die Virtualisierung der
IT-Infrastruktur und die Automatisierung des Managements eröffnen ein deutliches
Kosteneinsparungspotenzial und sind damit ein entscheidendes Mittel für effektives Server- und
Infrastrukturmanagement.

LANline: Gibt es entsprechende Produkte aus Ihrem Haus?

Reichart: Mit unserem Dynamic Data Center, das auf den drei Kerntechniken Virtualisierung,
Automatisierung und Integration basiert, bieten wir Lösungsansätze wie beispielsweise das Adaptive
Services Control Center, kurz ASCC. Die Software läuft auf zwei Primergy-Rechnern, den Control
Nodes, die im Cluster arbeiten, und überwacht mittels Agenten und standardisierten SNMP-Traps alle
Server des Pools. Das Automatisierungs-Tool unterstützt Linux-, Windows- und
Solaris-Umgebungen.

LANline: Wie definieren Sie die Virtualisierung für Storage und Server in diesem Kontext?

Reichart: Heute herrschen in den Rechenzentren so genannte Siloarchitekturen vor. Das heißt,
jeder Applikation werden ein eigener Server, eine eigene Datenbank und eigene Speichersysteme
zugewiesen. Virtualisierung bedeutet in diesem Zusammenhang die Entkopplung der jeweiligen
Applikationen von dedizierten Server- und Storage-Systemen. Die Applikation wird auf der jeweils
optimalen Serverressource gestartet und bei Bedarf mit weiteren – also Scaleout – oder
leistungsstärkeren Ressourcen – Scaleup- zum Beispiel durch Re-Deployment, Onlinepartitionierung
und Rekonfiguration automatisch versorgt. Die Möglichkeit, sich bedarfsgerecht mit Ressourcen aus
zentralen Server- und Storage-Pools dynamisch zu versorgen, bietet eine bessere
Ressourcenauslastung sowie eine adaptierbare Quality of Service. Anwendungen wie zum Beispiel SAP
und Oracle weisen unterschiedliche Architekturen und Funktionsweisen auf. Hier ist es erforderlich
die konkreten Umsetzungen anzupassen, wie wir dies mit den Lösungen Flexframe for Oracle und
Flexframe for mySAP Business Suite realisiert haben.

LANline: Wo genau findet die Virtualisierung statt? Was lässt sich am Besten per Hardware, was
per Software erreichen?

Reichart: Der Begriff Virtualisierung im Bereich der IT-Infrastruktur bezieht sich auf eine
Vielzahl unterschiedlicher Methoden und Funktionen sowohl in Bezug auf Hardware als auch auf
Software. Die hardwarebasierende Virtualisierung im Bereich Server/Storage umfasst unter anderem
die Partitionierung des Systems, Deployment-Mechanismen zur Aktivierung weiterer Systeme inklusive
Hotspare-Komponenten und LUN-(Logical Unit Number)-Definition. Hardwarevirtualisierung wird
beispielsweise eingesetzt, wenn es um eine physikalische Trennung der virtualisierten Server zur
Vermeidung von unerwünschten Wechselwirkungen geht oder im Bereich von Deployment-Szenarien, bei
denen die jeweils passende Serverressource eingesetzt werden soll. Bei der Softwarevirtualisierung
geht es darum, virtuelle Server mittels Vmware, Microsoft Virtual Server, Xen, VM2000 oder
Containerdefinition in Solaris zu realisieren. Sie spielt ihre Stärken im Zusammenspiel mit den
Funktionen des Betriebssystems aus. Mit Primergy Bladeframe – einer Out-of-the-Box
Server-Virtualisierungslösung – sind wir in der Lage, sowohl Hardware- als auch
Softwarevirtualisierung weitestgehend automatisiert zu betreiben. Das zugrunde liegende Konzept
besteht aus zwei wesentlichen Funktionsblöcken. Auf der einen Seite werden die CPU- und
Memory-Ressourcen über einen Virtualisierungs-Layer, dem Processing Area Network Manager, mit den
virtualisierten redundanten Komponenten wie I/O oder Festplatten versorgt. Auf der anderen Seite
erfolgt die Storage-Anbindung über SAN, das heißt die flexible Bereitstellung von virtualisierten
Festplattenressourcen/LUNs. Die im SAN abgelegten Betriebssysteme und Anwendungsdaten können so dem
jeweils definierten virtuellen Server zugewiesen werden. Die wesentlichen Vorteile dieser Lösung
sind die Hardwareunabhängigkeit der eingesetzten Prozessoren, also Intel oder AMD, die hohe
Ressourcenauslastung, die integrierte Hochverfügbarkeit, der minimierte Administrationsaufwand und
die verbesserte Flexibilität.

LANline: Gibt es aus Sicht des Endanwenders oder des RZ-Betreibers herstellerübergreifende
Standards und Konzepte, die er besonders beachten soll?

Reichart: Die herstellerübergreifenden Standards sind überwiegend in der softwarebasierten
Virtualisierung zu finden und beschränken sich häufig auf einzelne Bereiche wie Server oder
Storage. Gerade im Bereich der Servervirtualisierung stehen heute mit Vmware und Microsoft Virtual
Server Produkte zur Verfügung, die sich herstellerübergreifend einsetzen lassen.

LANline: Welche Fehler sollte der Anwender beim Kauf und bei der Konzeptionierung vermeiden?

Reichart: Gerade die Konzeptionierung stellt für viele Unternehmen – bedingt durch fehlende
Erfahrung – eine Herausforderung dar. Da die meisten Virtualisierungsvorhaben in bestehenden
IT-Landschaften erfolgen, ist es wichtig, die jeweiligen Rahmenparameter zu kennen und zu
berücksichtigen. Dies schließt Punkte wie existierende Hardware, Lizenzkosten, Systemmanagement,
Administrationsaufwand, Ressourcenauslastung, Lastprofile, Wachstumspfade und so weiter mit ein.
Zur Sicherstellung des gewünschten Ergebnisses sollten Anwender vor der Umsetzung eine
Return-on-Investment-Analyse veranlassen, um herauszufinden, ob und wann sich die Investition
amortisiert.

LANline: Welche Rolle spielen heute Zwänge durch Richtlininen wie ITIL oder ISO 20.000?

Reichart: Mit ITIL beziehungsweise ISO 20.000 wird das Ziel verfolgt, die Prozesse im
IT-Management ganzheitlich zu betrachten und die im Rahmen des Lifecycle anfallenden
Managementaufgaben wie Service-Level-, Financial-, Release- und Configuration-Management im
Zusammenspiel zu optimieren.

Die beschriebenen Prozesse führen zu einer optimalen Verfügbarkeit und Ausnutzung der
IT-Services und sorgen für Risikominimierung sowie Transparenz. Vor diesem Hintergrund handelt es
sich weniger um einen Zwang als vielmehr um eine Hilfe zur Bewältigung der Aufgaben, die der
Sicherstellung der Geschäftsprozesse durch IT-Management dienen. Als Unternehmen unterstützen wir
aktiv unsere Kunden durch ITIL-Beratung, -Schulung und IT-Betriebsmodelle. Dies ermöglicht
Planungssicherheit durch strukturiertes und zielführendes Vorgehen, mehr Transparenz im Prozess,
höhere Verfügbarkeit von Services und flexiblen Umgang mit sich verändernden
Geschäftsanforderungen.

LANline: Wie lässt sich Ihrer Einschätzung nach gewährleisten, dass der Kunde eine umfassende
Lösung betreiben kann, dennoch nicht auf Gedeih und Verderb an einen einzigen Anbieter gebunden
sein muss?

Reichart: Je umfassender die Lösung, desto größer ist die Herausforderung, sich nicht auf Gedeih
und Verderb an einen Hersteller zu binden. Ziel muss es deshalb sein, eine Lösung auszuwählen, die
auf Industriestandardmechanismen und -schnittstellen beruht und Plattformunabhängigkeit
gewährleistet.

Eine weitere wichtige Grundlage zur Herstellerunabhängigkeit stellt der Trend zur
Standardisierung gerade im Bereich der Betriebssysteme in Richtung Windows und Linux dar. Diese
werden zunehmend mit Funktionen für den geschäftskritischen Betrieb ausgestattet.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+