Nach der Virtualisierung von Server und Storage greift dieses erfolgreiche Technikprinzip immer weiter um sich: Netzwerkvirtualisierung einschließlich Netzwerksicherheit ist der nächste Schritt in Richtung eines komplett virtualisierbaren Rechenzentrums. Richtliniengesteuertes, zentrales Management sorgt in diesem „Software-Defined Datacenter“ für weitgehende Automatisierung und damit mehr Effizienz und Wirtschaftlichkeit.Allzu oft sind Unternehmen durch ihre IT-Infrastrukturen eingeschränkt, da mindestens eine RZ-Komponente zu unflexibel oder komplex ist, um sie schnell an die Geschäftsanforderungen anpassen zu können. Die Abhängigkeit von der Hardware und die damit verbundenen Einschränkungen haben sich im Bereich der Server schon vor einigen Jahren aufgelöst. Neben der Steigerung von Effizienz und Performance können Anwender bei der Server-Virtualisierung Hardware konsolidieren und erhebliche Kosten einsparen.
Inzwischen gehen die Möglichkeiten der Virtualisierung über die Server hinaus und lassen sich über die verschiedensten Bereiche ausdehnen. Die Virtualisierungsprinzipien, die bislang auf Servern und Desktops zur Anwendung kamen – Abstraktion von der Hardware, Allokation von IT-Services in virtuellen Pools, zentrales und richtliniengesteuertes Management – sind auf alle RZ-Bereiche erweiterbar. Durch die Virtualisierung jeder Komponente im Rechenzentrum können Verantwortliche IT-Services so flexibel und wirtschaftlich wie virtuelle Maschinen bereitstellen – was dem „IT as a Service“-Gedanken entspricht.
Für die Realisierung von IT as a Sevice gilt das „Software-Defined Datacenter“ (SDDC) als Basisarchitektur. SDDC stellt alle IT-Ressourcen und Anwendungen als Software bereit und kontrolliert sowie automatisiert diese mit richtliniengesteuerter Software. Die vier Komponenten des Software-Defined Datacenter sind: „Computing“, „Storage“, „Netzwerk und Sicherheit“ sowie „Management“.
Die Server-Virtualisierung entkoppelt CPU-Leistung und Arbeitsspeicher von der zugrunde liegenden physischen Hardware. Sie bildet das Fundament des Software-Defined Datacenters. Bei der Virtualisierung befindet sich jede Anwendung mit ihrem Betriebssystem in einem separaten und vollständig isolierten Container, der virtuellen Maschine (VM). Die VM ist durch die Hypervisor-Software vom physischen Host entkoppelt, sodass sich auf einem einzelnen Computer viele virtuelle Maschinen gleichzeitig ausführen lassen. Dies führt zu einer starken Verbesserung der Verfügbarkeit, Performance und Ressourcenauslastung. Durch Virtualisierung kann ein Unternehmen die Anzahl von Servern reduzieren, günstige x86-Maschinen standardmäßig einsetzen sowie Provisioning und Management erheblich beschleunigen und vereinfachen.
 
Virtualisierung von Storage
Eine weitere grundlegende Komponente des Software-Defined Datacenters stellt Software-Defined Storage dar. Diese Technik, die sich ähnlicher Prinzipien wie bei der Server-Virtualisierung bedient, abstrahiert Storage-Ressourcen, um Pooling, Replikation und bedarfsorientierte Verteilung von Speichern zu ermöglichen. Dadurch entsteht eine Storage-Ebene, die dem virtualisierten Computing ähnelt: aggregiert, flexibel, effizient und elastisch skalierbar. Auch die Vorteile sind die gleichen: Senkung der Kosten und geringere Komplexität der Storage-Infrastruktur.
Daten-Services wie Snapshots, Klone und Replikation lassen sich auf VM-Basis als virtuelle Dienste mittels Software bereitstellen und verwalten. Durch die Unabhängigkeit von der zugrunde liegenden Storage-Hardware sind diese Services besonders agil und können flexibel zugewiesen werden. Virtualisierungslösungen sind in der Lage, Rechenleistung und Direct-Attached Storage (DAS) in Pools bündeln. Sie liefern virtuelle Datenebenen, die die lokalen Server-Festplatten und Flash Disks (Solid State Drives – SSDs) clustern. Virtuelle Maschinen erhalten dadurch belastbaren und leistungsstarken Shared Storage.
In einer verteilten „Virtual SAN“-Architektur lassen sich Storage-Services zudem den Applikationsanforderungen entsprechend skalierten, wobei die I/O-Performance vergleichbar ist mit Mittelklasse-Storage-Arrays und so wirtschaftlich wie Direct-Attached Storage. Virtual SAN basiert beispielsweise auf Server-Side SSDs und Harddisk Drives (HDDs) und dient als richtlinienbasierende Kontrollebene, die die Nutzung und Verwaltung von Storage mittels VM-orientierter Policies automatisiert. Virtual SAN eignet sich besonders für Unternehmen, die anfangs noch einen geringen Storage-Bedarf haben und erst nach und nach erweitern, weitere Einsatzszenarien liegen in einer Virtual Desktop Infrastructure (VDI) oder in Test- und Development-Umgebungen.
 
Virtualisierung von Netzwerk und Security
Bei der Netzwerkvirtualisierung ist ähnlich wie bei der Server-Virtualisierung das physische Netzwerk in virtuelle Pools aufgeteilt, die sich je nach Bedarf abrufen und nutzen lassen. Die virtuellen Netzwerke werden regelbasierend erstellt, verteilt sowie verwaltet und verwenden die darunterliegenden physischen Netzwerke als einfache IP-Verbindungen. Da das Netzwerk dadurch nicht mehr den Beschränkungen der Hardware unterliegt, lassen sich Daten deutlich schneller als bisher übermitteln.
Netzwerkvirtualisierungs-Plattformen liefern das gesamte Netzwerk- und Security-Modell als Software. In Erweiterung zu diesen Funktionen unterstützen die virtuellen Netzwerke existierende Applikationen, ohne dass Anpassungen in der physischen Netzwerkinfrastruktur nötig sind. Auch stehen bei intelligenten Netzwerkplattformen Layer-2- bis Layer-7-Services komplett via Software bereit, sodass Unternehmen lediglich zusätzliche Server-Knotenpunkte hinzufügen müssen, wenn sie ihre Infrastruktur erweitern wollen. Eine solche Architektur ermöglicht Traffic von bis zu 1 TBit/s pro Cluster.
Eine integrierte virtualisierte Netzwerk- und Security-Lösung stellt softwaredefinierte Netzwerk- und Sicherheitsfunktionen bereit, die sich in die virtuelle Infrastruktur integrieren und dafür optimiert sind. Der verbesserte Einblick in den Datenfluss zwischen den virtuellen Maschinen – auch auf einem Host und innerhalb eines Netzwerksegments – erhöht dabei die Sicherheit. Beim Verschieben oder Skalieren einer Anwendung bleibt die effektive interne Isolierung und Perimetersicherheit aufrechterhalten.
Neben der generellen Bereitstellung von Netzwerk- und Sicherheitsfunktionen ist ein zentrales Netzwerk-Management mit zentralem Kontrollpunkt für Management, Bereitstellung, Reporting, Protokollierung und Integration von Fremdanbieterdiensten essenziell. Die VXLAN-Technik (Virtual Extensible LAN) von VMware beispielsweise ermöglicht einer virtuellen Maschine eine Host- und Netzwerksegment-übergreifende, unterbrechungsfreie Mobilität ohne Rekonfiguration der Netzwerkadresse.
Um physische und virtuelle Umgebungen miteinander zu verbinden, lassen sich so genannte Netzwerk-Services-Gateways nutzen. Gute Netzwerk-Security-Plattformen stellen zudem umfassende Netzwerksicherheits-Services inklusive Firewall und vorbeugende Schutzmaßnahmen bereit sowie Security-Services wie Antivirenprogramme, IDS/IPS und Schwachstellen-Management. Zudem bieten sie Dienste wie Load Balancing oder Application-Delivery- und WAN-Optimierungs-Controller (ADC/WOC).
 
Zentrales, richtliniengesteuertes Management
Um die Verfügbarkeit geschäftskritischer Anwendungen zu erhöhen, sind im SDDC virtualisierte Infrastruktur-Services umso wichtiger, die über eingebaute Intelligenz zur On-Demand-Bereitstellung, Konfiguration und richtliniengesteuerten Kontrolle von Applikationen verfügen, sodass die Einhaltung von SLAs (Service Level Agreement) jederzeit gewährleistet ist. Damit sich alle RZ-Komponenten sinnvoll aufeinander abstimmen und orchestrieren lassen, organisiert eine zentrale, intelligente, richtliniengesteuerte Software die Provisionierung und das Management von Rechenleistung sowie Speicher- und Netzwerkressourcen. Fehler im Betriebssystem und bei Applikationen muss die Software eigenständig aufspüren und reparieren. Das Software-Defined Datacenter lässt sich damit viel einfacher und effizienter verwalten als eine physische Infrastruktur und bietet schnelleres Provisioning, richtliniengesteuerte Governance, elastische Skalierbarkeit und Cloud-übergreifende Workload-Mobilität.
Die Provisionierung erfolgt über ein Self-Service-Portal, in dem autorisierte Administratoren, Entwickler oder Geschäftsanwender Cloud-Services anfordern können, die vordefinierten Geschäftsrichtlinien entsprechen. Die Bereitstellung in einem SDDC ist hochgradig automatisiert, sodass Anwendungen in wenigen Minuten statt in Wochen einsatzbereit sind. Dabei kommen eine konsistente Methodologie sowie standardisierte und wiederverwendbare Komponenten zum Einsatz. Die Überwachungsrichtlinien sind in den Bereitstellungsprozess integriert. Intelligente Management-Software sowie die automatisierte Anzeige von Dashboards für die Echtzeit-Performance helfen bei der Einhaltung von SLAs und ermöglichen eine höhere Ressourcenauslastung. Die richtliniengesteuerte Automatisierung passt Infrastrukturressourcen an Unternehmens- und Workload-Anforderungen an. Funktionen zur Kapazitätsplanung sorgen für eine zusätzliche Verbesserung der Infrastruktureffizienz, indem sich inaktive und übermäßig bereitgestellte virtuelle Maschinen identifizieren lassen. Dies erhöht die Dichte der virtuellen Maschinen. Netzwerk, Storage, Management und Sicherheit – all diese Bereiche des Rechenzentrums – gilt es im SDDC in einem neuen Betriebsmodell für mehr Agilität und Wirtschaftlichkeit bereitzustellen. Noch ist das Software-Defined Datacenter nicht in seiner Gänze in der Praxis angekommen. Aber Schritt für Schritt lassen sich die einzelnen Bereiche innerhalb der Unternehmen schon jetzt realisieren.

Virtualisierung, Automatisierung und Kontrolle: Das SDDC stellt alle IT-Ressourcen und Anwendungen im Rechenzentrum als Software bereit und verwaltet diese mit richtliniengesteuerter Automatisierung. Bild: VMware

LANline.