Tücken der Server-Virtualisierung

Kontrolle über die IT zurückgewinnen

21. März 2013, 7:00 Uhr | Georg Kieferl, Geschäftsführer bei Realtech Software Products (wg),

Unternehmen setzen auf Virtualisierung, um Kosten zu sparen und die Agilität ihrer IT zu erhöhen. Doch die Verantwortlichen verlieren dabei den Überblick. Durch undurchsichtige Konfigurationen sind die Übergänge zwischen physischer und virtualisierter Welt nicht mehr erkennbar und die tatsächliche Nutzung virtualisierter Systeme nicht mehr transparent. Nach Schätzungen laufen über die Hälfte der VMs (Virtual Machines), ohne wirklich gebraucht zu werden, und belasten Unternehmen mit unerwarteten Kosten. Dieses Risiko kann nur vermeiden, wer handelt und sich die Kontrolle über seine IT zurückholt.Die Server-Virtualisierung lockt Unternehmen bereits seit einem Jahrzehnt, wenn es darum geht, IT-Landschaften mit maximaler Effizienz zu betreiben. Und das mit Recht: Virtualisierte Systeme sind fester Bestandteil des heutigen IT-Betriebs. Sie kommen zum Einsatz, um die immer komplexeren heterogenen Systemlandschaften zu konsolidieren, und sorgen dafür, dass Anwendungen mit geringstem Aufwand, effektiv kontrolliert und hochverfügbar laufen. Damit ist das Potenzial noch lange nicht ausgeschöpft: Mittlerweile geht der Trend in Richtung Hybrid Cloud, in der eine IT-Organisation sowohl Leistungen aus der unternehmenseigenen Private Cloud als auch Services aus der Public Cloud zusammenfasst. Die Vorteile dieses Trends sind offensichtlich. Fraglich ist jedoch, inwieweit die Datensicherheit im Cloud-Mix wirklich zu gewährleisten ist und wie man bei derartiger Komplexität den Überblick behalten kann. Ohne Transparenz und ein umfassendes Sicherheitskonzept wird Virtualisierung zum Risikofaktor. Denn durch die unübersichtliche Nutzung der virtuellen Maschinen entstehen anhaltende Performance-Engpässe. Auf Druck der klagenden Anwender läuft die IT-Organisation ständig dem Bedarf hinterher und fügt neue Hardware hinzu. Da die Transparenz über die aktuellen Kapazitäten und Konfigurationen fehlt, investiert man immer mehr - die Folge: höhere Kosten. Auch die Auswirkungen von Störungs- und Wartungssituationen auf die Verfügbarkeit unternehmenskritischer Anwendungen sind unklar. Was passiert beispielsweise, wenn ein Storage-Gerät zu warten ist? Welche Systeme, Applikationen und Anwender sind davon betroffen? Durch fehlende Transparenz der Abhängigkeiten lassen sich notwendige Wartungen mitunter nicht mehr rechtzeitig durchführen - die Folge: Systemausfälle. Ein weiteres oft unterschätztes Thema ist die Datensicherheit. Wie sicher sind die virtualisierten Maschinen tatsächlich? - Das Marktforschungsunternehmen Gartner schätzt, dass 60 Prozent der 2012 virtualisierten Server weniger sicher sind als ihre physischen Kollegen (Link). Virtualisierungslösungen wie jene von Citrix, IBM, Microsoft oder VMware öffnen neue Angriffsstellen, die sowohl die Sicherheit einzelner VMs, als auch die gesamte Virtualisierungsinfrastruktur betreffen können. Ein Angreifer hat dabei mehrere Wege, um Zugriff auf sensible Daten zu erhalten. Einige liegen in der Natur der Virtualisierung, die meisten entstehen durch sorglose Administratoren - die Gefahr: Datenmissbrauch.   Der Weg aus dem Dunkel Um das Potenzial der Virtualisierung ausschöpfen zu können, bedarf es mehr als nur der reinen Virtualisierungstechnik. Die zahlreichen Risiken kann nur vermeiden, wer der wachsenden Komplexität den Kampf ansagt, das Virtualisierungs-Management ganzheitlich, also aus technischer und betriebswirtschaftlicher Sicht betrachtet und in das unternehmensweite ITSM (IT-Service-Management) integriert. IT-Verantwortliche müssen zu jeder Zeit die Struktur und den Zustand ihrer Landschaft kennen, um die vereinbarten Services mit maximaler Qualität, minimalem Risiko und vertretbaren Kosten bereitstellen zu können. Die nächstliegende Möglichkeit zur Erfüllung dieser Anforderungen ist die Nutzung der teils kostenfreien Management-Tools der Hardwarehersteller. Diese bieten allerdings lediglich eine Übersicht über Status und Performance der jeweils herstellereigenen Server und berücksichtigen weder Zusammenhänge mit der physischen IT-Infrastruktur noch Geschäftsrelevanz, Organisationsmodelle oder Verantwortlichkeiten. Den Administratoren ist so zwar die Auslastung ihrer Maschinen transparent, aber nicht die möglichen Auswirkung auf Business-Services und Anwender. Dies führt zu schlechter Servicequalität durch ineffektive Administration, hohem Aufwand im Betrieb sowie völliger Intransparenz für den Benutzer. Damit Verantwortliche die Kontrolle über ihre IT-Landschaft wiedererlangen können, sollte die Investitionsentscheidung deshalb auf ein Management-Tool fallen, das alle Abhängigkeiten innerhalb der virtuellen Welt und zwischen virtueller und der physischer Landschaft abbilden kann.   Virtuelle Umgebungen automatisch darstellen Um die Administratoren bestmöglich zu entlasten, sollte die Management-Software alle Informationen und den Status der virtualisierten Komponenten, Anwendungen und Services sowie deren Abhängigkeiten untereinander automatisch erfassen und darstellen können. Alle für Virtualiserungslösungen typischen Informationen muss eine solche Lösung erfassen, normalisieren (also vergleichbar machen) und übersichtlich abbilden können. Moderne Softwarelösungen erfassen hier alle wesentlichen Komponenten - Virtualisation Cluster, Hypervisor, Virtualisation Pool, Virtual Machine, Network sowie Storage - und bieten umfassende Analysemöglichkeiten. IT-Verantwortliche erhalten so die Möglichkeit, auf fundierter Basis zu entscheiden, welche Ressourcen sich am besten zur Konsolidierung und Virtualisierung eignen. Der Echtzeitblick auf die gesamte Virtualisierungslandschaft trägt außerdem dazu bei, dass sich das Risiko einer Beeinträchtigung der Serviceverfügbarkeit durch Systemveränderungen erheblich senken lässt.   Virtuelle und physische IT zentral verwalten Das Beispiel der Storage-Anbindung verdeutlicht, wie wichtig es ist, auch die physischen Bestandteile in die Überwachung der virtualisierten Welt zu integrieren. Genau diese Anforderung führt in der Praxis allerdings oft zu Problemen. Klar ist auch hier: Mit den einzelnen Hersteller-Tools kommen Administratoren an dieser Stelle ebenfalls nicht weiter. Sie sind funktional zu sehr eingeschränkt. Der einzig gangbare Weg ist der Einsatz einer modernen IT-Service-Management-Lösung, die neben dem klassischen physischen Netzwerk-Monitoring auch virtuelle Komponenten überwacht. Virtualisierungslösungen betreiben über virtuelle Switches (Vswitches) ein virtuelles Netzwerk, das dem physischen Netzwerk sehr ähnlich ist: Jede VM ist an einen Vswitch-Port angeschlossen. Diese Vswitches bilden, inklusive Port-Monitoring, die Funktionen physischer Netzwerk-Switches nach. Da sie jedoch nicht über das verbreitete SNMP-Protokoll erreichbar sind, muss das moderne Netzwerk-Management auch die proprietären Protokolle zum Erfassen der Monitoring-Daten der virtuellen Komponenten beherrschen. Bisher gibt es nur wenige Softwarelösungen, die diese Anforderung erfüllen.   Virtual Traffic Monitoring und Intrusion Prevention Einen Einblick in virtuelle Netze bietet außerdem der neue Standard IEEE 802.1Qbh. Er spezifiziert Hardware, Software und Protokollstandards, um die Verbindungen zwischen physischen und virtuellen Layer-2-Verbindungen im Rechenzentrum zu vereinfachen und zu automatisieren. Damit ist zwar die Kommunikation physischer und virtueller Switches untereinander definiert, leider schließt dieser Standard aber keine Management-Funktionen mit ein. Für den Administrator hat dies die Konsequenz, dass er Performance-Einbrüche, zum Beispiel ausgelöst durch einen Virenangriff, in virtualisierten Infrastrukturen nur erheblich schwerer aufspüren kann als solche in physischen Netzen. Auch klassisches Flow-Monitoring wie Netflow, Sflow etc. versagen hier, da der Verkehr zwischen virtuellen Maschinen für die physische Netzwerkinfrastruktur unsichtbar ist. Nur wenige IT-Verantwortliche haben diese Problemstellungen wirklich erkannt. Viele tolerieren den Quasi-Blindflug ihrer Netzwerk- und Systemadministratoren, obwohl dies erhebliche Sicherheitsrisiken birgt. Verschiedene Anbieter von Flow-Monitoring-Tools liefern Probes, um Messungen innerhalb virtualisierter Umgebungen zu ermöglichen. Es gibt dabei zwei Ansätze: Die Probes laufen auf jeder virtuellen Maschine oder als eigenständige VM. Dabei kommunizieren sie mit den virtuellen Netzwerkelementen und bilden eine Statistik über die ausgetauschten Daten (Flows). Das Problem: Die meisten virtuellen Probes sind auf die jeweiligen Netzwerkanalyseprodukte zugeschnitten und funktionieren nur mit den Netzwerk-Management-Lösungen des Herstellers. Steht die IT-Abteilung vor der Entscheidung für ein übergreifendes Tool, sollte sie deshalb unbedingt prüfen, ob die Software sich an die gängigen Flow-Monitoring Standards (Netflow, Sflow, Jflow) hält. Eine moderne IT-Management-Lösung bietet an dieser Stelle eine Kombination aus virtuellen Probes und dem Flow-Monitoring aus physischen Switches und Routern. So ermöglichen sie eine Ende-zu-Ende-Sicht und legen den Grundstein für ein präventives Sicherheits-Management. Neben der Prävention sollten IT-Verantwortliche allerdings unbedingt auch eine Lösung parat haben, wenn dann doch mal ein Virus Zugang zum Server erlangt hat. State-of-the-Art-Lösungen liefern hier umfassende Intrusion-Prevention-Systeme (IPS), die über die reine Event-Generierung hinausgehen und eine gezielte Angriffsabwehr ermöglichen. Die dazu notwendige Funktionalität wird durch Hypervisor-gestützte Stateful Firewalls (Vfirewalls) realisiert. Hier prüft eine integrierte Intrusion Detection Engine die Pakete auf Malware und schädlichen Datenverkehr, um bei Bedarf Warnungen zu versenden.   Echtzeitanalysen, Berichte und Dashboards Um die Leistung der IT messbar zu machen, sollten Verantwortliche bei der Investitionsentscheidung außerdem auf die Qualität der Funktionen für Konfigurations- und Performance-Analysen achten. Erforderlich sind Echtzeitanangaben zu Leistungsvoraussage und -historie, Energieverbrauch, Verfügbarkeit sowie eine ausgereifte Kapazitätsüberwachung, um die VM- und Cluster-Leistung wie auch die Nutzung der physischen Ressourcen abbilden und auswerten zu können. IT-Verantwortliche benötigen Antworten auf Fragen wie zum Beispiel: Wie viele Ressourcen kann man einer neuen VM-Einheit zuteilen, ohne die gesamte Systemverfügbarkeit zu gefährden? Wie stark verringern sich Energieverbrauch und Umweltbelastung durch Virtualisierung tatsächlich? Die Hersteller-Tools stoßen auch hier wieder schnell an ihre Grenzen. Nur ein zentralisiertes Management-Werkzeug stellt all dieses Informationen zielgerichtet zur Verfügung. So können IT-Verantwortliche bereits beim VM-Provisioning Informationen über CPU-, Memory- und Storage-Ressourcen sowie deren momentane und durchschnittliche Auslastung auf Cluster, Hypervisor und Pool-Ebene nutzen. Erweiterte Funktionen der Hersteller-Tools sollten man allerdings unbedingt integrieren können. So bietet zum Beispiel VMware erweiterte Funktionen wie Memory-Overcommitment, Page Sharing und Memory Ballooning, was die Möglichkeit eröffnet, mehr VMs je Hypervisor/Cluster als bei Mitbewerberlösungen zu betreiben. Das Management-Tool sollte all diese Spezialfälle kennen und entsprechend angepasste Konfigurationsparameter bereitstellen. Mit den richtigen Analysefunktionen erreichen IT-Verantwortliche eine effektivere Auslastung der vorhandenen Virtualisierungs-Ressourcen, minimieren Kosten für Hardware, Energie und Administrationsaufwand und stellen eine schnellere Amortisation der virtualisierten Ressourcen sicher. Die IT-Organisation kann die vereinbarte Service-Qualität erbringen, da sie Ursachen für Systemstörungen schneller identifizieren und beheben kann, ohne dabei die Verfügbarkeit umsatzkritischer Anwendungen zu gefährden.   Fazit Wer die Kontrolle über seine virtualisierten Server zurückgewinnen will, sollte langfristig in eine umfassende IT-Service-Management-Lösung mit integriertem Virtualisierungs-Management investieren. Von der Nutzung der teils kostenfreien Hersteller-Tools sollte man eher Abstand nehmen: Sie bieten lange nicht den Funktionsumfang einer zentralen Service-Management-Lösung und überraschen oft mit versteckten Kosten. Besonders innovative Produkte bieten an dieser Stelle sogar die Möglichkeit, die komplette IT-Infrastruktur abzubilden - also auch physische Bestandteile zu integrieren. Dadurch wird die Service-Qualität und Verfügbarkeit von vornherein verbessert und das Risiko für Systemausfälle verringert. Sollte es dennoch zu Beeinträchtigungen kommen, sorgen umfassende Konfigurations- und Performance-Analysen über die Beziehungen zwischen den einzelnen Komponenten für ein schnelles Erkennen und Beheben der Störung. Eine transparente Sicht auf die Infrastruktur und deren Auslastung veranschaulicht, welche Komponenten tatsächlich erforderlich sind und welche nicht - Mehrkosten für Hardware und Energie sind Geschichte. Gleichzeitig kann die IT-Organisation Sicherheitsrisiken aufgrund von Fremdzugriffen mittels umfassendem Traffic Monitoring und speziellen Sicherheitsmechanismen erheblich senken.

Die Darstellung zeigt detailliert den kürzesten Netzwerkpfad von einem physischen Drucker zu einem virtualisierten Server. Die auf dem Weg liegenden physischen und virtuellen Switches werden automatisch erkannt. Bild: Realtech

Checkliste für ein umfassendes Virtualisierungs-Management. Bild: Realtech

Darstellung der Virtualisierungsumgebung mit deren Abhängigkeiten und Status der einzelnen Komponenten. Bild: Realtech
LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu HFO Telecom AG

Weitere Artikel zu novomind AG

Matchmaker+