Die Notwendigkeit zur Windows-10-Migration, immer schnellere Update-Zyklen und nicht zuletzt rasant steigende Anforderungen an die Datensicherheit (Stichwort DSGVO) machen den virtuellen Desktop für viele Unternehmen zur ersten Wahl und sind für einige regulierte Branchen sowie Behörden beinahe unverzichtbar. Schließlich erlauben moderne Lösungen zur Desktop-Virtuali-sierung eine einfachere und effektivere Absicherung des Betriebssystems im RZ, während effizient verwaltete Thin oder Zero Clients kaum noch Angriffsfläche für Schadsoftware bieten und den Administrationsaufwand minimieren.

Lange Zeit galt die Desktop-Virtualisierung (VDI) als anspruchsvolles Unterfangen, das häufig nicht alle Anforderungen der Benutzer im Bezug auf Funktionalität und Performance abdecken konnte. Die Virtualisierung von Servern und Applikationen hatte längst in vielen Unternehmen Einzug gehalten, doch mangelnde Bandbreite, ressourcenhungrige Applikationen, hohe Infrastrukturkosten und mangelnde Leistung der Endgeräte stellten VDI-Projektbeteiligte vor teils unlösbare Konflikte. Dabei kann das Konzept virtualisierter Desktops gerade heute seine Stärken besonders gut unter Beweis stellen.

IT-Transformation und HCI

Die Komplexität von Desktop-Virtualisierungslösungen liegt nicht selten in der Verwendung klassischer IT-Architekturen begründet. Die richtige Justierung aller Stellschrauben der zahlreichen Komponenten (Rechenleistung, Speicher, Netzwerk) eines klassischen Designs zu finden, stellt auch für erfahrene IT-Mitarbeiter häufig eine große Herausforderung dar. Die realitätsnahe Vorhersage künftiger Anforderungen erschwert zudem Entwurf und Planung noch weiter. Sind Verfügbarkeit und/oder Fähigkeiten des eigenen Personals diesen Aufgaben nicht gewachsen, so bleibt den Verantwortlichen oft nur das Hinzuziehen externer Spezialisten.

Die Evolution der Thin Clients in den letzten zehn Jahren. Bild: Dell

Bereits in dieser Phase lassen nicht selten zeitlicher Aufwand und Kosten ein solches Projekt unattraktiv erscheinen. Manche Hardware- und Softwareanbieter offerieren daher mit Referenzarchitekturen auf HCI-Basis (Hyper-Converged Infrastructure) einen Lösungsansatz, der die Komplexität erheblich reduziert und den zukünftigen Anforderungen durch einfachste Skalierbarkeit Rechnung trägt. HCI basiert auf einheitlichen Appliances, also Bausteinen, die die Rechen-, Speicher- und Netzwerkressourcen in einem Block vereinigen. So kann ein IT-Team mittels HCI eine funktionierende Infrastruktur in einem Bruchteil der Zeit in Betrieb nehmen, die für eine entsprechende klassische Infrastruktur vonnöten wäre. Die Skalierung erfolgt einfach durch das Hinzufügen einer weiteren Appliance.

Grafikvirtualisierung

Anspruchsvolle 3D-Applikationen wie CAD benötigen GPU-Unterstützung, auch wenn sie auf einem virtualisierten Desktop-Betriebssystem laufen. Man musste also eine Lösung finden, um dem virtualisierten Desktop-OS eine Grafikleistung vergleichbar der einer Workstation-Grafikkarte bereitzustellen. Konnte man diese GPU-Unterstützung in den Anfangstagen der Desktop-Virtualisierung durchaus noch als Nischenfall bezeichnen, ist sie heute dank modernerer und immer anspruchsvollerer Benutzerschnittstellen der Desktop-Betriebssysteme beinahe zum Standard geworden.

Die Migration zu Windows 10 macht im VDI-Umfeld zwar keine High-End-Grafikkarte zwingend erforderlich, aber völlig ohne Grafikunterstützung wird der Betrieb in der Praxis nur bedingt möglich sein. Laut Daten der Lakeside SysTrack Community [1] steigt die Nutzung der GPU allein durch den Umstieg von Windows 7 zu Windows 10 um ganze 32 Prozent. Unternehmen wie Nvidia bieten virtualisierte Grafikkarten, deren Ressourcen man granular mehreren virtuellen Desktops zuweisen kann. Dadurch stellt eine einzelne Grafikkarte ihre Rechenleistung bis zu 64 virtuellen Desktops zur Verfügung. In einem einzelnen Server oder einer Appliance lassen sich mehrere dieser Grafikkarten verbauen, sodass man eine angemessene Benutzerdichte erreicht.

Das Remote-Display-Protokoll ist für die Übertragung der Bildschirminhalte zum Endgerät und für die Anbindung der am Endgerät angeschlossenen Peripherie an einen virtuellen Desktop verantwortlich. Seiner Auswahl ist daher besondere Aufmerksamkeit zu schenken. Denn es gibt eine Vielzahl unterschiedlicher Optionen, darunter RemoteFX, HDX, PCoIP oder Blast.

Remote-Display-Protokolle

Glücklicherweise hat auch dieser Bereich der VDI-Lösung in den vergangenen Jahren erhebliche Innovationen erfahren. Fast alle Remote-Display-Protokolle unterstützen heute zum Beispiel die Nutzung von TCP und UDP als Transportmechanismus. So kann man die jeweiligen Vorteile der Protokolle für den abzubildenden Anwendungsfall gezielt nutzen. Hat man beispielsweise mit hoher Latenz im Netzwerk zu kämpfen, so kann UDP die Nachteile in der Benutzerinteraktion weitgehend kompensieren. Denn es arbeitet verbindungslos und verzichtet auf Bestätigungen ebenso wie auf eine absolut fehlerfreie Übertragung.

Der Einsatz eines TCs mit mehreren Displays wird immer mehr zum Standard. Bild: Dell

Neben der Latenz stellt auch die verfügbare Bandbreite oft eine besondere Herausforderung dar. Während sie sich in den vergangenen Jahren stetig verbesserte, haben die Hersteller der Virtualisierungslösungen parallel dazu bei der Weiterentwicklung ihrer Remote-Display-Protokolle immer tiefer in die Trickkiste gegriffen, um mit der kostbaren Bandbreite möglichst effizient umzugehen. So nutzt beispielsweise VMwares Blast-Protokoll eine Technik zur Komprimierung und Kodierung, die man unter anderem im Multimedia-Umfeld schon lange kennt: den H.264-Codec. Tatsächlich handelt es sich damit beim endgeräteseitig dargestellten Desktop im Grunde um einen „Film“. Für die Kodierung lässt sich sogar die oben erwähnte GPU heranziehen, und die über das Netzwerk zu übertragende Datenmenge schrumpft ganz erheblich. Sollte in bestimmten Bildschirmregionen selektiv die verlustfreie Übertragung von Informationen erforderlich sein, stellen moderne Remote-Display-Protokolle auch dies sicher.

Was die Peripherie angeht, lassen sich heute neben seriellen und parallelen Schnittstellen auch Smartcards und komplexe USB-Peripherie in die Sitzung „virtualisieren“. Aus Sicht des im RZ virtualisierten Desktop-Betriebssystems sieht das dann so aus, als sei das Peripheriegerät lokal angeschlossen. Spezielle Techniken helfen zusätzlich, Datenmengen oder Verzögerungen beim Peripherieeinsatz zu minimieren.

Wie sieht nun aber das Endgerät idealerweise aus? Das lässt sich leider häufig so pauschal nicht beantworten. Zu groß ist die Bandbreite unterschiedlicher Einsatzfälle und Anforderungen. Für den stationären Arbeitsplatz jedenfalls gibt es sinnvolle Alternativen zu klassischen Desktop-PCs. Schließlich muss am Endgerät nicht einmal mehr ein Betriebssystem vorhanden sein, da dieses nun virtualisiert im Rechenzentrum ausgeführt wird.

Wahl der Endgeräte

In Zeiten funktionierender Desktop-Management-Systeme ist die Versuchung groß, einfach weiterhin den klassischen Desktop-PC einzusetzen – zum Beispiel aus Abschreibungsgründen.

Betrachtet man aber den Aufwand für den Schutz des Endgeräts vor Malware, den Energiebedarf und die Ausfallhäufigkeit klassischer Desktop-PCs aufgrund der verbauten beweglichen Teile, so wird schnell klar, dass man mit einem Thin Client oder Zero Client (also einem besonders verwaltungsarmen Thin Client) unter gewissen Umständen erheblich besser fährt.

Diese Geräte sind auf den Einsatz mit einer Desktop-Virtualisierungslösung spezialisiert. Sie verfügen über weniger Rechenleistung und praktisch keinen lokalen Speicher, da die Verarbeitung und Speicherung der Daten schließlich im Rechenzentrum erfolgt. Dennoch handelt es sich keineswegs um „schwachbrüstige“ Rechner. Vielmehr ist ihre Leistungsfähigkeit genau auf den Anwendungsfall abgestimmt: Sie verfügen über ausreichend Leistung zur Dekodierung und Darstellung der über das Remote-Display-Protokoll angelieferten Daten. Selbst auf eine angemessene lokale GPU wird nicht verzichtet, die wertvolle Dienste bei der Dekodierung des H.264-Datenstroms leisten kann.

Moderne Thin Clients sind in zahl-reichen Konfigurationen erhältlich. Bild: Dell

Die CPU wiederum verfügt zumeist über hinreichend Reserven, um auch anspruchsvollere Aufgaben wie Videotelefonie erfolgreich zu meistern. Manche kompakte Geräte bringen auf einer Grundfläche von nur 10 cm × 10 cm einen Intel-Quad-Core Prozessor und zwei WQXGA-Monitoranschlüsse unter, und dies bei einer Leistungsaufnahme von weniger als 5 W. Am anderen Ende des Spektrums findet man Modelle, die den Betrieb von sechs Monitoren ermöglichen, vier davon in 4k-UHD-Auflösung und zwei weitere in 2k-WQXGA-Auflösung. Ebenso vielfältig ist die Bandbreite und Anzahl der verfügbaren Peripherieschnittstellen.

Die Verwaltung dieser Geräte kann über eine lokal installierte Management-Konsole oder auch über eine Cloud-basierte Management-Lösung erfolgen. Auch dies ist ein willkommener Beitrag zu weniger Komplexität, da Aufbau und Betreuung der Management-Infrastruktur entfallen. Die Verwaltung von Thin Clients unterscheidet sich dabei grundsätzlich von komplexen Desktop-Management-Systemen, da der Fokus beim Thin Client mehr auf der Konfiguration als auf Imaging und Softwareverteilung liegt. Dieser Vorteil spiegelt sich auch in der Benutzererfahrung wieder – zeitaufwendige Updates von Betriebssystem und Applikationen erfolgen im Hintergrund im Rechenzentrum, häufig wird nur noch ein „Golden Image“ aktualisiert. Für den Benutzer ist die zeitraubende Update-Prozedur unsichtbar: Er sieht bei seiner nächsten Anmeldung nur das Ergebnis.

Fazit: Neue Einsatzfälle

Moderne RZ-Infrastruktur, gepaart mit cleveren Lösungen zur Grafikvirtualisierung und leistungsfähigen Remote-Display-Protokollen, erschließen der Desktop-Virtualisierung heute Anwendungsfälle, die man vor wenigen Jahren so noch nicht umsetzen konnte. Die Thin-Client-Hersteller bieten für diese Zwecke maßgeschneiderte Endgeräte an, die im Laufe der letzten Jahre ebenfalls immer leistungsfähiger wurden und deren Verwaltung nunmehr sogar aus der Cloud erfolgt. Die Reduzierung der Komplexität im RZ sowie die vereinfachte Verwaltung, höhere Sicherheit und höhere Zuverlässigkeit der Endgeräte spart Ressourcen, die man nunmehr für wertschöpfendere Tätigkeiten verwenden kann. Insgesamt sind Aufbau und Betrieb derartiger Lösungen heutzutage deutlich kostengünstiger zu realisieren. Die zentralisierte Bereitstellung der Applikationen ermöglicht eine einfachere Absicherung von Betriebssystem, Applikationen und Daten, zugleich aber auch eine performantere und weniger störungsanfällige Kommunikation der Applikationen untereinander. Flexible Finanzierungsmodelle ermöglichen weitere Einsparungen und eine bequeme monatliche Abrechnung statt eines hohen initialen Investitionsaufwands.

Quellen
[1] Lakeside Software, „Elevating User Experience Through GPU Acceleration: A Windows 10 versus Windows 7 Analysis”, White Paper, 2017.

Klaus Becker ist Director Technology and Engineering EMEA bei Dell, www.dell.de.