Einer internationalen Umfrage von Trend Micro zufolge verdoppelte sich der Anteil von Unternehmen, die Cloud-basierende Dienste nutzen oder erproben, im Jahr 2012 auf 20 Prozent. Während die geschäftlichen Vorteile des Cloud Computings auf der Hand liegen, bedeutet die Migration von Anwendungen in die Cloud den Verzicht auf Kontrolle in einem mitunter erheblichen Ausmaß.Unter denjenigen Unternehmen, die den Schritt in die Cloud bislang nicht gewagt haben, gaben mehr als die Hälfte Sicherheitsbedenken als – durchaus berechtigten – Grund dafür an. Weiterhin ergab die Studie, dass heute 46 Prozent aller Unternehmen, die bereits auf die Cloud setzen, dabei auf Sicherheitsprobleme stoßen. Viele der bislang unentschlossenen Unternehmen gaben zu verstehen, Cloud-Initiativen kämen für sie nur in Betracht, wenn Service-Provider aggressivere Strategien zum Schutz von Daten verfolgten.
 
Die Herausforderung
Unter Gesichtspunkten der Architektur sind mehrstufige Anwendungen, die in traditionellen Rechenzentren und auf lokalen Rechnern ausgeführt werden, einigermaßen sicher. Die Migration dieser Anwendungen in die Cloud bedeutet, sie über verschiedene Rechenzentren, LANs und WANs zu verteilen, sodass die Daten sichtbarer und damit verstärkt Bedrohungen ausgesetzt werden. Angesichts der Vielzahl von Malware-Bedrohungen wie Viren, Würmern, Trojanern, Rootkits, Spyware und Scareware-Scams sind Cloud-Service-Provider daher in der Pflicht, ihre Dienste zu sichern und deren Leistungsfähigkeit zu garantieren.
Denn solche böswilligen Eingriffe können den Betrieb von Rechnern beeinträchtigen und Daten für Bedrohungen wie DDoS-Angriffe (Distributed Denial of Service) anfälliger machen, die sich in Form von Leistungseinbußen und Zugriffsbeschränkungen zeigen. Die Cloud bietet gleich mehrere Angriffsflächen:
„Hintertüren“ in Anwendungen mit Komponenten auf verschiedenen Servern in einem oder mehreren Rechenzentren, die über Netzwerke miteinander verbunden sind, auf die über das Internet oder andere Anwendungen zugegriffen werden kann,
Kunden selbst können durch unzureichende Zugriffskontrollen und Wartungsmaßnahmen in der Cloud unbeabsichtigt Angreifer einladen und so die Sicherheit ihrer Daten gefährden, und
Virtualisierungen, bei der mehrere virtuelle Maschinen (VMs) nebeneinander auf demselben Host ausgeführt und auf demselben Datenträger gespeicherte Daten über das Netzwerk übertragen werden.
Die Isolierung der Anwendungen und Daten von Kunden gestaltet sich dabei zunehmend schwieriger, da die Anzahl von Kunden und die Größe von Rechenzentren unentwegt steigen.
In Cloud-Rechenzentren kommen virtualisierte Hosts zum Einsatz, die über angebundene hochleistungsfähige Storage-Arrays umfangreiche Speicherkapazitäten bereitstellen. Theoretisch bieten VMs auf diesen Hosts eine wesentlich höhere Leistung als die unabhängigen Hosts, die sie ersetzen, und so ein besseres Benutzererlebnis. In der Praxis müssen sich Anwendungen aus unterschiedlichen Quellen auf einem virtuellen Host zuweilen Prozessor- und Speicherressourcen mit weitgehend inaktiven Anwendungen teilen, gelegentlich sind sie jedoch auch mit hochgradig aktiven Anwendungen und deren Ressourcenhunger konfrontiert. Virtuelle Switches können ebenfalls einen Wettstreit um Ressourcen im virtuellen Host auslösen.
Um die steigende Last zu bewältigen, können VMs im selben oder in einem zweiten Rechenzentrum instanziiert sein, wodurch es allerdings zu zusätzlichen Verzögerungen kommt. Auch der Prozess der Virtualisierung selbst eröffnet durch das Erfordernis weiterer Komponenten neue Angriffsflächen: Hypervisoren, VMs, virtuelle Switches und Verwaltungs-Server setzen Anwendungen und Daten zusätzlichen Risiken aus.
Rund um diese neuen Schwachstellen haben sich bereits verschiedene Angriffsformen etabliert:
VM-Ausbruch: Programme können aus einem VM-Gastsystem ausbrechen und Code in den Hypervisor einschleusen und dort ausführen,
VM-Hopping: Programme in einem VM-Gastsystem können Schwachstellen in einer virtuellen Infrastruktur oder einem Hypervisor ausnutzen, um Code in anderen VM-Gastsystemen auszuführen,
VM-Diebstahl: Gestohlene Images virtueller Maschinen können auf anderen Systemen gemountet und ausgeführt werden und
Hyperjacking: Eindringlinge ersetzen Hypervisoren, die virtualisierte Hosts kontrollieren, durch eigene, modifizierte Versionen, um die Kontrolle über VMs zu erlangen.
 
Erhöhung der Sicherheit von Beginn an
Zur Entwicklung einer Sicherheitsstrategie ist es zunächst hilfreich, sich ein Cloud-Rechenzentrum als eine Art Internet im Kleinen vorzustellen. Verschiedenste Anwendungen sind per Virtual Desktop Interface (VDI) in virtuellen Desktop-Umgebungen ausgeführt, zudem gilt es, Intranet-Webserver sowie umfangreiche SaaS- und Social-Media-Anwendungen zu unterstützen.
Ungeachtet der Vielzahl der von Cloud-Rechenzentren unterstützten Clients lassen sich dabei stets ähnliche Strategien zu deren Schutz anwenden. In den meisten Unternehmen sorgt eine Firmen-Firewall als „Eingangstür“ dafür, dass nur bestimmte Arten von Datenverkehr das Netzwerk betreten und verlassen. Unterstützung erhält die Firewall von VPN-Gateways, Intrusion-Detection-Systemen (IPS), Anti-Spam-Software, Virenschutzprogrammen und Systemen zum Schutz vor Datenverlust. Oft sind diese Funktionen in einem Unified-Threat-Management-System (UTM) zusammengefasst, das auf einem einzigen virtualisierten Host läuft.
Um die Sicherheit von Cloud-Rechenzentren zu gewährleisten und sie auf dem aktuellen Stand zu halten, sind jedoch zusätzliche Elemente erforderlich. Dazu zählen etwa Sicherheits-Appliances, Hypervisoren, virtuelle Verwaltungssysteme sowie Netzwerkkomponenten wie Switches, Router, Load Balancer und Deep Packet Inspection (DPI).
Folgende Methoden finden im Rahmen von Sicherheitsstrategien häufig Anwendung:
VLANs, in denen Clients durch die Zuweisung von VLAN-IDs an Anwender voneinander isoliert und Switches so programmiert sind, dass Datenverkehr aus anderen VLANs abgeschirmt ist. Diese Methode ist jedoch für manuelle Konfigurationsfehler und andere Schwachstellen in der Konfiguration von Hypervisor und virtuellem Switch anfällig, die den Datenverkehr für Angreifer sichtbar machen,
Verschlüsselungsverfahren zur Gewährleistung des Datenschutzes und der Authentifizierung des Senders und
„Niedrige“ Firewalls, die mittels Hypervisor-Hooks Sicherheitsrichtlinien für VLAN-Isolierung, Benutzerauthentifizierung und Protokollzugriff durchsetzen.
Während all diese Methoden eine wichtige Rolle spielen, besteht das wertvollste Mittel gegen dauerhafte Risiken in der proaktiven, fortlaufenden Bewertung, Belastung, Überwachung und Weiterentwicklung von Sicherheitsmaßnahmen rund um die Cloud.
 
Intensivierung von Sicherheitsmaßnahmen
Rechenzentrumsbetreiber können es sich kaum leisten, sich auf Zahlen aus Best-Case-Szenarien zu verlassen, die die theoretische Leistung von Sicherheitskomponenten angeben. Wie andere grundlegende Aspekte der Netzwerk- und Anwendungsleistung auch sind Sicherheitslösungen und -Maßnahmen während des gesamten Lebenszyklus einer Investition sorgfältig zu prüfen. So müssen auch über die Entwurfs- und Bereitstellungsphase hinaus Qualität und Einhaltung gesetzlicher Auflagen durch wiederholte Bewertungen sichergestellt sein.
Die Leistung ist dabei durch die Anwendung realitätsnaher Netzwerklasten und Bedrohungen zu analysieren. Mithilfe spezialisierter Testsysteme lassen sich neben solchen Bedrohungen und Netzwerkbedingungen auch Nutzer emulieren. Dabei sollte eine Kombination aus verschiedenen Arten von Leitungsverkehr – Sprache, Video, Daten – über die Sicherheits-Appliance laufen, sodass sich mit der Gesamtmenge an bösartigem und normalem Datenverkehr die maximale Belastung der Schnittstellen der Appliance erreichen lässt. Die QoE einzelner Dienste ist anschließend mithilfe einschlägiger Metriken messbar, um ein zufriedenstellendes Benutzererlebnis zu gewährleisten.
Geräte, die für die Sicherheit von zentraler Bedeutung sind, sollten die Betreiber im Idealfall mithilfe verschiedener Methoden und simulierter Angriffe testen lassen. Die Spezialisten von Ixia empfehlen beispielsweise folgende Methoden und simulierte Bedrohungen:
Simulierte DDoS-Angriffe (Distributed Denial of Service), bei denen Tausende vorgetäuschte Rechner die Fähigkeit von Geräten zur Abwehr von Angriffen testen,
Prüfung auf bekannte Sicherheitslücken mittels Malware-Datenbanken, Eindringversuchen und anderer Angriffsarten. Um festzustellen, ob eine Sicherheits-Appliance Angriffe vollständig abwehren und gleichzeitig ein akzeptables Leistungsniveau aufrechterhalten kann, sollten Angriffe in hoher Geschwindigkeit auf mehrere bekannte Sicherheitslücken stattfinden,
Prüfung auf Datenlecks, bei der mittels ausgehenden Datenverkehrs in Form von E-Mails, Anhängen, Formulardatensätzen, FTP-Übertragungen und IM-Nachrichten zu ermitteln ist, wie effektiv Geräte zur Datenverlustvermeidung Lecks erkennen und
„Fuzzing“ oder die absichtliche Erzeugung fehlerhafter Daten, um die Verarbeitung problematischen Datenverkehrs durch empfangende Programme zu bewerten.
Mithilfe der genannten Methoden lassen sich unbekannte Schwachstellen in Betriebssystemen, Internet-Protokollen, Grafik-Tools und anderer Software aufdecken.
 
Literatur
Cloud Security Survey Global Executive Summary. Trend Micro, August 2012: lanl.in/V8puoU%5Bcaption id=““ align=“alignnone“ width=“555″]

Cloud-Systeme sind neben den traditionellen Gefahren auch neuartigen Angriffskonzepten ausgesetzt.
[/caption]
LANline.