Viele Unternehmen befinden sich mitten in einem Übergang zur Cloud, sei es beim Wechsel in eine Public Cloud, beim Aufbau einer eigenen Private Cloud oder beim Management einer hybriden Bereitstellung. Dabei entstehen sich fließend ändernde Umgebungen, die häufig mit neuen Diensten ausgestattet sind und in denen alte aktualisiert werden.

Der Prozess der Migration von Anwendungen in die Cloud ist jedoch nicht einfach. Die Flexibilität und der Kostenvorteil, die den Wechsel in die Cloud vorantreiben, bringen auch viele Herausforderungen mit sich: Sicherheit, Business Continuity und Anwendungsverfügbarkeit, Latenzreduzierung, Probleme mit der Transparenz, SLA-Garantien und die Isolation von Ressourcen. Auch weitere und bisweilen nicht sofort ins Auge fallende Aspekte erfordern einige Überlegungen: Lizenzierung, Anbindung an einen Cloud-Service-Provider, Architektur für hybride Bereitstellung, Schatten-IT, Automatisierung, Benutzerzugriff, Benutzerdatenschutz und Compliance-Anforderungen.

Eine der größten Herausforderungen für Unternehmen, die auf eine Cloud-Infrastruktur umsteigen, besteht darin, den Verbrauchern eine gleichbleibende Erfahrung über mehrere Anwendungen hinweg zu garantieren, von denen viele geschäftskritisch sind, auf der Grundlage von Legacy-Technik entwickelt wurden und immer noch vor Ort gehostet werden. Neben der Benutzererfahrung müssen Unternehmen auch die Sicherheitsrichtlinien beachten. Manchmal erfordern diese ein Zusammenwirken mit der Infrastruktur eines Cloud-Service-Providers oder neue Funktionen zur Ergänzung der lokalen Architektur. Dabei sehen sich Unternehmen mit neuen Sicherheitsrisiken konfrontiert, denen Anwendungen in der Cloud ausgesetzt sind, und müssen sich intensiv etwa mit Denial-of-Service, Anwendungssicherheit und Compliance befassen.

Application Delivery Controller (ADCs), allgemein als Load Balancer bezeichnet, übernehmen heute weitere Aufgaben, etwa Latenzreduzierung oder Security-Funktionen. Im Bild das Radware-Modell Alteon 10000. Bild: Radware

Einfache Implementierung und Nutzung sowie Produktivitätssteigerungen sind oft die ersten Treiber für die Einführung von IT-Services in der Cloud. Eine Möglichkeit, Sicherheits- und Verfügbarkeitsaspekte anzugehen, besteht darin, sicherzustellen, dass die Sicherheit und Verfügbarkeit auch als Teil der Orchestrierungs- und Automatisierungssysteme für den IT-Self-Service berücksichtigt werden, ohne dass zusätzlicher Aufwand für die Einführung von Cloud-basierenden IT-Anwendungen erforderlich ist.

Verfügbarkeit und Skalierbarkeit

An dieser Stelle kommen Application Delivery Controller (ADCs) ins Spiel, die allgemein als Load Balancer bezeichnet werden, sich jedoch weit über die reine Lastverteilung hinaus entwickelt haben. ADCs konzentrieren sich auf verschiedene Aspekte, um Anwendungen zu unterstützen. Insbesondere reduzieren sie die Latenz, die ein Benutzer beim Zugriff auf die Anwendung wahrnimmt, und sorgen so für eine gefühlt ständige Verfügbarkeit. Zudem helfen sie bei der Sicherung und Skalierung der Anwendungen für bei Bedarf Millionen von Benutzern.

Traditionell nutzten Betreiber Load Balancer als redundantes Paar physischer Geräte. Als die Virtualisierung in den Rechenzentren Einzug hielt, wurden auch ADCs als virtuelle Appliance eingesetzt. Jetzt, da Anwendungen in Cloud-Umgebungen wandern, sind ADCs weitere Services in der Cloud oder arbeiten als Mischung aus virtuellen, Cloud-basierenden und physischen Geräten – abhängig von Budget und gewünschten Leistungsmerkmalen sowie der Vertrautheit und Expertise des Administrators dieser Dienste. Die erhöhte Agilität, Microservice-basierende Architekturen sowie der Zwang zu kontinuierlicher Bereitstellung und Integration stellen dabei eine Vielzahl neuer Anforderungen an die ADCs.

Wie klassische Load Balancer haben ADCs nach wie vor die traditionelle Aufgabe, Anwendungen lokal in einem Rechenzentrum oder global über Rechenzentren hinweg bereitzustellen und redundante Verbindungen in einem Rechenzentrum zu realisieren. Neben der Gewährleistung hoher Verfügbarkeit von Anwendungen kommen diese Geräte auch weiterhin zur Reduzierung der Latenzzeit zum Einsatz – durch Caching, Komprimierung und Web-Performance-Optimierung. Aufgrund ihrer Position im Netzwerk haben sie jedoch zusätzliche Rollen als Security-Choreograph und Single Point of Visibility für eine Vielzahl verschiedener Anwendungen übernommen.

Anwendungs-Server entlasten

Zusätzliche Anwendungsfälle sind etwa Web Application Firewalls für den Anwendungsschutz, SSL-Inspektion zur Vermeidung von Lecks sensibler Informationen und Single Sign-on für viele Anwendungen und Dienste. Auch die Verteilungstopologie des ADCs ändert sich: ADCs arbeiten heute auch innerhalb von Containern zum Lastausgleich und zur Skalierung von Mikro-Services.

SSL Offload gilt ebenfalls als zentraler Anwendungsfall. Da SSL und TLS allgegenwärtig sind, um Web-Transaktionen zu sichern und zu schützen, ist es notwendig, Anwendungs- und Web-Server von der ressourcenintensiven Behandlung dieser Protokolle zu entlasten. Damit können sie sich auf die Geschäftsabwicklung konzentrieren, was nicht nur die Anwendungslatenz reduziert, sondern auch den Anwendungs-Footprint – mit der unmittelbaren Folge von Kosteneinsparungen.

Wenn die Zahl der Benutzer einer bestimmten Anwendung steigt, machen die Systeme neue Instanzen der Dienste verfügbar, um die Applikation zu skalieren. Das automatisierte Herauf- und Herunter-Skalieren ist einer der Hauptgründe, warum ADCs heute über integrierte und automatisierte Orchestrierungssysteme verfügen. Sie ermöglichen es ADCs, neue Anwendungsinstanzen zu finden und hinzuzufügen oder zu entfernen, ohne dass ein manuelles Eingreifen erforderlich wäre. Dies trägt nicht nur dazu bei, manuelle Fehler zu reduzieren und die Verwaltungskosten zu senken, sondern macht es auch überflüssig, dass alle Benutzer ADC-Experten sind.

Flexible Lizenzierung in der Cloud

Bei der Migration in die Cloud entstehen fast automatisch weitere Anwendungsfälle. Sogenannte elastische Lizenzen sind etwa darauf ausgerichtet, die Kosten von Lizenzen zu begrenzen, wenn Unternehmen von physischer Hardware oder virtueller Bereitstellung in die Cloud wechseln. Wer ADC-Dienste und Instanzen bei Bedarf in die Cloud verschiebt, sollte in der Lage sein, bestehende Lizenzen über eine hybride Bereitstellung hinweg wiederzuverwenden. Viele Anwender beginnen günstig mit Implementierungen in der Public Cloud, aber bei der späteren Skalierung können sich die Kosten als unvorhersehbar erweisen. Ein weiterer Anwendungsfall ist die Bereitstellung von Analysen und End-to-End-Transparenz, um die Ursache eines Problems schnell und ohne gegenseitige Schuldzuweisungen zwischen Netzwerk- und Anwendungsteams zu lokalisieren. Um eine nahtlose Migration geschäftskritischer Anwendungen in die Cloud zu ermöglichen, müssen die Unternehmen eine kontrollierte Umgebung schaffen, die das Beste aus DevOps und IT kombiniert – das heißt, Kontrolle und Sicherheit zu bewahren und gleichzeitig Agilität zu gewinnen. Dies bedeutet auch die Notwendigkeit, Anwendungen vor externen Attacken zu schützen, denn Cyberangriffe können die Verfügbarkeit drastisch reduzieren.

Fortschrittliche ADCs sind daher mit Sicherheitsfunktionen ausgestattet, die eine Integration in das Security- und das DDoS-Mitigationskonzept ermöglichen. Dazu gehört die Möglichkeit, Verkehrs- und Netzwerkzustandsparameter zu überprüfen, sodass der ADC als Alarmsystem dient, um Angriffsdaten an eine DDoS-Lösung zu melden.

Weitere ineinandergreifende Sicherheitsfunktionen umfassen die Integration mit Web Application Firewalls (WAFs), die Fähigkeit zur Entschlüsselung des SSL-Verkehrs und die Fingerabdruckerkennung von Geräten und Benutzern.

Michael Tullius ist Regional Director DACH bei Radware, www.radware.com