Netzvirtualisierung durch SDN und NFV

Unternehmensprozesse auf dem Prüfstand

16. Juli 2017, 8:00 Uhr | Von Christian Czarnecki, Jari Geier und Karolin Pflug.

Kundenanforderungen an Netzwerke haben sich in den vergangenen Jahren stark verändert. Mit NFV und SDN sind Unternehmen technisch in der Lage, diesen gerecht zu werden. Die Provider stehen jedoch vor großen Herausforderungen: Insbesondere Produkte und Prozesse müssen angepasst und agiler werden, um die Stärken von NFV und SDN zum Kundenvorteil auszuspielen.

Es ist zu erwarten, dass die technischen Entwicklungen der Netzvirtualisierung in den nächsten Jahren größere Auswirkungen auf den Betrieb von Telekommunikationsnetzen haben werden. Dabei sind bei TK-Anbietern Veränderungen sowohl aus Kundensicht als auch aus Sicht der internen Bereitstellungs- und Betriebsprozesses absehbar. Grundsätzlich ist die Idee der Netzvirtualisierung nicht neu. Bereits in den 90er-Jahren kamen virtualisierte Netzwerke zum Einsatz, wie beispielsweise Virtual Local Area Networks (VLAN) oder Virtual Private Networks (VPN). Auch im RZ ist die Virtualisierung von technischer Infrastruktur ein gängiger Ansatz.

In den letzten Jahren hat man die technischen Voraussetzungen geschaffen, um die Virtualisierung von gesamten Telekommunikationsnetzen zu ermöglichen. Startpunkt dazu war unter anderem die Gründung der ETSI NFV ISG (European Telecommunications Standards Institute?s Industry Specification Group for Network Virtualization) 2012, welche als Zusammenschluss von sieben weltweit führenden Telekommunikationsanbietern entsprechende Standards entwickelt hat.

Treiber dieser Entwicklung sind moderne Kommunikationsanwendungen, die eine ständige Internetverbindung mit Zugriff auf mehrere Server und sogenannte Push-Dienste erfordern. Dadurch erzeugt ein heutiges Smartphone mehr als das 50-fache Datenvolumen im Vergleich zu einem Mobiltelefon vor zehn Jahren. Das somit veränderte Nutzungsverhalten und die steigenden Übertragungsvolumina fordern mehr Skalierungs- und Anpassungsmöglichkeiten seitens der TK-Anbieter.

Dem entgegen steht aber die Komplexität von historisch gewachsener Netzinfrastruktur und herstellerspezifischen Systemen. Das Problem ist nicht neu: Schon vor Jahren wurde eine stärkere Trennung zwischen der physischen Netzinfrastruktur von den Kommunikationsdiensten gefordert, was bereits 2004 in der Empfehlung zu Next-Generation Networks (NGN) der International Telecommunications Union (ITU) berücksichtigt wurde.

Heute erfährt die Netzvirtualisierung hauptsächlich durch die beiden Technologien Software-Defined Networking (SDN) und Network Function Virtualization (NFV) eine zunehmende Verbreitung. Wie es der Begriff schon beschreibt, ist die grundlegende Definition von SDN, dass die Steuerung des Netzwerks softwaremäßig erfolgt und von der Hardware entkoppelt ist. Die Netzarchitektur, die durch SDN entsteht, lässt los von den Einzelverbindungen, die jeweils separat voneinander gesteuert sind. Sie hat das Ziel, die Steuerung des Netzwerks, welche zuvor von den verschiedenen Endgeräten erfolgte, zu zentralisieren. Dazu teilt die SDN-Architektur das Netz in drei Ebenen (siehe Bild).

Das Application Layer beinhaltet alle Applikationen und Dienste. Die Netzwerksteuerung übernimmt der SDN-Controller als zentrale Instanz. Er ist programmierbar und überwacht die gesamte Netzinfrastruktur. Auf dem Infrastructure Layer befinden sich alle Netzwerkgeräte (Switches und Router). Die Aufgaben der Geräte minimieren sich auf die Weiterleitung der Datenpakete. Die Kommunikation zum Software-Controller erfolgt beispielweise über das Openflow-Protokoll, welches sich als Standardschnittstelle für die SDN-Architektur etabliert hat. Im Vergleich zur klassischen Netzarchitektur abstrahierte man die Steuerung der Switches und Router von der untersten Ebene, wodurch sich das Netzwerk für Programmierer öffnet.

Abbildung 1
Für die zentrale Steuerung des Netzwerks teilt die SDN-Architektur das Netz in drei Ebenen.

Network Function Virtualization ist ein ähnlicher Ansatz wie SDN, aber mit dem Unterschied, dass es nicht speziell das Ziel hat, alle Funktionalitäten in einer Steuerungsebene zu zentralisieren. Neben der Aufgabe, Daten zu vermitteln, kommen Management-Features wie Analysefunktionen, Sicherheitsfunktionen, Traffic Shaping etc.

Indem man mit NFV die Hardwarekomponenten durch Software emuliert, wird es für den Betreiber erheblich leichter, die zusätzlichen Funktionalitäten zu managen sowie diese hinzuzuschalten oder zu entfernen. Die Kundenanforderungen in der TK-Branche haben sich in den vergangenen Jahren stark verändert: Nutzer fordern, jederzeit und von überall auf ihre Daten Zugriff zu haben, und sind meist "alwayson". Durch das veränderte Nutzerverhalten und die vielen neuen Möglichkeiten, muss das Netz in der Lage sein, sich nach Bedarf anzupassen. Dazu gehört beispielsweise, dass sich Netzgeräte direkt konfigurieren oder hinzufügen lassen. Durch die Netzvirtualisierung sind die technischen Voraussetzungen gegeben, um diesen neuen Anforderungen zu erfüllen. Doch eine neue Technologie alleine ist nicht ausreichend. Entscheidend ist, dass die existierenden Prozesse zur Bestellung, Bereitstellung, Wartung etc. so angepasst sind, dass man die neuen Technologien auch effizient anwenden kann.

In der TK-Branche werden aktuell für die Entwicklung neuer Produkte meist sequenzielle Methoden verwendet, die sehr genau mit der Planung des gesamten Unternehmens abgestimmt sind. So muss das gesamte Projekt synchron arbeiten, und es kann erst sehr spät mit der Implementierung beginnen. Bei dieser Vorgehensweise lassen sich fehlende Anforderungen oder Fehler bei der Systemanalyse und im Entwurf erst spät erkennen.

Schnelle Anpassung durch agile Entwicklung

Die Netzvirtualisierung ermöglicht eine flexible und schnelle Anpassung des Systems. Damit Unternehmen davon profitieren können, müssen sie ihre Vorgehensweise ändern: weg von einer starren Entwicklungsmethode, hin zu einer agilen Vorgehens- und Entwicklungsweise.

Für die agile Softwareentwicklung gibt es verschiedene Methoden, doch alle arbeiten mit denselben Prinzipien. Im Fokus stehen dabei ein funktionierendes Produkt, die starke Zusammenarbeit mit dem Kunden und die Offenheit für Änderungen. Damit verbunden sind zwei Veränderungen. Als Erstes gilt es, Produkte zu designen, die aus verschiedenen Komponenten bestehen und die sich flexibel zu neuen Produkten kombinieren lassen, also eine Modularisierung der Produkte. Als Zweites veröffentlicht man nicht mehr alle Produkte gleichzeitig, sondern launcht diese einzeln oder sogar nur bestimmte Funktionen eines Produkts. Beispielsweise kann man bei klassischen VPN-Produkten zunächst eine einfache Bauform wie ein Internet-VPN auf den Markt bringen, während man die Redundanzfunktionen, beginnend bei den virtualisierten Komponenten an der Kundenlokation über die Access-Bauform bis hin zu den virtualisierten zentralen Komponenten am Hub oder Point of Presence (PoP) als Roadmap-Features nachliefert. In einer althergebrachten Release-Container-Logik wäre dies undenkbar.

Einer der größten Vorteile, den die Netzvirtualisierung hat, ist die Möglichkeit der Automatisierung. Dies ist zugleich eine der größten Herausforderungen, da die meisten Prozesse in der aktuellen Welt viele manuelle Schritte enthalten. Um Prozesse zu automatisieren, ist es notwendig, diese noch genauer zu beschreiben als bislang. An vielen Entscheidungspunkten konnte bislang ein Mensch, etwa auf der Grundlage von Erfahrungen, individuelle Entscheidungen treffen. In einer automatisierten Umgebung kommen hier starke Regeln (Policies) zu tragen. Auf ihnen basierend kann das System nun eigenständig Entscheidungen treffen. Möchte der Anwender beispielsweise ein bestehendes Produkt upgraden, muss das System alle Abhängigkeiten zu bestehenden Instanzen erkennen und insbesondere die Vereinbarkeit der neuen Ressourcen mit den bestehenden Ressourceninstanzen überprüfen. Dies können unter anderem Bandbreiten, Geografien oder Laufzeiten sein. Wichtig ist, dass diese Policies jeden möglichen Fall berücksichtigen. Neben den besser ausgeprägten Policies erfordert die Automatisierung eine ebenfalls starke Standardisierung. Da das System die Prozesse immer gleich durchführt, müssen sie hersteller- und länderunabhängig sein.

Eine weitere Möglichkeit, die durch die Netzvirtualisierung gegeben wird, ist, einzelne Services und Prozesse zentral bereitzustellen. Unternehmen, die mehrere dezentrale Einheiten haben, besitzen die Möglichkeit, die Steuerung aller Einheiten zentral zu verwalten. Ein Beispiel ist das Monitoring und Reporting. Jeder Access wird lokal bereitgestellt und die Kontrolle an eine zentrale Stelle abgegeben. Dort lässt sich der Status jedes dezentralen Access überprüfen und alle Fehler an eine zentrale Stelle melden. Setzt ein Unternehmen diese Zentralisierung um, muss es die entsprechenden Prozesse anpassen. Dementsprechend ist es notwendig zu prüfen, welche Prozesse dadurch betroffen sind.

Physische und virtuelle Ressourcen trennen

SDN trennt die physischen Ressourcen von der virtualisierten Umgebung. Dies ist der nächste Punkt, der zu Anpassungen von Prozessen führt. Ist von Ressourcen die Rede, gilt es klarzustellen, ob virtuelle oder physische Ressourcen gemeint sind. Die physischen Ressourcen sind alle Hardwarekomponenten. Die virtuellen Ressourcen sind hingegen nicht so leicht zu definieren. Alle Komponenten, die eine Software bereitstellt, etwa virtuelle Router oder virtuelle Maschinen (VMs), lassen sich als solche bezeichnen. Eine Unterscheidung zwischen virtuellen und physischen Ressourcen ist in den meisten Unternehmen nicht vorhanden. Dabei ist es jedoch notwendig, dass diese eine solche vornehmen.

Bevor man die einzelnen Prozesse anpassen kann, muss zunächst der generelle Umgang mit virtuellen und physischen Ressourcen geklärt werden. Ein Beispiel dafür ist das Kapazitäts-Management. Ist eine bestimmte Kapazitätsgrenze erreicht, muss dieses unterscheiden, ob lediglich die virtuellen Ressourcen ihr Limit erreicht haben oder ob auch die physischen Ressourcen nicht ausreichend sind. Im ersten Fall genügt es, eine weitere VM auf vorhandenen physischen Ressourcen einzurichten. Anderenfalls muss man neue Hardware bereitstellen.

Christian Czarnecki ist Professor an der Hochschule für Telekommunikation Leipzig (), Jari Geier ist Senior Consultant bei Detecon International () und Karolin Pflug ist Business Analyst bei Detecon International ().

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu DTM Daten Technik Mertens GmbH

Weitere Artikel zu Hannover Messe

Weitere Artikel zu Intel Security

Matchmaker+