Datacenter Switching mit klassischer Three-Tier-Architektur ist ein Auslaufmodell. Die großen Netzwerkausrüster haben ihre Switching-Portfolios inzwischen alle um spannende Alternativen ergänzt. Doch wie sieht deren Einsatz in der Praxis aus – und worin unterscheiden sich die Konzepte? Experten der Westcon Group erläutern hier an einem exemplarischen Kundenszenario, welche Lösungen Cisco, Extreme Networks und Juniper Networks heute für das Datacenter von Morgen bieten.Die Aufgabenstellung: Ein mittelständisches Unternehmen benötigt ein zweites RZ, um die Verfügbarkeit seiner Architektur zu verbessern. Beide Rechenzentren sind spiegelbildlich aufzubauen. Beim Ausfall eines RZs soll der Betrieb ohne Störung weiterlaufen. Das Unternehmen ist gewillt, kleinere Performance-Einbußen zu akzeptieren; diese dürfen aber nicht zu einem Ausfall von Services führen.
Vorgabe 1: Netzwerktopologie. Gesucht wird ein Core-System, das sich über beide Datacenter erstreckt und folgende Objekte verbindet: elf Verteilerstandorte (VST) mit je 2×10GbE-Anbindung, 36 virtualisierte ESX-Server-Systeme mit je 2×10GbE-Anbindung sowie sechs Storage-Systeme mit je 2×10GbE-Anbindung. Außerdem sind pro RZ 20 1GbE-Interfaces gefordert. Es sollen ausschließlich Netzwerkinfrastruktur-Komponenten im RZ betrachtet werden. Server und Storage im RZ sowie externe Systeme spielen keine Rolle.
Der Core soll darüber hinaus Layer-3-Funktionalität bereitstellen. In der ersten Stufe ist nur statisches Routing zwischen VLANs erforderlich. Künftig sollen auch dynamische Routing-Protokolle möglich sein. Da in den einzelnen VSTs Systeme unterschiedlicher Hersteller zum Einsatz kommen, muss der gesamte Core LACP/IEEE 802.3ad unterstützen.
Vorgabe 2: Verkabelung. Alle Verbindungen vom Core zu anderen Systemen werden durch Single-Mode-Glasfaser-Verbindungen gewährleistet. Es stehen ausreichend Fasern zur Verfügung. Folgende Kabellängen sind zu beachten: zwischen beiden Rechenzentren rund 800 Meter, zwischen RZ und VST maximal 200 Meter und zwischen Core-Systemen im RZ maximal fünf Meter. Die Komponenten, die den Core bilden, sind über 40GbE zu verbinden. Die aggregierten Links müssen dann auf beide Rechenzentren aufgeteilt werden. Jeder Server und jeder VST muss dabei mindestens einen 10GbE-Link zu jedem RZ besitzen.
Vorgabe 3: Investitionssicherheit. Innerhalb der nächsten zwei Jahre werden die Anforderungen an die Port-Dichte voraussichtlich um rund 50 Prozent wachsen. Dies soll durch eine Erweiterung des Core-Systems möglich sein, ohne Systeme außer Dienst zu stellen. Das Thema SDN (Software-Defined Networking) spielt aktuell keine Rolle. Der Hersteller sollte aber eine schlüssige Strategie dafür vorweisen können.
 
Lösungsansatz mit Cisco
Volker Semken, Network Consultant bei Westcon Comstor, empfiehlt den folgenden auf Cisco-Komponenten basierenden Ansatz:
Unser Konzept sieht vor, in jedem der beiden Rechenzentren als Core-Backbone einen Cisco Nexus 9396PX-Switch zu implementieren. Diese relativ kompakten, zwei HE hohen Switches unterstützen je nach Konfiguration einen flexiblen Mix von 1G/10G/40G-Ports mit einer Switching-Kapazität von bis zu 960 GBit/s und werden den vorgegebenen Anforderungen damit mehr als gerecht. Jedes der beiden Top-of-Rack-Systeme wird anschließend mit zwei Fabric Extendern vom Typ Cisco Nexus 2248 bestückt – einem 2248TP für die Anbindung der Ethernet-Server und einem 2248PQ für die Integration der Storage-Umgebung.
Um die geforderte Redundanz und Zukunftssicherheit der Architektur zu gewährleisten, verbindet man die beiden 9000er-Switches anschließend über einen Peer-Link zu einer durchgängigen VPC-Topologie (Virtual Port Channel). VPC ist eine von Cisco entwickelte Virtualisierungstechnik, mit der sich zwei dedizierte Switching-Systeme über einen speziellen Peer-Link so vernetzen lassen, dass sie sich in der Kommunikation mit anderen Systemen wie ein einziger Switch verhalten. Über den Peer-Link schaffen beide Switches die Illusion einer gemeinsamen Control Plane. Dazu synchronisieren beide Switches Statusinformationen und transportieren Protokollpakete wie bei LACP (Link Aggregation Control Protocol) über den Peer-Link. Darüber hinaus wird der Peer-Link für Datenpakete zu den Endsystemen verwendet, wobei die Switches einen lokalen Transport über den VPC präferieren.
Typischerweise wird VPC innerhalb eines Datacenters vor allem auf dem Access- oder Aggregation-Layer verwendet, um Netzwerksysteme (wie Server, Switches, NAS) über Active/Active-Links an die VPC-Domäne anzubinden. Da sich VPC aber auch hervorragend für den Aufbau flacher, Loop-freier Topologien eignet, nutzen heute immer mehr Unternehmen die Technik, um dedizierte RZ-Standorte miteinander zu vernetzen (Datacenter Interconnect, DCI).
Im vorliegenden Szenario bietet die Vernetzung der beiden Datacenter per VPC dem Rechenzentrumsbetreiber eine Reihe von Vorteilen: Erstens lässt sich das logische Netzwerkdesign durch VPC nachhaltig vereinfachen, es ist überaus robust und sehr widerstandsfähig. Zweitens sind die Switching-Infrastrukturen der beiden Netzwerke vollständig redundant verbunden. Fällt ein Link, eine Komponente oder ein RZ aus, werden die Verbindungen automatisch auf die übrigen Komponenten umgelegt.
Drittens vermeidet der RZ-Betreiber durch den Peer-Link die bei klassischem STP-Routing (Spanning Tree Protocol) üblichen blockierten Ports und nutzt die verfügbare Uplink-Bandbreite optimal aus. Und schließlich viertens: Auch wenn die VPC-Topologie nach außen hin eine einzige Control Plane suggeriert, verfügt de facto jeder der beiden Switches nach wie vor über eine voll funktionsfähige eigene Control Plane. Dies bedeutet: Bei einem lokalen Fehler ist stets nur einer der Switches betroffen.
Aufsetzend auf VPC bilden die leistungsstarken Switches der 9000er-Serie eine stabile, hochverfügbare und leicht zu administrierende Lösung. Da die Switches alle gängigen Port-Typen unterstützen und jederzeit flexibel via Fabric Extender erweiterbar sind, wird die Lösung den vorgegebenen Anforderungen an die Skalierbarkeit uneingeschränkt gerecht. Auch für den Fall einer späteren Migration in Richtung SDN ist das Unternehmen mit der vorliegenden Architektur gut gerüstet, da sich die Komponenten alle in eine Cisco-ACI-Umgebung (Application-Centric Infrastructure) portieren lassen.
 
Lösungsansatz mit Extreme Networks
Rene Drawz, Pre-Sales Consultant bei Westcon UCC, rät zu dem folgenden auf Komponenten von Extreme Networks basierenden Ansatz:
Unser Konzept sieht vor, in jedem der beiden Rechenzentren als Core-Backbone einen so genannten Summitstack zu installieren. Summitstack ist eine von Extreme Networks entwickelte Virtual-Chassis-Lösung, mit der sich bis zu acht Switches der Summit-Baureihe zu einem voll integrierten System verbinden lassen. Die Switches verhalten sich nach außen hin dann wie ein einziges logisches System mit einer gemeinsamen Forwarding Data Plane.
Innerhalb des Stacks sind die integrierten Switches für optimale Stabilität und Redundanz ringförmig miteinander verbunden. Gesteuert wird der gesamte Summitstack über einen Master-Switch, der die Routing-Tabellen für alle Systeme verwaltet. Der Master-Switch hält in seinem primären und sekundären Flash-Speicher zudem die Konfigurations- und Statusinformationen aller Switches im Stack und kann damit alle externen Anfragen an die Switches beantworten. Den IT-Administratoren stehen im Stacks dabei nach wie vor alle gewohnten Werkzeuge zur Verfügung, die sie für ein effizientes Netzwerk-Management brauchen – vom VLAN über Link Aggregation Groups (LAGs) und Access-Control-Listen (ACLs) bis hin zur Port-Spiegelung auf den Switches.
Damit ist die Summitstack-Technik ein sehr guter Ausgangspunkt für den einfachen und flexiblen Aufbau des Datacenter Cores. Die Kunden erhalten damit eine sehr gut skalierbare Lösung, deren Port-Dichte und Kapazität sich bei steigenden Anforderungen jederzeit erweitern lässt. Und da sich im Stack Fast-Ethernet-, 1GbE- oder 10GbE-Systeme mit Glasfaser- oder Kupfer-Ports bedarfsgerecht kombinieren lassen, ist das gesamte System auch sehr zukunftssicher.
Im vorliegenden Szenario würden wir empfehlen, in jedem RZ einen Summitstack V320 – das „V“ markiert die für Ethernet-Umgebungen optimierten Systeme – zu integrieren und mit vier Switches der x670-G2 Series zu bestücken. Die Switches sind für den Einsatz in anspruchsvollen 1GbE- und 10GbE-Umgebungen optimiert und unterstützen jeweils bis zu 384 10GbE-Ports. Die Stack-Mitglieder werden einfach über 4×40GbE-QSPF+-Uplinks verbunden. Auf diese Weise erreicht der Stack insgesamt eine Switching-Kapazität von 320 GBit/s – mehr als genug für das skizzierte Szenario.
Um die gewünschte Effizienz und Redundanz sicherzustellen, empfehlen wir, die beiden Stacks zu einem beide Rechenzentren überspannenden MLAG-Paar (Multi-Switch LAG) zu verbinden. Die beiden MLAG-Peers bilden in dieser Konfiguration dann das Gegenstück zur Link-Aggregation durch die angebundenen Verteiler- und Server-Switches. So entsteht ein voll redundantes Layer-2-Netzwerk, das die beiden RZ-Standorte verbindet. Mit diesem voll vermaschten Switching-Design wird die Lösung von Extreme Networks sämtlichen in der Aufgabenstellung formulierten Anforderungen gerecht. Das durchgehend LACP-fähige Core-System vernetzt die genannten Komponenten mit der geforderten Kapazität und verfügt dabei über ausreichende Reserven für eventuelle Peaks oder kurzfristige Erweiterungsmaßnahmen. Dank der Stacking-Technik präsentiert sich die Lösung nicht nur stabil und hochverfügbar, sondern überzeugt im täglichen Einsatz zudem durch ihre Verwaltbarkeit und Flexibilität.
 
Lösungsansatz mit Juniper Networks
Jörn Kraus, Senior Systems Engineer bei Westcon Security Solutions, schlägt folgenden auf Komponenten von Juniper Networks basierenden Ansatz vor:
Für dieses sehr typische Szenario würden wir dem Kunden ein Virtual Chassis von Juniper Networks vorschlagen, weil sich damit sowohl die geforderte Redundanz als auch die einfache Administrierbarkeit sehr gut gewährleisten lässt. Mit Junipers Virtual-Chassis-Technik lassen sich bis zu zehn separate Switches in einer redundanten Ring-Topologie bündeln und wie ein einziger großer Switch managen. Dabei ist es unerheblich, ob sich die Switches alle im gleichen Rack oder an unterschiedlichen Standorten befinden – vorausgesetzt, sie sind über entsprechend leistungsfähige LWL-Kabel verbunden.
Das Virtual Chassis (VC) lässt sich über eine einzige IP-Adresse verwalten, sodass der Administrator nicht mehr für jeden Switch eine eigene IP-Adresse vergeben muss. Hinzu kommt, dass das VC die Netzwerktopologie nachhaltig vereinfacht, da weder STP noch andere Lösungen zur Loop-Prävention mehr erforderlich sind. Auch im Hinblick auf die Verfügbarkeit weiß die Technik zu überzeugen: Fällt eines der Systeme aus, lässt sich der Traffic innerhalb des VC jederzeit über ein anderes Gerät leiten, was die Lösung äußerst ausfallsicher macht.
Für das vorliegende Szenario schlagen wir ein VC mit vier Switches vor: Als Primärsystem kommt in jedem der beiden Rechenzentren ein QFX5100-Switch mit 48 Ports zum Einsatz. Die Plattformen eignen sich für alle gängigen 1GbE/10GbE/40GbE-Systemarchitekturen und unterstützen sehr flexibel auch offene Architekturen, etwa Spine-and-Leaf-, Layer-3- und Close-IP-Fabrics. Als Sekundärsystem verwenden wir in jedem RZ einen EX4300-Switch mit 32 Ports. Die 1GbE-Switches können als kompakte Plattformen mit fester Konfiguration wahlweise als eigenständige Systeme oder als Teil einer VC-Architektur bereitgestellt werden und haben sich bereits in vielen Campus- und Rechenzentrumsnetzwerken bewährt.
Durch die Bündelung der vier Systeme entsteht ein Virtual Chassis mit 160 Ports (genauer: ein „Mixed Virtual Chassis“, weil darin verschiedene Baureihen integriert sind), das den Vorgaben des Unternehmens voll gerecht wird. Der Mix aus 1G-, 10G- und 40G-Ports bietet ein hohes Maß an Flexibilität bei der Anbindung der Verteilerstandorte, Server und Storage-Systeme. Wichtig im Hinblick auf die Zukunftssicherheit der Lösung: Die eingesetzten Produkte eignen sich auch für den VCF-Aufbau (Virtual Chassis Fabric). Mit dieser nächstgrößeren VC-„Ausbaustufe“ lassen sich bis zu 32 Switches in einer nahezu voll vermaschten Spine-and-Leaf-Architektur zusammenführen, um eine Fabric mit einer deutlich höheren Port-Dichte, einer durchgehend stabilen Zahl von Hops und gleichbleibenden Latenzen zu erreichen. Damit ist die VCF eine sehr gute Alternative für Unternehmen mit einem hohen Anteil von Ost-West-Traffic sowie für Datacenter, deren VC-Systeme bereits an die Grenzen ihrer Kapazität oder Port-Dichte stoßen. Sollten über das VCF hinaus noch mehr Ports notwendig sein oder auch 100G-Ports benötigt werden, ließen sich die Geräte auch innerhalb einer Junos-Fusion-DC-Lösung verwenden – für das hier vorgestellte Szenario wäre dies aber überdimensioniert.
 
Fazit: mehrere flexible Alternativen verfügbar
Vergleicht man die Herangehensweisen, mit denen die drei Hersteller die repräsentative Aufgabenstellung abdecken, zeichnet sich eine Reihe von Konstanten ab: Alle drei Ansätze fokussieren darauf, durch die Virtualisierung der Switching-Systeme und die konsequente Link-Aggregation zu einer einfach bedienbaren, flexiblen und hochverfügbaren Architektur zu kommen. Ein wichtiger positiver Nebeneffekt der Virtualisierung ist dabei in allen drei Fällen die hohe Skalierbarkeit und Offenheit der Systeme. Der Kunde erreicht damit die gewünschte langfristige Zukunftssicherheit und stellt ganz nebenbei vorsorglich schon die Weichen für eine künftige Migration auf eine SDN-basierte Infrastruktur.
Alle Hersteller warten also mit ausgereiften und praxisbewährten Konzepten auf. Welche der Lösungen bei einem konkreten Projekt zu favorisieren ist, hängt somit maßgeblich von den jeweiligen Rahmenbedingungen und den bereits vorhandenen Systemen ab. Angesichts des üblicherweise relativ hohen Projektvolumens und der langfristigen Implikationen solcher Weichenstellungen sind Unternehmen aber auf jeden Fall gut beraten, beim Thema Datacenter Switching frühzeitig erfahrene Ansprechpartner aus dem Channel oder der Distribution hinzuzuziehen.

Umsetzung des Referenzszenarios mit Komponenten von Extreme Networks. Bild: Westcon

Umsetzung des Referenzszenarios mit Komponenten von Juniper Networks. Bild: Westcon

Umsetzung des Referenzszenarios mit Komponenten von Cisco. Bild: Westcon

LANline.