Die Kupfer- und Glasfaserübertragung gewinnt immer mehr an Geschwindigkeit. Ed Cady, Technical Market Manager und verantwortlich für Highspeed-Interconnect-Lösungen über Kupfer und Glasfaser bei Siemon, blickt in die Zukunft und erläutert, welche Übertragungstechnik derzeit für 10, 40 und 100 GBit/s auf dem Markt vorhandenen ist und wohin die Entwicklung in Anbetracht der neuesten Chip-Entwicklungen geht.Hunderte verschiedene Schnittstellen in den einzelnen Marktsegmenten wie IT, TK, Audiovisual, Sicherheit und Industrie scheinen alle im Ethernet als der allgemein gängigen „Transportinfrastruktur“ zu konvergieren. Bei der Übertragung werden dann so genannte Fiber Interconnects mit immer höherer Bandbreite eine Schlüsselrolle spielen. In der Welt der Daten und der optischen Kommunikation hat sich das Ethernet weit über den ursprünglichen LAN-Bereich des Netzwerks, den es für viele Jahre dominierte, ausgeweitet. Als Reaktion auf diese Ausbreitung und die Übernahme konkurrierender Protokolle haben andere Interfaces wie Fibre Channel unter Anwendung der „Convergent Tunnelling“-Methode neuere Standardschnittstellenversionen hervorgebracht, die das native Fibre-Channel-Prototoll beibehalten, es aber über ein physisches Ethernet-Transportsystem übertragen.

Die Ethernet-Regeln der Gegenwart

Vor Kurzem hat die Ethernet-Gemeinschaft ihre Technik weiterentwickelt, um eine Konvergenz von LAN und SAN zu einem physischen Netzwerk zu ermöglichen. Zum Teil wurde dies mit der Einführung des neuen 10GBaseCR-Ethernet-Standards verwirklicht, bei dem eine serielle Datenübertragung über eine zweipaarige „Single Lane“-Twinax-Kupferverbindung erfolgt. Diese Konvergenz hat die Fibre-Channel-Gemeinschaft ihrerseits veranlasst, Fibre Channel over Ethernet (FCoE) herauszubringen, eine Spezifikation, die ihren Beitrag dazu leistet, das native Protokoll und seine installierte Basis beizubehalten und die Ethernet-Infrastruktur zu nutzen. Analog dazu haben die Infiniband-Verfechter ihre Spezifikation ausgearbeitet, bekannt als Remote Direct Memory Access over Converged Ethernet (RoCE – gesprochen Rocky). Remote Direct Memory Access (RDMA) ist eine latenzarme, energiesparende Technik, die innerhalb der Infiniband-Architektur Verwendung findet.

Mittlerweile sind Schnittstellen – 10GBaseCR, 10GFC, 10GFCoE und 10GRoCE – implementiert, die alle die gleiche passive Single-Lane-Kupferverkabelung mit SFP+-Steckverbinder nutzen. Dies ist ein Kupfersteckverbinder, der in den ursprünglich für einen optischen Small Formfactor Pluggable Transceiver (Mini-GBIC) gedachten Steckplatz passt.

Neben Fibre Channel sind noch weitere Schnittstellen wie NAS, iSCSI (Internet SCSI), iSATA (Internet Serial ATA) und ATA over Ethernet (ATAoE) hinzugekommen, die die Datenspeicherindustrie nutzt und die sich nun über eine 10GBaseCR-Twinax-Kupferverkabelung mit SFP+-Steckverbinder durch Ethernet tunneln lassen. Das Tunneln dieser Speicherschnittstellen kann ebenso über größere Distanzen mit 10GBASE-T Ethernet über Kategorie 6A/Klasse EA- und Kategorie 7A/Klasse FA-Verkabelungssysteme erfolgen.

Es gibt De-Facto-Standards, die diese Multiprotokolle auf so genannten „Collapsed Architectural Fabrics“ wie dem Unified Computing System (UCS) einsetzen, das ebenfalls die SFP+-Verkabelung nutzt. Neben UCS existieren verschiedene andere De-Facto-Standardnetzwerke des Unified-Typs, die ebenfalls SFP+ verwenden.

Selbst der ein oder andere Experte wird erst vor Kurzem vom Konzept der aktiven Single-Lane-SFP+-Steckverbinder gehört haben. Dennoch gibt es bereits weitere Fortschritte bei den schnelleren Ethernet-Techniken mit dem aktiven 25/26/28 GBit/s QSFP++-Modul (siehe lin.sh/SFP), das über vier „Pfade“ mit jeweils 10 bis 14 GBit/s überträgt. Die Frage ist, ob all diese „xyz over Ethernet“-Schnittstellen weiter an Bedeutung gewinnen und schließlich das neu entwickelte QSFP++-Modul und Verkabelungssystem verwenden, das durch die SFF-8661/2/3-Spezifikation standardisiert ist. Mehr zu diesem Thema gibt es unter www.sffcommittee.org, www.t11.org und www.fibrechannel.org.

Die Ethernet-Standards 40GBaseCR4, 40GFCoE und Infiniband sowie 40G QDR nutzen allesamt den gleichen Four-Lane-QSFP+-Steckverbinder, -Modul und -Verkabelung. Eine weitere Schnittstelle – die SAS Speicherschnittstelle – verwendet aktive optische QSFP+-Kabel (AOC) für Anwendungen mit größerer Reichweite, wie es beim Video Networking Standard Camera Link-2 der Fall ist. Ob diese Konvergenz der verschiedenen Schnittstellen-Communities fortdauert und das neue QSFP++-Steckverbindersystem für die 100GBit/s-Standards der nächsten Generation wie 100GBaseCR4, 100GFCoE, 100GFC SAN und Infiniband 100G EDR vorgesehen bleibt, wird die Zeit zeigen.

Daneben gibt es viele andere konvergente Schnittstellen wie Fibre Channel over Infiniband (FCoIB), über USB Attached SCSI (UAS), USB over SATA (UoSATA) und SATA over USB (SoU), was die Implementierung von 3 GBit/s SATA über 4,8 GbBit/s USB ist.

Der andere hochleistungsfähige Schnittstellenstandard, HDMI (die meisten neuen Fernseher und DVD Player sind damit ausgestattet), ist kürzlich in seiner neuen Spezifikation, Revision 1.4 herausgegeben worden. Diese Spezifikation arbeitet mit 1 GBit/s Ethernet über das neue MicroHDMI-Verkabelungssystem.

Dennoch erfolgt die HDMI- und DVI-Videosignalübertragung bereits über Verkabelungssysteme der Ethernet-„Kategorie“, genauso, wie es bei der HDBaseT Signalübertragung und den Kabeladaptern der Home Plug Alliance der Fall ist. Demzufolge könnte man annehmen, dass die geschirmte Kategorie 6A/Klasse EA und Kategorie 7A/Klasse FA, SFP+ und QSFP+ die drei wichtigsten Multiprotocol Interconnects (MPI) für die Gegenwart und die nächsten Jahre sein werden.

Schnittstellenkollisionen

Die Technik steht gewissermaßen vor einem Kreislauf aus Schnittstellenkollisionen, Konvergenz und Collapsed Interconnect. Am Desktop startet sie mit Display Port, USB, SATA, HDMI und PCIe (die neue PC-Steckkarte), diese werden alle konvergiert und in die Light-Peak-Schnittstelle transformiert, die neue rein optische Multiprotokoll-Verbindung über Einzelfaser, auch bekannt als Thunderbolt. Experten mutmaßen, dass Light Peak auch Short-Reach Serial Attached SCSI ersetzen könnte. Wie es aussieht, wird es neben 10 GBit/s- auch eine 28 GBit/s- oder 40 GBit/s-Version von Light Peak geben. Weitere Diskussionen zu dieser Thematik sollen in regelmäßigen Abständen in den Intel-Developer-Foren stattfinden. Bei einer Datenrate von 25/26/28/40 GBit/s pro Übertragungspfad hat die elektrische Signalübertragung über Kupfer eine sehr begrenzte Reichweite von nur einem bis drei Metern Kabellänge. Die aktive optische Verkabelung scheint bei diesen Datenraten einen genauso großen Anteil am prognostizierten Datenvolumen auszumachen wie Kupfer.

So ist es kein Wunder, dass eine neue Generation auf dem Vormarsch ist – eine neue optische Schnittstelle, die durch Chips unterstützt wird, die sich derzeit in der Entwicklung befinden und (im Labor) bereits mit 50 GBit/s pro Pfad und Reichweiten bis zu zwei Kilometern arbeiten. Die übernächste Generation mit 100 GBit/s pro Pfad wird gegenwärtig parallel zu 50 GBit/s pro Pfad entwickelt. Eine derartige optische Schnittstelle übertrifft die Fähigkeiten der Light-Peak-Schnittstelle und könnte innerhalb von fünf Jahren sogar Ethernet, Infiniband, Fibre Channel und die vielen anderen Schnittstellen in neuen Rechenzentren ablösen.

Interne aktive optische Kabel

Zeitgleich zu dieser neuen optischen Schnittstelle gibt es eine ganz neue Generation der „internen“ aktiven optischen Kabel (AOCs), die die Verbindung entweder von Printed Circuit Boards oder den aufkommenden Fibre Circuit Boards zu anderen Boards/Modulen und zu optischen Backplanes herstellen. An beiden Enden tragen dieses Glasfaserkabel winzige optoelektronische Transceiver und erreichten Distanzen, die mit Kupfer bei diesen hohen Datenraten nicht mehr möglich sind.

Der ständig wachsende Bedarf an immer mehr Verbindungsports auf immer weniger Raum treibt die Entwicklung der Internal AOCs weiter voran. Dabei kommen MPO-Steckverbinder zum Einsatz, die die doppelte Port-Dichte gegenüber SFP+- oder QSFP+-Steckverbindern bieten. Die Schnittstellen für die Sprachkommunikation gehen im Ethernet auf. Bekanntermaßen geschieht das Gleiche mit den Telefonieschnittstellen wie SS7, TMDS, Utopia, Frame Relay, ATM, PBT und MPLS, die in VoIP und Ethernet Netze aufgehen. Selbst Infiniband over WAN (IB-WAN), Ethernet over SONET (EoS), SONET und SDN werden derzeit durch Enhanced Carrier Ethernet ersetzt.

Konvergenz auch im Industrienetz

Das gleiche passiert mit den sechs bis acht alten industriellen I/O-Schnittstellen, die in die Industrial-Ethernet-Verkabelung konvergieren. Auch innerhalb der kommerziellen Infrastrukturen entwickeln sich schnell verschiedene I/O-Schnittstellen, sobald die Diskussion in die Welt der wahrhaft konvergenten Verbindungsnetze und Techniken eintaucht.

Die Zukunft ist noch ungewiss

Es ist interessant, sich vorzustellen, was geschehen würde, wenn diese Dutzenden Schnittstellen in eine einzige optische Schnittstelle konvergieren. Neben den außerordentlichen kommerziellen und technischen Vorteilen einer einzigen internationalen „Allround“-Schnittstelle gäbe es dann auch weitaus weniger Akronyme zu lernen! In den letzten zehn Jahren wurde SFF-8470, ein dediziertes Twinax-Kupferverkabelungssystem, in vielen Industriebranchen und De-Facto-Standards wie Infiniband, Ethernet, SAS, RapidIO, Myrinet und in vielen separaten NICs (Netzwerk-Schnittstellenkarten) und homogenen Switch-Boxen imple-mentiert.

Bald darauf gab es heterogene Switches und NICs mit der gängigen SFF-8470-Verkabelung, um die verschiedenen Schnittstellen in einer Box oder einem Rack unterzubringen. Dann folgten die Multiprotokollchips mit sehr hoher Port-Anzahl. Heute laufen die Protokolle über eine schlankere QSFP+- oder SFP+-Kabelbaugruppe, die die Transportschicht nutzt. In manchen Geräten mit Solid-State-Laufwerk (SDD) sind die Fibre-Channel- und SAS- oder SATA- sowie USB-Schnittstellen in einem einzigen Chip integriert. Vermutlich arbeitet eine Reihe von Verfechtern drahtloser Schnittstellen auch schon an ihrer konvergenten Allround-Schnittstelle der nächsten Generation. Wie schnell sich die neuen Anforderungen an Kühlung und Stromverbrauch im Rechenzentrum und auch die umwälzenden photonischen CMOS-Techniken mit Hinblick auf eine weitere Konvergenz und eine breite Marktakzeptanz auswirken, ist schwer zu sagen. Mit Sicherheit aber werden Konvergenztechniken und -Schnittstellen ein großer Wachstumsfaktor über die nächsten Jahre sein.

Fazit

Für diejenigen, die sich nun soweit durch die Schnittstellen und Akronyme durchgearbeitet haben, wird ersichtlich, dass die kommenden Jahre geprägt sein werden von gewissen Unsicherheiten und komplexen Veränderungen, die sich auch auf die Netzwerkinfrastrukturen auswirken. Es ist daher ratsam, auf jene Weiterentwicklungen zu bauen, die auch gute Chancen auf eine Realisierung haben – das heißt eine gewisse Stabilität aufweisen. Wie man diese erkennt, hängt von der individuellen Einschätzung des Unternehmens ab.

Die Zeit nach 100 GBit/s

Sollte gerade eine Migration auf Gigabit Ethernet anstehen, sind optische Interconnects mit 100 Gigabit pro Lane noch nicht in Erwägung zu ziehen. Als Verantwortlicher für ein Netzwerk des Börsenhandels hingegen, wo Millisekunden gleich Millionen kosten – ist es durchaus angebracht, darauf zu schauen, was nach 40 und 100 GBit/s kommt. Die Vergangenheit zeigt deutlich, dass die Bandbreite exponentiell ansteigt. Die Arbeit an Übertragungsgeschwindigkeiten der nächsten Generation ist der beste Beweis dafür. Deshalb ist es wichtig, einen vernünftigen Horizont vor Augen zu haben und gut vorbereitet zu sein.

Aktive optische QSFP+-Kabel: Das Modul überträgt auf vier Pfaden mit jeweils 10 bis 14 GBit/s.

SFP+-Kupfersteckverbinder: Dies ist eine Ver-bindung, die in den ursprünglich für einen optischen Small Formfactor Pluggable Transceiver (Mini-GBIC) gedachten Steckplatz passt.

LANline.