Bei der paketbasierenden Übertragung im Ethernet stehen neue Übertragungsmessungen im Vordergrund. Diese haben sich für alle Bitraten von 10 MBit/s bis 100 GBit/s etabliert. Aus ihnen lassen sich Rückschlüsse auf die Leistung ziehen, die schließlich beim End­anwender ankommt.

Leistungsmessungen zur Abnahme und Fehlersuche bei TDM-Übertragungssystemen (etwa SDH STM-64) erfolgten früher mit BERT-Langzeitmessungen und beschränkten sich auf den Nachweis der Bitfehlerfreiheit und Performance nach G.821. Kam es zu einem Service-Fall, führten die Techniker bei dem Verdacht auf Taktprobleme auch Jitter- und Wandermessungen durch. Bei der paketbasierenden Übertragung im Ethernet stehen schon lange Übertragungsmessungen anderer Art im Vordergrund. Diese haben sich für alle Bitraten von 10 MBit/s bis 100 GBit/s etab­liert. Auch ein BERT-Muster ist üblicherweise in der Paket-Payload integriert. Mit diesem ist es möglich, Bitfehlerraten zu ermitteln. Neu hinzugekommen sind Parameter wie Laufzeit, Durchsatz, Burstverhalten oder Paket-Jitter.

Das Messverfahren RFC-2544

Für paketorientierte Übertragungsverfahren entstanden neue Messmethoden, da klare Aussagen zur Leistung mit reinen Bitfehlermessungen bei Ethernet-Datenverbindungen nicht möglich sind. Hier kommen neue Parameter ins Spiel. Dabei handelt es sich um Laufzeit, Bandbreite, CBS (Committed Burst Size), Paketpuffergröße, Paket-Jitter, Frame Delay Variation und Frame Loss. Das vom Labor für Netzkomponenten-Performancemessungen in RFC-2544 beschriebene Messverfahren ist heute das gängigste Verfahren zur Generierung von Abnahmeprotokollen am Netzübergabepunkt. Ermittelt wird damit die maximal mögliche Übertragungsrate mit dazugehöriger Paketlaufzeit und Paket-Jitter. Die Werte stellt es paketlängenabhängig zur Verfügung. Das für alle Ethernet-Raten bewährte Verfahren ist bei Netzbetreibern und Systemherstellern gleichermaßen anerkannt. Moderne Übertragungstester führen die Messung dank der parallelen Erfassung von Durchsatz, Laufzeit und Paket-Jitter in wenigen Minuten durch.

Sequenzieller Ablauf des Y.1564-Tests: Service- und Leistungstest mit dem Ergebnis „Pass“ bezüglich der KPI-Parameter. Bild: Viavi Solutions

Das RFC-2544-Messverfahren ist ein Benchmark-Test, der die maximal erzielbare Leistung eines Netzelementes oder einer Übertragungsstrecke ermittelt. Für Endanwender oder Netzbetreiber ist jedoch auch eine ganz andere Kenngröße von Bedeutung: der Service-Level, also die KPIs (Key Performance Indicator). Dabei handelt es sich oft um Performance-Parameter, die zwischen Provider und Endkunde vereinbart sind. Bei der in diesem Umfeld genutzten Y.1564-Messung geht es nicht darum, die technisch maximal möglichen Kennwerte einer Ethernet-Strecke zu ermitteln. Vielmehr prüf das Verfahren, ob die zugesicherten KPI-Werte im simulierten Betrieb mit mehreren parallelen Datenströmen eingehalten und die vertraglich vereinbarten Lastbegrenzungen wirksam sind. Dabei handelt es sich um Parameter wie Committed Information Rate (CIR) und Excessive Information Rate (EIR).

Das Messverfahren Y.1564

Die CIR wird garantiert; die EIR ist ein Wert, der optional erreichbar ist, aber nicht zugesichert ist. Dazu ein Beispiel: Der Endanwender besitzt ein physisches 1G-Ethernet Interface, bezahlt jedoch nur CIR = 400 MBit/s Duplex. Nimmt der Provider dann keine Flusssteuerung oder Begrenzung vor, könnte der Endanwender einfach bis zu 1 GBit/s einspeisen.

Die Projektierung von Ethernet-Bandbreite auf einer Pipe mit vielen Datenverbindungen gelingt stets dann, wenn ein Überbuchungsfaktor m so eingeplant wird, dass die CIR für alle User jederzeit einzuhalten ist. Die Summe der vereinbarten EIR-Werte liegt natürlich weit darüber. Das Überbuchen funktioniert in der Praxis sehr gut, denn Ethernet-Verbindungen weisen ein zeitlich statistisches Lastverhalten auf, und nicht alle Teilnehmer senden kontinuierlich auf CIR.

Service-Level-Profil einer Y.1564-Messung: drei Datenströme an einem 100G-Interface. Bild: Viavi Solutions

Im Unterschied zum RFC-2544-Test arbeitet der im Y.1564-Standard definierte zweiphasige Service-Performance-Test mit mehreren parallelen Datenströmen. Er prüft in einer ersten Testphase, ob die Netzelemente und Netzabschlussgeräte eines Netzbetreibers für die einzelnen Datentypen richtig konfiguriert sind. In einer zweiten Testphase bewertet das System, ob die Netzelemente in der Lage sind, Datenströme bei Hochlast richtig zu priorisieren. Zu diesem Zweck erfolgt zunächst ein Einzel-Service-Test, etwa für verschieden priorisierte Datenströme (zum Beispiel Audio, Video, Daten) mit einer Prüfung des korrekten Service-Profils je Dienst. So soll sichergestellt sein, dass die KPIs eingehalten werden. Anschließend folgt ein Summen-Performance-Test der vereinbarten Bandbreiten, etwa für verschiedene Datendienste. Die Pass/Fail-Analyse für alle Services erfolgt bezüglich CIR gleichzeitig.

Das Bild unten rechts zeigt die Definition eines SLAs (Service Level Agreement) im Multistream-Test nach Y.1564. Es gibt bezüglich des Multistream-Tests Vereinbarungen für Voice-, Video- und unpriorisierte Datenströme. SLA-Tests lassen sich nur dann durchführen, wenn die verschiedenen Service-Parameter bekannt und als Vorgabe mit Grenzwert konfiguriert sind. Fehleinstellungen lassen sich verhindern, wenn Nutzer von zentraler Stelle die jeweils passende Konfiguration zugewiesen bekommen. Dabei haben Cloud-Architekturen wie Stratasync Vorteile, denn jeder Nutzer misst dann mit derselben Y.1564-Maske, was Unsicherheiten bei einer Abnahme- oder Service-Messung vermeidet.

Das Testverfahren RFC-6349 Truespeed für Layer

Im Internet-Datenverkehr kommt heute das TCP-Protokoll zum Einsatz. Als Software-Stack im Endgerät handelt es mit dem Gegenüber eine sogenannte Window-Size aus, die primär laufzeitabhängig ist. Es ist möglich, diese Window-Size im Verlauf einer Verbindung abhängig von TCP-Stack-Treiber und Betriebssystem – zum Teil – anzupassen. Bei kleiner Window-Size sinkt die User-Bandbreite. Um dem entgegenzuwirken, kann das Betriebssystem multiple parallele Sessions etablieren, deren Bandbreiten sich addieren.

Netzbetreiber können aufgrund der Netzstruktur die Streckenlänge und damit die Laufzeit meist nur wenig beeinflussen. Zudem haben sie keinen Zugriff auf Endgeräte und Betriebssysteme der Endanwender. Möglich ist allerdings bisweilen die Optimierung des Durchsatzverhaltens der Strecke mit Policing oder Shaping.

Verschiedene Ethernet-Service- und Leistungs­messungen.
Bild: Viavi Solutions

In manchen Fällen zeigen Durchsatzmessungen auf Layer 2 und 3 hervorragende Ergebnisse, und dennoch klagen Endanwender über schlechten Durchsatz oder hohe Antwortzeiten. Dies ist immer dann der Fall, wenn Endgeräte mit Protokollen oberhalb von Layer 3 miteinander im Frage/Antwort-Verfahren kommunizieren. Dann kann es zu laufzeitbedingten Timeouts kommen. Entscheidend ist dabei die TCP-Flusskontrolle, die ein maximales Empfangsfenster vorgibt. Bei Windows 98 waren es 8 kByte und bei Windows XP 16 kByte. Seit WIN-VISTA/WIN 7 wird der Wert variabel ermittelt und eingestellt. Theoretisch kann er bis hin zu maximal 16 MByte gehen. Der Paketdurchsatz ist durch kleine Window-Sizes sehr stark beschränkt. Ohne die bei TCP verwendeten REQ/ACK-Nachrichten ist dies mit unidirektionalen Layer-2- und Layer 3-Messungen nicht erkennbar. Formell sieht der Zusammenhang zwischen Window-Size, Laufzeit (Round Trip Delay) und erzielbarem Durchsatz so aus:

Durchsatz [Bit/s] = Buffer Size [Byte] * 8 / Round Trip time [sec].

Die TCP/IP-Messung im Standard RFC-6349 verifiziert die errechneten Werte mit Stateful-TCP-Algorithmus. Moderne Über­tragungstester beherrschen den Standard als Messroutine für 10M bis 10G und bald auch für 100G. Service-Profil und KPI-Festlegung bestimmen die Auswahl der Abnahmemessungen. Das Bild auf dieser Seite listet verschiedene Messungen auf und zeigt deren Vor- und Nachteile.

Fazit

Die Messung nach RFC-6349 kommt der subjektiv gefühlten Bandbreite am nächsten. Der Grund liegt darin, dass Messungen nach RFC-2544 und Y.1564 das TCP-Window-Size-Verhalten der Endgeräte nicht berücksichtigen. Der Carrier kann damit allerdings seine Zuständigkeit abbilden und Laufzeitmessungen liefern, die einen direkten Bezug zur TCP-Bandbreite herstellen.

Messtechnik für 100G-Netze

Bei diesem Text handelt es sich um den dritten Beitrag der LANline-Artikelserie zu den Aufgaben der Messtechnik in 100G-Netzen. Er beschäftigt sich mit Layer 2-, Layer 3- und Layer 4-Übertragungsmessungen.

Im ersten Teil ging es um die Entwicklung hin zu 100G und den damit verbundenen allgemeinen Herausforderungen für die Messtechnik (LANline 6/2018, Seite 23). Teil 2 untersuchte die Physical-Layer-Messtechnik bei 100G (LANline 12/2018, Seite 60). Der abschließende vierte Beitrag wird sich der Fehlersuche bei der 40G/100G-Übertragung widmen und einen Ausblick auf zukünftige Aufgaben der Messtechnik geben.

Thomas Friedrich ist Consultant und Focal Account Manager bei Viavi Solutions und Lehrbeauftragter für Kommunikationstechnik an der Dualen Hochschule Baden-Württemberg, www.viavisolutions.com/de.