Auswahlkriterien für das Bandbreitenmanagement

Anwendungsleistung unter Kontrolle

17. Februar 2005, 23:55 Uhr | Stefan Pickert/mw Stefan Pickert ist als Regional Manager DACH bei Packeteer tätig.

Obwohl Bandbreite praktisch überall in ausreichender Menge und zudem preiswert verfügbar ist, leiden die meisten Unternehmen unter Performance-Problemen, die direkt ihre Produktivität und Ertragskraft beeinträchtigen. Was ist der Grund dafür, und wie kann Bandbreitenmanagement diese Schwierigkeiten beseitigen?

Fakt ist: 2005 wissen Unternehmen noch weniger über die Performance ihrer Schlüsselapplikationen
als vor zehn Jahren. Sie wissen weder, welche Daten über ihr Netzwerk fließen, noch haben sie die
Kontrolle über die Performance der Applikationen, auf denen ihr Geschäftsmodell fußt. Geringer
Durchblick und schlechte Anwendungs-Performance ist hauptsächlich das Ergebnis der Migration auf
konvergente Netzwerke. Zwar wird die Konvergenz – also das Zusammenführen von unterschiedlichen
Diensten wie Datenübertragung und IP-Telefonie (Voice over IP, VoIP) in ein Netz – als sehr junges
Phänomen wahrgenommen, doch ist es tatsächlich ein bereits lange währender Prozess. E-Mail, auf
X.25-basierende Point-of-Sales und SNA-basierende Bankanwendungen sind Beispiele, die schon vor
Jahren auf IP-Netzwerke übergegangen sind.

Da die meisten Firmen alle Applikationen über ein IP-Netzwerk laufen lassen, konkurrieren die
Anwendungen um die darin verfügbare Bandbreite. Das macht sich besonders dort bemerkbar, wo sie
prinzipbedingt knapp bemessen ist – im Weitverkehrsnetz (WAN). Im Flaschenhals des
LAN-WAN-Übergangs konkurrieren Geschäftsapplikationen wie VoIP oder ERP, die eine konstante
Bandbreite und durchgängig geringe Verzögerung benötigen, mit anderen Anwendungen, die sämtliche
verfügbare Bandbreite für sich beanspruchen. Dazu zählen Applikationen wie Datenbankreplikationen
oder E-Mail, die zudem nicht empfindlich auf Verzögerungen im Netzwerk reagieren. Zusätzlich
konkurrieren alle Geschäftsanwendungen mit nicht-geschäftlichen oder privaten Aktivitäten auf dem
Netzwerk. Für die meisten Unternehmen ergeben sich daher Probleme in drei spezifischen
Bereichen:

1. Der Bandbreitengebrauch von Applikationen ist nicht gekoppelt mit ihrer Bedeutung für das
Unternehmen.

2. Bei hohem Datenaufkommen wird der gesamte Datenverkehr in den Warteschlangen am Übergang zum
WAN verzögert. Daraus resultieren nicht vorhersagbare und unkontrollierbare Verzögerungen über das
Netzwerk.

3. Wenn über einen längeren Zeitraum mehr Datenverkehr übertragen werden soll, als die
WAN-Verbindung Kapazität bereitstellt, werden Datenpakete verworfen. Das mündet in noch größerer,
noch unsteterer Verzögerung und umso höherer Verkehrsbelastung, da die Applikationen die
Informationen erneut senden.

Die Aufgabe von Bandbreitenmanagementprodukten besteht darin, diese drei Elemente zu
kontrollieren und für eine konstante Applikations-Performance über das Netz zu sorgen. Die
Hersteller bedienen sich dazu typischerweise einer oder mehrerer Variationen von drei Ansätzen: Die
Erzeugung virtueller Bandbreite durch Kompression und/oder Zwischenspeicherung (Caching), Kontrolle
des Datenverkehrs durch Warteschlangen- (Queuing) und Priorisierungstechnik sowie Traffic-Shaping
durch das Management von TCP-Datenströmen.

Komprimieren und Caching

Das Komprimieren und Cachen von Datenverkehr zählt streng genommen nicht zum
Bandbreitenmanagement. Doch es reduziert die Datenmenge, die über das WAN gesendet werden soll und
verbessert dadurch die Performance der Applikationen. Dabei gilt: Auch wenn manche Hersteller mit
außergewöhnlichen Leistungen wie "zehnfacher Kompression" oder "1000-prozentiger Einsparung" werben
– in der Realität lässt sich nur eine zwei- bis vierfache Kompression erreichen. Trotzdem: Die
Erzeugung virtueller Bandbreite ist wesentlich kosteneffektiver als das Mieten einer entsprechend
höheren realen Bandbreite beim Carrier, da sie durch eine einmalige Kapitalinvestition erfolgt,
nicht durch fortwährende monatliche Kosten.

Doch das bloße Komprimieren und Cachen des gesamten Datenverkehrs ist keine zufrieden stellende
Lösung. Es ist tatsächlich vergleichbar mit dem Bereitstellen von mehr realer Bandbreite: Da viele
geschäftliche Anwendungen ihre Daten per se komprimiert versenden, profitieren in erster Linie die
nicht zeitkritischen geschäftlichen und nicht-geschäftlichen Applikationen davon. Eine
VoIP-Verbindung oder eine ERP-Session benötigt rund 20 bis 30 kBit/s – gleichgültig, ob eine
Bandbreite von 128 kBit/s oder 10 MBit/s verfügbar ist. Bei Peer-to-peer-Applikationen ist hingegen
eine Performance-Steigerung zu erkennen; ihre Up- und Download-Geschwindigkeiten erhöhen sich, wenn
mehr Bandbreite zur Verfügung steht. Auch die Exchange-Datenbank repliziert sich in kürzerer Zeit,
und Streaming-Anwendungen profitieren von der höheren Bandbreite. Kompression allein angewendet
erzeugt also mehr Bandbreite und erlaubt dadurch mehr Datenströme oder Sessions. Doch konkurrieren
weiterhin die zeitkritischen und geschäftwichtigen Applikationen mit solchen, die eigentlich mit
weniger Bandbreite auskommen würden.

Priorisierung

Die Kontrolle des Datenverkehrs per Priorisierung ist eine alternative Methode, die von allen
Routern an der Schnittstelle zum WAN sowie einigen Bandbreitenmanagementprodukten eingesetzt wird.
Durch die Nutzung ausgeklügelter Warteschlangen- und Priorisierungsmechanismen stellt diese Technik
sicher, dass zeitkritischer gegenüber weniger zeitkritischem Datenverkehr bevorzugt über das WAN
übertragen wird. Sie versucht zudem sicherzustellen, dass identifizierte Schlüsselanwendungen
häufiger "bedient" werden als privat genutzte Applikationen. Durch das häufigere Senden aus höher
priorisierten Warteschlangen sollen die wichtigeren Applikationen mehr Bandbreite erhalten. Der
Vorteil dieser Lösung: Sie ist in den WAN-Zugangs-Routern integriert, kostet also kein zusätzliches
Geld.

Die Priorisierung und das Queuing des Datenverkehrs ist auch die gängige, von Service-Providern
verwendete Technik, mit der sie Unternehmen MPLS-Dienste (Multi-Protocol Label Switching) anbieten.
In einer solchen Lösung ist der Router nicht nur für das effektive Queuing verantwortlich, sondern
muss zudem sicherstellen, dass der Datenverkehr für die richtige Diensteklasse (Class of Service)
markiert wird.

Doch dieser Ansatz zum Verwalten des Datenverkehrs hat Schwächen: Bei einem hohen Datenaufkommen
werden Pakete in den Warteschlangen um eine nicht bestimmte Zeit verzögert. Wird das Datenaufkommen
zu groß, kapitulieren selbst niedrig priorisierte Warteschlangen und verwerfen Pakete. Die Folge
ist ein noch größerer Datenstau, da die Informationen erneut angefordert werden.

Kontrolle der Transferrate

Der dritte Ansatz für das Bandbreitenmanagement zielt auf die Kontrolle der Transferrate, mit
der die Datenströme in die WAN-Schnittstelle eingespeist werden. Diese Methode stellt sicher, dass
immer genügend Bandbreite für die Schlüsselapplikationen verfügbar ist. Außerdem verhindert sie das
Füllen der Warteschlangen und garantiert so eine definierte Verzögerungszeit über die
WAN-Verbindung. Dieses "Rate Control" genannte Verfahren verwendet eine Kombination aus
TCP-Fenster- und Header-Informations-Verwaltung, um die Datenströme in die WAN-Schnittstelle oder
aus ihr heraus zu begrenzen. Dieser Ansatz arbeitet für alle WAN-Typen, eignet sich aber besonders
gut für den Einsatz in MPLS-Umgebungen, in denen der Service-Provider eine in Service Level
Agreements (SLAs) definierte Performance liefern muss. Als Parameter dafür dienen Durchsatz, Latenz
und Jitter.

Das am häufigsten im Zusammenhang mit Rate Control auftauchende Problem ist die Komplexität: Es
müssen dutzende oder möglicherweise sogar hunderte von Anwendungsdatenströmen für die Übertragung
über jede WAN-Verbindung eingerichtet werden.

Jede Methode des Bandbreitenmanagements bietet Vor- und Nachteile. Doch eine wichtige
Anforderung müssen alle erfüllen: Sie müssen für Durchblick im Netzwerk sorgen – und gerade das
wird häufig bei ihrer Implementierung nicht beachtet. Solange ein Unternehmen nicht genau weiß,
welche Applikationen im Netz laufen, ist es nicht möglich sicherzustellen, dass die Bandbreite
tatsächlich den richtigen Anwendungen zugeordnet wird. Wenn die Applikationen nicht bis auf die
Anwendungsebene identifiziert werden, kann sich etwa Peer-to-peer-Datenverkehr hinter ERP
zugeordneten TCP-Ports verstecken. Ebenso lassen sich privates Web-Browsing oder
Internet-Radio-Streaming nicht von geschäftswichtigem HTTP-XML-Datenverkehr unterscheiden. Kein
Bandbreitenmanagementansatz arbeitet wirklich effektiv, solange er nicht den vollständigen
Durchblick auf alle verwalteten Anwendungen bietet. Diesem Anspruch sollten sich alle anderen
Anliegen unterordnen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+