Dezentralisierte Messpunkte

Latenzen in Schach halten

2. März 2022, 7:00 Uhr | Timur Özcan/am
© Wolfgang Traub

Es ist noch nicht so lange her, dass Unternehmen ihre kritischen Geschäftsanwendungen ausschließlich in eigenen Netzwerken von Servern und Client-PCs unter­gebracht haben. Die Überwachung und Fehlerbehebung von Leistungsproblemen, wie zum Beispiel der Latenz, war einfach umzusetzen. Obwohl sich Tools zur Netzwerküberwachung und Diagnose stark verbessert haben, hat die Einführung einer Vielzahl von miteinander verbundenen SaaS-Anwendungen und Cloud-gehosteten Diensten die typische Netzwerkkonfiguration stark verkompliziert, was negative Auswirkungen haben kann.

Da Unternehmen vermehrt Anwendungen und das Daten-Hosting an externe Anbieter auslagern, führt dies immer schwächere Links in das Netzwerk ein. SaaS-Dienste sind im Allgemeinen zuverlässig, aber ohne eine dedizierte Verbindung können sie nur so gut sein wie die Internetverbindung, die sie verwenden. Aus Sicht des Netzwerk-Managements besteht das sekundäre Problem bei extern gehosteten Applikationen und Services darin, dass das IT-Team weniger Kontrolle und Transparenz hat, was es erschwert, dass Dienstleistungsanbieter im Rahmen ihrer Vereinbarungen (Service-Level-Agreements, SLAs) bleiben.

Die Überwachung des Netzwerkverkehrs und die Fehlerbehebung innerhalb der relativ kontrollierten Umgebung einer Unternehmenszentrale ist für die meisten IT-Teams zu bewältigen. Aber für Organisationen, die auf einem verteilten Geschäftsmodell beruhen, mit mehreren Zweigstellen oder Beschäftigten an entfernten Standorten, führt die Verwendung dedizierter MPLS-Leitungen (Multiprotocol Label Switching) schnell zu hohen Kosten.

Bedenkt man, dass der Datenverkehr von Anwendungen wie Salesforce, Skype for Business, Office 365 oder Citrix in der Regel den Hauptgeschäftssitz umgehen, ist es nicht verwunderlich, dass Latenz immer schwerer zu erkennen und  zu beheben ist. Ein Opfer der Latenz ist zum Beispiel die VoIP-Anrufqualität, die sich in unnatürlichen Verzögerungen bei Telefongesprächen manifestiert. Ein weiterer Bereich, in dem die Latenz ihren Tribut fordert, ist die Datenübertragungsgeschwindigkeit. Dies kann zu einer Reihe von Problemen führen, insbesondere wenn Organisationen große Dateien von einem Ort zu einem anderen übertragen oder kopieren. Auch bei großen Datentransaktionen wie einer Datenbankreplikation kann die Latenz ein Problem darstellen, da mehr Zeit für die Durchführung von Routineaktivitäten erforderlich ist.

Auswirkungen von dezentralisierten Netzwerken und SaaS

Bei vielen standortübergreifenden Verbindungen zum Internet ergibt es Sinn, dass die Leistungsüberwachung von Unternehmensnetzwerken aus dem Datacenter heraus erfolgt. Ein Ansatz besteht darin, Tools zu finden, die die Verbindungen an allen Remote-Standorten überwachen. In den meisten Unternehmen sind fast täglich Anwendungen wie Outlook, Word und Excel im Einsatz. Bei der Verwendung von Office 365 sind diese Anwendungen wahrscheinlich so konfiguriert, dass sie sich mit Azure verbinden und nicht mit dem Unternehmens-RZ. Wenn das IT-Team die Netzwerkleistung nicht direkt in der Zweigstelle überwacht, verliert es die Nutzererfahrung an diesem Standort vollständig aus den Augen.

Wenn Datenverkehr von SaaS-Anbietern und anderen Cloud-basierten Speicheranbietern von und zu einem Unternehmen gelangt, kann es beispielsweise durch Jitter oder geringe Rechengeschwindigkeit zu Beeinträchtigungen kommen. Die entstehende Latenz kann für die Beteiligten eine ernsthafte Einschränkung darstellen. Die Zusammenarbeit mit Anbietern, die sich in der Nähe der benötigten Daten befinden, ist eine Möglichkeit, um potenzielle Probleme aufgrund von Entfernungen zu minimieren. Aber selbst in einem parallelen Prozess haben Unternehmen möglicherweise Tausende oder Millionen von Verbindungen, die versuchen, gleichzeitig „durchzukommen“. Dies führt zwar zu einer eher geringen Verzögerung, jedoch summieren sie sich auf und vergrößern sich über weite Distanzen.

Früher war es so, dass IT-Teams klare Netzwerkpfade zwischen ihrem Unternehmen und Rechenzentrum definieren und überwachen konnten. Sie konnten auf internen Systemen ausgeführte Anwendungen steuern und regulieren, da alle Daten lokal installiert und gehostet waren, ohne auf die Cloud zuzugreifen. Dieses Kontrollniveau ermöglichte einen besseren Einblick in Probleme wie Latenz und erlaubte es, eventuell auftretende Probleme schnell zu diagnostizieren und zu beheben.

Die Verbreitung von SaaS-Anwendungen und Cloud-Diensten hat die Leistungsdiagnostik von Netzwerken allerdings so kompliziert gemacht, dass neue Maßnahmen erforderlich sind. Ursachen für diesen Trend sind die zusätzliche Komplexität, Distanz und mangelnde Sichtbarkeit. Wenn ein Unternehmen seine Daten oder Anwendungen an einen externen Anbieter überträgt, anstatt sie lokal zu hosten, fügt dies effektiv eine dritte Partei in den Mix der Netzwerkvariablen ein. Jeder dieser Punkte führt zu einer potenziellen Schwachstelle, die sich auf die Netzwerkleistung auswirken kann. Diese Dienste sind zwar größtenteils stabil und zuverlässig, aber Ausfälle bei einem oder mehreren Diensten kommen selbst bei den Branchengrößten vor und können sich auf Millionen von Benutzer auswirken. Tatsache ist, dass es viele Variablen in einer Netzwerklandschaft gibt, die die IT-Teams der Unternehmen nicht mehr kontrollieren können. Eine Möglichkeit, mit der Unternehmen versuchen die Leistung sicherzustellen, besteht darin, einen dedizierten MPLS-Tunnel zu nutzen, der zur eigenen Unternehmenszentrale führt. Aber dieser Ansatz ist teuer, und die meisten Unternehmen nutzen diese Methode nicht für ihre Zweigstellen.

Anbieter zum Thema

zu Matchmaker+

  1. Latenzen in Schach halten
  2. Geeigneter Ansatz

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Netzwerk-Management

Weitere Artikel zu NOKIA GmbH

Weitere Artikel zu Nimsoft

Matchmaker+