Anwendungsorientiertes Performance-Monitoring

Effiziente Analyse und Kontrolle des Netzwerks

3. Juni 2014, 7:10 Uhr | Thomas Schuchmann/pf, EMEA Central Sales Engineer Manager bei Compuware, www.compuware.de.

Anwender erwarten heute eine hohe Performance der bereitgestellten Anwendungen. Doch vor allem die Kontrolle der Netzwerkgeschwindigkeit stellt eine große Herausforderung dar. Der Beitrag diskutiert Grenzen und Möglichkeiten unterschiedlicher Messverfahren, gibt aber auch Tipps zur Netzwerkoptimierung.Das Netzwerk bildet die Basis jedes Geschäftsprozesses. Fällt es aus oder ist es auch nur langsam, werden die Mitarbeiter schnell unzufrieden. Sie können Kunden nicht mehr optimal bedienen, und es gehen im schlimmsten Fall sogar Aufträge verloren. Umso erstaunlicher ist, dass die meisten Unternehmen die Funktionsfähigkeit und vor allem die Geschwindigkeit des Netzwerkverkehrs nur unzureichend kontrollieren. Klassische Netzwerk-Monitoring-Lösungen zeigen häufig nur, ob die Systeme überhaupt laufen. Denn bisher waren Messungen zur Netzwerkkontrolle separat und losgelöst von der Betrachtung der Applikationen. Netzwerkexperten verfügen über spezifische Verantwortungsbereiche und Tools. Ihre Monitoring- und Analysewerkzeuge funktionieren daher häufig nicht mit allen Komponenten, sodass sie nur einen Teil des Datenverkehrs messen. Mehrere Tools wiederum führen schnell zu einem erheblichen Verwaltungsaufwand für die Analyse sowie für Wartung und Updates. Heterogene, gewachsene Infrastrukturen und zahlreiche neue Techniken erschweren zudem eine zentrale, umfassende Kontrolle. So kommen heute neben physischen oft virtuelle Server zum Einsatz. Die Virtualisierung erfasst auch zunehmend die Speicher- und Desktop-Ebene sowie das Netzwerk selbst, sei es durch virtuelle Switches, Router und Load Balancer, sei es durch Software-Defined Networks, die Kontroll- und Datenebene trennen. Diese verschiedenen Schichten liegen im Rahmen von Cloud Computing auch noch teils innerhalb und teils außerhalb der Unternehmensgrenzen. So durchschauen selbst Spezialisten diese vielfältigen Interaktionen nicht mehr. Eine weitere Herausforderung ist die Skalierbarkeit angesichts explodierender Datenmengen. So sagt etwa der aktuelle Cisco Visual Networking Index voraus, dass der weltweite IP-Datenverkehr von 2012 bis 2017 auf das Dreifache steigt, nämlich auf 121 EByte (Exabyte) pro Monat. Ein Treiber dafür ist das "Internet der Dinge", in dem Objekte miteinander vernetzt sind und automatisch Daten austauschen. Damit wird es 2017 gemäß der Studie mehr als 19 Milliarden Netzwerkverbindungen zwischen fest installierten oder mobilen persönlichen Endgeräten sowie Maschine-zu-Maschine-(M2M-)Verknüpfungen geben. Auch dort sind viele herkömmliche Monitoring Tools schnell überfordert, da sie nur eine begrenzte Kapazität an Daten und Transaktionen auswerten können.   Mögliche Messverfahren Grundsätzlich gibt es verschiedene Ansätze zur Netzwerküberwachung. Der klassische misst die Datenmenge, die an einem bestimmten Port übertragen wird. Früher stand nur ein Port pro Anwendung zur Verfügung, sodass ein fehlender oder ungewöhnlich geringer Datenverkehr über einen Port darauf hinwies, dass die entsprechende Anwendung nicht mehr reibungslos lief. Dann war nur noch der entsprechende Server oder Router beziehungsweise Switch zu identifizieren, der den Flaschenhals darstellte. Inzwischen laufen aber durch das IP-Protokoll viele Anwendungen über einen Port, wodurch deren Datenströme mit diesen einfachen Mitteln nicht mehr unterscheidbar sind. Einen aktuelleren Ansatz stellt die Einrichtung eines speziellen Filternetzes dar. Dieses sortiert die Daten, die Messsysteme an verschiedenen Stellen im Netzwerk sammeln, mithilfe von Filtern vor. Anschließend werden sie so verarbeitet, dass sie exakt zu der Analyseaufgabe des entsprechenden Werkzeugs passen. Dies funktioniert unabhängig davon, wo die Daten entstehen. Inzwischen gibt es dafür hoch skalierbare Lösungen, die durch neue Komponenten beliebig erweiterbar sind. Alternativ dazu ist die Auswertung der Flow-basierenden Daten aus Switches und Routern denkbar. Dieser Messmethode kann sich nicht nur jede Applikation erkennen, sondern auch deren Leistung ermitteln. Eine weitere Möglichkeit bildet die Analyse der Informationen, die sich aus Datenströmen an eingehenden und ausgehenden Ports gewinnen lassen. Dies ermöglicht Rückschlüsse auf die Performance der jeweiligen Anwendungen. All diese Ansätze messen zwar die Datenströme und Geschwindigkeiten an Netzwerk-Ports und Anwendungen, lassen aber keine Aussage über einzelne Vorgänge oder Transaktionen zu. Mehr Detailgenauigkeit bietet das anwendungsorientierte Netzwerk-Performance-Monitoring (AA-NPM, Application-Aware Network Performace Monitoring), das auf synthetischem und sogenanntem Real User Monitoring basiert. Beim synthetischen Monitoring sind an verschiedenen Stellen im Netzwerk und im Rechenzentrum Roboter installiert, die automatisch in definierten Intervallen immer wieder die gleiche Transaktion ausführen. Dies zeigt aber nur die grundsätzliche Funktionsfähigkeit der Komponenten. Ein echter Anwender hat dagegen ein völlig anderes Nutzungsverhalten. Daher bezieht das Real User Monitoring tatsächliche Nutzer in die Analyse ein. Dazu sind "Messfühler" im Netzwerk installiert, um die Performance von Transaktionen aus Anwendersicht zu überwachen. Aus den eingehenden Datenpaketen lassen sich somit die Performance-Werte sämtlicher Transaktionen für jeden Standort und jedes Gerät ermitteln und analysieren. Dies ermöglicht einen erheblich detaillierten Einblick in die Performance jeder Infrastrukturschicht - wie zum Beispiel Anwendungs-Server oder Load Balancer - sowie die Korrelation zwischen dem Datenverkehr im Frontend und Backend von Applikationen sowie der unterstützenden Netzwerkinfrastruktur. Über ein entsprechendes Dashboard können IT-Verantwortliche dann genau erkennen, wie viele Nutzer, welche Standorte oder gar welche Transaktionen von einem konkreten Problem betroffen sind und welchen möglichen Einfluss dieses auf Geschäftsprozesse hat.   Grundsätzliche Schritte Unabhängig von der verwendeten Messmethode sollten Unternehmen einige grundsätzliche Punkte beachten, damit das Netzwerk performant läuft. Der vielleicht wichtigste Schritt hat dabei mit dem Netz selbst gar nichts zu tun. Er besteht vielmehr darin, zu erreichen, dass die Anwendungen so geringe Kapazitäten benötigen wie möglich und so wenig "geschwätzig" sind wie möglich. Denn je kleiner die Datenmenge ist, die sie anfordern und bearbeiten, und je seltener Anfragen und Antworten notwendig sind, desto weniger belasten sie das Netzwerk. Es geht also nicht nur um die reinen Datenmengen, sondern auch um die Art der Datenverknüpfung. Dies gilt besonders für mobil genutzte Apps, da dort die Netzwerkverbindung meist limitiert ist und ein Flaschenhals beziehungsweise lange Netzlaufzeiten zu deutlichen Verzögerungen führen. Zuerst sollten Verantwortliche überprüfen, wie viel Zeit das Netzwerk benötigt, um beispielsweise eine neue Seite darzustellen oder die angezeigte Oberfläche zu aktualisieren. Lange Antwortzeiten geben einen Hinweis, dass unnötig viele Daten transportiert werden oder der Server mit überflüssigen Nebenaktivitäten beschäftigt ist. Im zweiten Schritt ist eine effiziente Zwischenspeicherung der Seite sicherzustellen. Falls eine Anwendung nach jedem Klick die gleichen Inhalte oder angezeigten Buttons immer wieder neu laden muss, belastet dies das Netzwerk unnötigerweise. Viele Daten lassen sich zudem komprimieren - zum Beispiel Bilder, Word-Dokumente, Power-Point-Dateien oder Datenbankzugriffe. Dies spart nicht nur Speicherplatz, sondern auch Übertragungsbedarf im Netzwerk. Mehrere Javascript- oder CSS-Dateien können sogar in jeweils einer Datei zusammengefasst werden.   Netzwerkoptimierung Auch bei der Konfiguration des Netzwerks lassen sich Optimierungen vornehmen. Wichtig ist dabei vor allem eine angemessene Reaktion auf Fehler. Versucht die Anwendung oder das Netzwerk immer wieder vergeblich, die Anfrage zu bearbeiten, steigt nur unnötig der Datenverkehr. Stattdessen bietet es sich an, erfolglose Wiederholungen spätestens nach dem dritten Versuch zu unterbinden und eine automatische Fehlermeldung an den Administrator zu senden. Insgesamt sollten so wenige Daten wie möglich zur Übertragung kommen. Es lässt sich immer wieder feststellen, dass einige Anwendungen in größerem Umfang Daten anfordern oder das Netzwerk aufgrund mangelhaft eingestellter Zugriffsrechte mehr Daten liefert als nötig. Im Extremfall durchsucht ein Anfrageprozess die komplette Datenbank des Unternehmens statt zum Beispiel nur die entsprechenden Informationen zu einem Kunden, um dessen monatlichen Rechnungsbetrag zu ermitteln.   Fazit Klassisches Netzwerk-Monitoring liefert nur Antworten auf grundlegende Fragen: Welche Nutzer oder welche Standorte nutzen welche Applikationen? Wie schnell sind diese Interaktionen aus Sicht des Netzwerks? Doch einerseits erschweren die zunehmende Komplexität und Größe von Netzwerken die Ermittlung zuverlässiger Werte, andererseits erfordern moderne Geschäftsprozesse eine schnelle sowie eindeutige Fehleridentifizierung und -behebung. Dies ist nur möglich, wenn sich vom Rechenzentrum und/oder der Cloud über die Netzwerkinfrastruktur bis zum Endgerät des Anwenders die gesamte Lieferkette der Anwendungen bis hinunter zur Transaktionsebene erfassen, analysieren und darstellen lässt.

Die Ergebnisse des anwendungsorientierten Netzwerk-Performance-Monitorings lassen sich in Dashboards visualisieren. Verantwortliche erhalten so einen 360-Grad-Blick auf Anwendungen und Standorte sowie eine Multi-Tier-Performance-Analyse mit Bezug auf den Endnutzer.

Anwendungsorientiertes Netzwerk-Performance-Monitoring verbindet Performance-Werte des Netzwerks und der Anwendungen auf Transaktionsebene. Es liefert detaillierte Einblicke in jede Infrastrukturschicht und korreliert den Datenverkehr im Frontend und Backend von Applikationen sowie der unterstützenden Netzwerkinfrastruktur.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu VUD

Weitere Artikel zu Bundeskartellamt

Matchmaker+