Events

Offen, vernetzt und programmierbar

Monitoring ist Silber, Observability ist Gold

29. Oktober 2020, 06:00 Uhr   |  Klaus Kurz/jos

Monitoring ist Silber, Observability ist Gold
© New Relic

Micro-Service-Architekturen, Serverless, DevOps und Infrastructure as Code sei Dank – wer heute mit dem Deployment von Produktionsumgebungen betraut ist, der nimmt sich seiner Aufgabe mit weitaus häufigeren Iterationen an als noch vor einigen Jahren. Und er darf die Nutzer dabei in regelmäßigem Turnus mit Innovationen begeistern. Doch auch hier gibt es eine Kehrseite.

Im Zuge dieser Entwicklung kommt es nicht nur zu mehr Komplexität und Volatilität in der Public Cloud, sondern auch zu einer fragmentierten Infrastruktur mit einer großen Zahl unterschiedlicher Tools und enormen Datenmengen. Die Verwaltung all der verschiedenen Service-Architekturen erfordert zudem mehr und mehr spezifische Fachkenntnis, der immer schwerer im nötigen Umfang beizukommen ist.

Keine ganz einfache Gemengelage für Softwareteams. Denn zwar weisen ihre Monitoring-Tools sie durchaus zielgerichtet auf Probleme hin, beim Aufspüren der Fehlerursache sind sie jedoch immer noch auf sich allein gestellt. Genau an dieser Stelle setzt Observability an. Doch wer denkt, es handelt sich dabei einfach nur um Monitoring im neuen Gewand, der irrt. Observability bringt Monitoring auf die nächste Stufe, indem es bei einer Anomalie nicht einfach nur Alarm schlägt, sondern unter anderem anhand konkreter Korrelationen das genaue Warum dahinter eruiert. Es sind die Detailzusammenhänge, die es dabei möglich machen, viel effizienter und zielorientierter auf problematische oder gar prekäre Situationen zu reagieren.

Im Softwarezyklus beginnt Observability zunächst ganz grundlegend bei der Erfassung von Telemetriedaten für jeden Aspekt eines IT- oder Infrastruktur-Systems. Angereichert mit Zusammenhängen zu den verschiedenen Datenpunkten gesellt sich mit der Observability-Plattform dann ein schlagkräftiges Multitalent ins Incident-Arsenal. DevOps-, Operations- wie auch Business-Teams nutzen ihre Resultate dann nahezu nahtlos, da sie leicht interpretierbar sind, ohne dass dafür erst neue technische Fertigkeiten zu erwerben sind. Komplexität und Risiken sind so vom Start weg geringer.

Die Konsolidierung aller Leistungsdaten via Echtzeit-Observability fungiert dabei auch als Triebfeder für Innovation und Software-Deployments mit weniger Arbeitsaufwand und geringeren Kosten. Sie bildet die Leistung digitaler Aktivitäten in Echtzeit für alle Beteiligten nachvollziehbar ab. Daraus ergibt sich ein teamübergreifendes, weitreichendes Verständnis von Daten, Systemen und Initiativen, das sich auch in puncto Unternehmenskultur und Zusammenarbeit deutlich bemerkbar macht.
Moderne Observability soll die Komplexität von Micro-Service-Architekturen ebenso zu bewältigen wissen wie hochfrequente Software-Deployments und die Volatilität containerisierter Cloud-Infrastrukturen. Dabei kommt es zuallererst auf drei grundlegende Elemente an, die in den Fokus-Attributen offen, vernetzt und programmierbar Ausdruck finden.

Säule 1: Offene Instrumentierung

Offen muss vor allem die Instrumentierung sein, um verschiedene proprietäre und Open-Source-Telemetriedaten eines jeden Elements im IT-Ökosystem des Unternehmens erfassen zu können, ob aus mobilen oder aus Desktop-Anwendungen, virtuellen Maschinen oder Containern, ob aus Kubernetes-Clustern oder Middle- und Software innerhalb und außerhalb der Cloud, ob im PaaS-Modell oder anderen Bereitstellungen. Dabei geht es also darum, in Form bestmöglicher Transparenz für alle Anwendungen und Infrastrukturkomponenten im Unternehmen eine entscheidende Grundlage für den Observability-Erfolg zu schaffen.

Dabei sind vier Kern-Telemetriedaten von besonderer Bedeutung, die sich jeweils komplementär ergänzen: Metrics, Events, Logs und Traces (M.E.L.T.). Im Zuge ihrer Kombination lassen sich umfassend Daten aus verschiedensten proprietären Agents und Open-Source-Tools erfassen. Es geht jedoch ebenso auch um Telemetriedaten aus Browsern und mobilen Anwendungen zur Abbildung aller Facetten des sogenannten Nutzererlebnisses sowie individuell definierte Zusammenhänge mit Business-Bezug, um Korrelationen zwischen Anwendungs-Performance und Geschäftsergebnis zu ermitteln.

Angesichts des breiten Spektrums möglicher Datenquellen und Telemetriedaten, die allesamt zentral konsolidiert werden wollen, treten dabei unweigerlich auch Herausforderungen auf. Um diese gekonnt zu adressieren, haben Instrumentierung und Observability-Plattform selbst die Interoperabilität aller Daten zu gewährleisten. Im Rahmen dieses Prozesses müssen Kontextverbindungen zwischen ihnen automatisch ablesbar und herstellbar sein, und zwar ungeachtet von Quellformat und -system.

Säule 2: Vernetzung

Die zweite grundlegende Säule besteht in der Vernetzung und Anreicherung von Daten. Diese gilt es, zunächst in Echtzeit zu erfassen und dabei umgehend mit Metadaten zu korrelieren und zu analysieren, um alle spezifischen thematischen Zusammenhänge in ihrer Gesamtheit und detailgenau zu identifizieren. Die Metadaten entstehen primär durch Telemetrie-Agents. Sie werden dann je nach Anforderung durch externe Daten ergänzt.

Besonders zahlt sich Observability dann aus, wenn ein Unternehmen die mit ihr generierten Einblicke lösungsorientiert bei einem Problempunkt in seiner IT-Infrastruktur einsetzen kann. Dabei geht es in Grundzügen um das oft bemühte Thema Intelligence, mehr noch aber um eine zielgenaue Applied Intelligence. Diese macht es dank maschinellem Lernen und Modellierungen mit Predictive Analytics möglich, Observability-Daten in ihrer Gänze zu erfassen, Rückschlüsse zu ziehen und diese gewinnbringend zu nutzen.

Kurz gesagt: künstliche Intelligenz für IT-Operations, die in einem vermeintlichen Daten-Tohuwabohu wertvolle Informationen und klare Signale ausmacht. Für Gartner firmiert dieses relativ neue Feld passend unter dem Banner AIOps.
Die Datenmengen mögen dabei komplex sein, doch Applied Intelligence strukturiert sie, erweitert Incident-Alerts um Empfehlungen und Hinweise, anhand derer sich die Problemursache schnell ausmachen lässt, und gibt dabei Handlungsansätze zur Behebung. Observability identifiziert Probleme so früh wie möglich und kann so ihre Auswirkungen auf das Unternehmen reduzieren. Dank ihr werden DevOps-Teams zudem auch der tagtäglichen Alert-Schwemme wieder Herr, antizipieren Probleme und beheben sie rascher.

Säule 3: Programmierbarkeit

Bei der dritten Säule, der Programmierbarkeit, kommt es zur Verknüpfung von Observability-Daten und Geschäftszielen. Bessere Observability für eine Anwendung kann sich ganz entscheidend auf das Nutzerempfinden und so letztlich auch auf geschäftliche Kennzahlen und Erfolgstangenten auswirken. Dabei sollen die wichtigsten Maßnahmen für geschäftlichen Erfolg im Tech-Stack identifiziert sein sowie Kern-Kennzahlen, die diesen Erfolg direkt beeinflussen. Im Ergebnis erhalten Softwareteams dadurch die Informationen, die sie benötigen, um auf Daten und Fakten gestützte Entscheidungen zu treffen.

Die Frage, wie genau sich diese realisieren lassen, stellt sich dabei natürlich ebenso. Dashboard-Visualisierungen bilden auch bei Observability-Plattformen die Grundlage. Sie mögen so flexibel wie Feature-freudig sein, ausreichend sind sie jedoch angesichts sich stets rapide verändernder Tech-Umgebungen und höchst unternehmensspezifischer Kennzahlen nicht. Gefragt sind vielmehr Techniken, die Unternehmens- und Telemetriedaten in einer Observability-Plattform bündeln und in diesem Zuge so innovative wie individuelle Szenarien zur Datenanalyse ermöglichen. Dazu gehört unter anderem auch die Zusammenführung mit externen Live-Datensätzen, was mit einfachen Dashboards nicht möglich wäre. Dabei ergeben sich präzise Modelle für Echtzeit-Monitoring von System- und Geschäftsperformance, die verschiedenen Unternehmensbereichen zugutekommen.

Seite 1 von 2

1. Monitoring ist Silber, Observability ist Gold
2. Flexibilität

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

Performance-Monitoring