Digitale Transformation im Mittelstand

IT-Monitoring als Informationsbasis

22. November 2016, 8:00 Uhr | Von Fabian Konitzko.

Der Terminus "digitale Transformation" ist in aller Munde. Die Umstellung auf neue Techniken gilt für Unternehmen als Herausforderung und Chance zugleich. Die technischen Voraussetzungen für das digitale Zeitalter sind gegeben, trotzdem ist der Weg noch weit: Es gilt zunächst, das eigene Netzwerk kennenzulernen, um auf derart tiefgreifende Änderungen vorbereitet zu sein.

Neue Trends wie "digitale Transformation" tauchen in der Regel zuerst in den Medien auf, dann bei großen Unternehmen und kommen erst nach einiger Zeit auch im Mittelstand an. Dabei sind kleine und mittlere Unternehmen (KMU) vor allem in Deutschland der entscheidende Wachstumsfaktor für die Wirtschaft und gleichzeitig wesentliche Treiber aktueller Techniktrends. Einerseits sind sie daher auf die rasche Implementierung neuer Technik angewiesen, andererseits zeigt sich in diesem Segment eine deutliche Kluft bei der Nutzung technischer Innovationen. Für einige Unternehmen kommt die digitale Transformation zu früh - es fehlen die Ressourcen. Andere können sie kaum erwarten und machen Fehler durch vorschnelle Entscheidungen. Denn jede neue Digitaltechnik bedeutet auch eine Umstellung für die existierende IT-Infrastruktur.

Netzwerkkenntnis als Voraussetzung für Digitalisierung

Um die Einführung neuer Techniken bestmöglich vorzubereiten, ist es daher essenziell, die Beschaffenheit und Leistungsfähigkeit der vorhandenen Infrastrukturen genau zu kennen. Es gilt, alle Anforderungen möglichst präzise im Vorhinein abschätzen zu können. Während des Einführungsprozesses müssen die Verantwortlichen alle Geräte, Leistungsdaten und Prozesse ständig im Blick behalten. Nur so kann die IT gewährleisten, dass technische Innovationen schnell und reibungslos einen Mehrwert für das Unternehmen bringen und nicht zu einer zusätzlichen Belastung werden. Auch dabei gilt: Informationen sind alles. Und das wichtigste Werkzeug jedes Administrators zur Beschaffung und Analyse von Informationen im Netzwerk ist ein Monitoring Tool.

Dabei geht es um nichts weniger, als den laufenden IT-Betrieb eines Unternehmens zu sichern. Die mit einem solchen Tool über einen längeren Zeitraum gewonnenen Daten bilden die Grundlage bei der Einführung neuer Techniken. Während der Einführung der Digitalisierung ist es unerlässlich, sowohl die Belastung der etablierten Infrastruktur weiter im Auge zu behalten als auch die neu eingeführten Komponenten in das Monitoring zu integrieren. Die Belastung eines Netzwerks äußert sich in unzureichend vorhandener Bandbreite, plötzlich auftretenden Lastspitzen, die womöglich über einen längeren Zeitraum bestehen bleiben, sowie häufigen Speicherüberlastungen. Um solches zu erkennen, ist ein effizient arbeitendes Monitoring erforderlich.

Die Herausforderung für IT-Teams besteht darin, die Ursachen für den Anstieg von Belastungen zu identifizieren. Generell sollte die eingesetzte Lösung möglichst schlank und einfach zu bedienen sein, um schnell auf neue Anforderungen reagieren zu können. Sie sollte zudem Standards wie SNMP, WMI, HTTP oder FTP, aber auch Hardware wie Switches, Router und Firewalls sowie Applikationen jeder Art "out of the box" unterstützen. Wichtig ist auch, dass sie flexibel genug ist, um nichtstandardisierte und speziell neue Komponenten integrieren zu können. Sprich: Die Lösung sollte ein leistungsfähiges API (Application Programming Interface) und Vorlagen mitbringen, die dem zuständigen Techniker die Integration soweit wie möglich erleichtern.

Den Menschen einbeziehen

Ein weiterer, wichtiger Aspekt sind die Möglichkeiten zur Publikation der ermittelten Daten: Digitalisierung bedeutet im Wesentlichen das Einbeziehen von Nicht-IT-Komponenten in die IT. Dabei geht es aber sowohl um Technik als auch um Menschen. Digitalisiert beispielsweise ein Unternehmen im Rahmen von "Industrie 4.0" ganze Produktionsanlagen und bindet diese an die zentrale IT an, so müssen die Kollegen in der Produktion ebenfalls Zugriff auf die entsprechenden Daten haben. Das heißt, die eingesetzte Monitoring-Lösung sollte möglichst einfach zu bedienen sein, um auch weniger erfahrenen Kollegen die Verwendung des Monitorings zu ermöglichen.

ll12s02_bild-1
Überwachung verteilter Standorte mittels "Remote Probes" am Beispiel von PRTG Network Monitor.Bild: Paessler

Zumindest muss die Lösung Mittel zum gezielten und übersichtlichen Publizieren der Daten mitbringen. Dazu gehören Reporting Tools ebenso wie die Möglichkeit, ermittelte Daten in übersichtlichen Karten ("Maps") beziehungsweise in einem intuitiv verständlichen Dashboard anzuzeigen. Die Übersichtlichkeit der Darstellung stellt ein entscheidendes Argument für oder gegen eine bestimmte Netzwerk-Monitoring-Lösung dar. Die exaktesten Daten nutzen nichts, wenn sie unverständlich kommuniziert sind.

Als Ziel gilt in diesem Zusammenhang ein zentraler Leitstand, der die gesamten Leistungsdaten des Unternehmens bündelt und übersichtlich darstellt. Dabei ist es von Vorteil, wenn die eingesetzte Lösung in der Lage ist, einzelne Komponenten beziehungsweise Werte in Prozessen zusammenzuführen. So lassen sich für die jeweils verantwortlichen Kollegen oder das Management ganze Bereiche zusammenfassen und übersichtlich darstellen. Der Zuständige sieht den gesamten Prozess etwa des E-Mail-Sende- und Empfangsvorgangs oder des Shops, ohne sich um die in diesen Prozess involvierten Details wie Web-Server, Datenbanken, Firewalls etc. kümmern zu müssen.

Zwei Ansätze für verteilte Standorte

Bei vielen Digitalisierungsmaßnahmen sind mehrere Standorte im Spiel. Ob Daten und IT-Prozesse lokal oder in der Cloud ablaufen, oder ob verteilte Produktionsanlagen und IT-Standorte miteinander verbunden sind: Die Monitoring-Lösung muss in der Lage sein, räumlich verteilte Anlagen zu überwachen und in einer einzigen Lösung zusammenzuführen. Je einfacher und schlanker dies realisiert ist, desto erfolgreicher wird sich die Lösung in der Praxis bewähren. Grundsätzlich konkurrieren dabei zwei Ansätze: zentrale sowie verteilte Installation der Monitoring-Lösung.

Zentrale Installation: Das Unternehmen betreibt dabei eine vollwertige Instanz der Monitoring-Software in seinem zentralen Rechenzentrum. An den einzelnen Standorten sind sogenannte Remote Probes installiert, die dort über die unterschiedlichen Protokolle Monitoring-Daten sammeln und an die zentrale Instanz schicken. Letztere wertet die Daten aus, speichert und publiziert diese, beziehungsweise alarmiert im Ernstfall die Verantwortlichen. Der wesentliche Vorteil dieser Methode liegt bei Benutzerfreundlichkeit und Preis: Die Probes an den Standorten sind schnell eingerichtet, Updates erfolgen automatisch, und es ist nur eine Lizenz erforderlich. Problematisch kann es jedoch werden, wenn die Verbindung zwischen den Standorten unterbrochen ist. Dann läuft das Monitoring an den einzelnen Standorten zwar noch weiter, allerdings nur für einen begrenzten Zeitraum.

Dezentrales Konzept

Verteilte Installationen: Bei diesem Ansatz erfolgt an jedem Standort eine vollwertige Installation der Monitoring-Lösung. Sämtliche Installationen sind in einem übergeordneten Dashboard zusammengefasst und liefern so einen zentralen Überblick. Bei einer unterbrochenen Verbindung arbeiten die einzelnen Installationen vor Ort unbegrenzt weiter. Allerdings erfordert dieses Modell große Aufwände bei der Implementierung und Wartung, und die Kosten liegen deutlich über denen der zentralen Installation. Manche Monitoring-Lösungen ermöglichen beide Methoden. Dies bietet Unternehmen eine größere Flexibilität, falls sich das zuerst gewählte Modell mit der Zeit als unzulänglich erweist.

Fabian Konitzko ist Partner Account Manager DACH bei Paessler ().

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Toshiba Mobile Communications Division

Weitere Artikel zu Siemens Schweiz AG

Matchmaker+