In vielen Rechenzentren könnte man meinen, es spukt. Die Virtualisierung spielt verrückt, das Unified Computing macht sein eigenes Ding, oder andere Systeme rauben dem Administrationsteam den Schlaf. Selbstverständlich sind nicht Geister die Ursache für diese Phänomene – auch wenn manchmal der Eindruck entsteht. Doch was treibt denn nun sein Unwesen im Rechenzentrum? Monitoring-Tools machen die Störenfriede sichtbar.
DDos-Attacken, Viren, Trojaner und andere Bedrohungen durch Hackerangriffe können dem Datacenter schaden. IT-Systeme sind jedoch nicht nur anfällig für Bedrohungen aus der IT-Welt.
Neben Cyberangriffen können gleichermaßen völlig irdische Aspekte wie Verschleiß oder Umgebungsparameter enorme Auswirkungen auf Systeme und Geräte haben. Um das Offensichtliche im Blick zu behalten, sind in Rechenzentren meist verschiedene Sicherheitssysteme wie Schließanlagen, Feuermelder und Überwachungskameras im Einsatz. Doch was ist mit den Gefahren, die für das menschliche Auge zunächst unsichtbar sind?
Bereits kleinste Änderungen in der Umgebungsluft wie beispielsweise Temperatur, CO2-Konzentration oder Luftfeuchtigkeit wirken sich auf Zuverlässigkeit, Leistung und Lebensdauer von IT-Komponenten aus. Eine erhöhte Luftfeuchtigkeit kann beispielsweise Kondensation im Inneren eines Servers erzeugen. Kurzschlüsse und Korrosion sind als Folgen kaum vorhersehbar oder nachvollziehbar.
Bei zu hoher Temperatur drosseln viele Prozessoren ihre Geschwindigkeit, oder Server schalten sich aus Sicherheitsgründen ab. Ist dieser Zustand erreicht, vergeht einige Zeit, bis die Geräte wieder Normaltemperatur erreicht haben und ihren Betrieb wieder aufnehmen. Die Verfügbarkeit und Funktion essenzieller Anwendungen, relevanter Prozesse, der Zugriff auf wertvolle Daten und die Arbeit ganzer Abteilungen können somit in Gefahr sein.
Monitoring offenbart das Unsichtbare
Um solche bösen Überraschungen von vornherein zu vermeiden, sollten Administratoren zusätzlich zu ihren Systemen und Geräten auch die Umgebung des Rechenzentrums im Blick behalten. Ein ganzheitliches Monitoring ermöglicht die Überwachung sämtlicher Bereiche:
Die Verantwortlichen verfügen mit einem solchen Tool über einen Geisterjäger, der 24/7 das gesamte Rechenzentrum überwacht und alle sichtbaren sowie unsichtbaren Gefahren enttarnt.
Ausgerüstet für die Geisterjagd
Um den Anforderungen des Datacenters zu entsprechen und sämtliche Phänomene aufzudecken, sollte das Monitoring-Tool diverse Features mitbringen. Grundsätzlich sind ein technischer Support und kontinuierliche Updates von Vorteil, um jederzeit auf aktuelle Entwicklungen reagieren zu können. Besonders wichtig ist, dass Verantwortliche in einem zentralen Dashboard alle Informationen aus ihrer heterogenen RZ-Infrastruktur finden, ohne zwischen fünf Tools hin und her wechseln zu müssen. Dazu sollte die Monitoring-Lösung möglichst viele Komponenten „out of the box“ unterstützen.
Etwas spezifischer sind die Anforderungen bezüglich der unterstützten Schnittstellen. Da in vielen Rechenzentren nach wie vor ältere Geräte oder individuelle Applikationen im Einsatz sind, ist es wichtig, dass das Tool APIs und Templates mitbringt, die das Einbinden aller Komponenten erlauben und möglichst einfach machen. Die Lösung sollte in der Lage sein, zum Beispiel durch SNMP, Modbus TCP oder OPC UA das Netzwerk, den Datenverkehr sowie die komplette Infrastruktur und Sicherheitstools in das Monitoring einzubeziehen. Zudem ist ein spezifisches Rechte-Management-System wichtig, um klare Zuständigkeiten festzulegen. Außerdem sollte die Auswertung in anschaulichen Dashboards und flexiblen Reportings erfolgen, damit alle Ergebnisse für den Administrator oder die Management-Ebene auf einen Blick zur Verfügung stehen.
„Die Geister, die ich rief“
In festgelegten Intervallen fragt die Monitoring-Lösung über Standardschnittstellen den jeweiligen Gerätezustand sowie Umgebungs- und Umwelteinflüsse, Sicherheitsfaktoren oder technische Funktionen ab. So sehen Systemadministratoren auf einen Blick, ob beispielsweise die erhöhte Temperatur einer Server-CPU eine kurzfristig erhöhte Rechenlast verursacht hat oder, ob die Raumtemperatur insgesamt gestiegen ist und so auch andere Komponenten beeinträchtigt sind.
Um das Rechenzentrum vor physischen Angriffen von außen zu schützen, behalten manche Monitoring-Tools auch die Gebäudesicherheit im Blick. Dazu lassen sich beispielsweise verschiedene Sicherheitssysteme in das Monitoring integrieren, wie Schließanlagen, Rauch- und Gasmelder, Temperaturfühler und Überwachungskameras.
Aber wie lassen sich Umgebungsparameter am besten in das Monitoring integrieren? Vorab sind entsprechende Hardwaresensoren nötig, die Messwerte für Temperatur, Luftfeuchtigkeit und andere Umgebungsfaktoren liefern. Damit sich diese Parameter überwachen lassen, sind Sensoren innerhalb oder außerhalb des Server-Raums anzubringen. Nach der Anbindung an das Netzwerk erfolgt die Wahl der Übertragungstechnik. Viele Geräte unterstützen SNMP und stellen eine entsprechende Management-Information-Base (MIB) zur Verfügung, die sich anschließend in ein geeignetes Format konvertieren lässt. Dabei definiert eine MIB die verfügbaren Informationen und Eigenschaften eines Netzwerkgeräts und liest die gewünschten Daten über SNMP aus.