Wie sicher ein Rechenzentrum ist, zeigt das Monitoring. Dabei handelt es sich wiederum um weit mehr als nur um eine punktuelle Beobachtung einzelner IT-Komponenten. Noch zu oft wird vernachlässigt, dass IT-Leiter einen zuverlässigen, detaillierten und vollständigen Überblick über ihre IT-Landschaften benötigen.

Zum beobachteten Umfeld zählt in jedem Fall auch die physische IT-Sicherheit. Erst so kann ein Rechenzentrum überhaupt sicher und hochverfügbar sein. Ohne Überblick tritt dagegen immer eine von zwei Folgen auf: im besseren Fall unnötige Kosten – im schlimmeren der RZ-Ausfall. Monitoring bedeutet zum einen die Kontrolle der Infrastruktur wie zum Beispiel Technik-, Klima- oder USV-Räume und deren Komponenten. Zum anderen umfasst es jedoch auch die Überwachung und damit den Schutz vor physischen Bedrohungen wie Wasser, Feuer sowie jeglicher Form von unautorisierten Zutritten, Zugriffen oder EMV-Angriffen. Die spezifischen Informationen und Störmeldungen müssen dann nicht nur zusammenlaufen, sondern auch ausgewertet werden. Letztlich ist ein Plan notwendig, der klärt, wer im Störfall worauf reagiert. Im Gegensatz zur punktuellen Überwachung der IT-Systeme ist der große Gewinn dann ein vollständiger, rechtzeitiger Alarmierungsprozess.

Zur Problematik gehört vielerorts, dass unterschiedliche Geräte und Applikationen zum Monitoring der unterschiedlichen Gewerke dienen. Zum Beispiel nutzen die Brandfrüherkennung und die USV eigene Systeme und Konfigurationen. Dies darf und kann auch so sein. Entscheidend ist nur, die dezentralen Daten über Schnittstellenkommunikation zu bündeln und die relevanten Informationen in einem Monitoring-System zur Verfügung zu stellen. Die Implementierung weiterer Einzelsysteme scheitert oft allerdings daran, dass RZ-Verantwortliche den vermeintlich hohen Aufwand und die Kosten einer Konsolidierung fürchten.

Gute Monitoring-Systems müssen sowohl Kennzahlen wie die Raumparameter analysieren als auch die als hoch kritisch identifizierten Gewerke und deren wichtigste Elemente erfassen. Bild: Data Center Group

Dabei kann die Lösung bereits in Form eines adaptiven und offenen Monitoring-Systems bestehen, das die Kommunikation der Schnittstellen übernimmt.

Da die meisten Systeme und Gewerke in der Regel die Möglichkeit anbieten, Basisinformationen herauszugeben, sollten praktikable Lösungen dann auch nur wenig Aufwand verursachen, um die relevanten Daten zu erfassen, zu verarbeiten und weiterzugeben. Sie müssen allerdings sowohl Kennzahlen wie die Raumparameter analysieren als auch die als hoch kritisch identifizierten Gewerke und deren wichtigste Elemente erfassen. Idealerweise ist ein Monitoring-System dann komplett in eine Anwendung integrierbar, zum Beispiel das bestehende IT-Monitoring. Dieses schafft eine handhabbare Lösung aus Überwachung der physischen IT-Infrastruktur und dem bestehenden IT-Monitoring.

Diese sichtbar gemachten Kennzahlen können dazu dienen, die Betriebsabläufe im Rechenzentrum zu verbessern. Die konstante Analyse, Überwachung und Auswertung der relevanten Betriebsdaten steigern die Verfügbarkeit und Effizienz der IT-Infrastruktur. Gleichzeitig veranschaulichen sie, wenn eine Bedrohung entsteht oder entstehen könnte. Anhand von Schnittstellen und Übergabepunkten folgt dann die Alarmierung. Zum Beispiel ist es abhän-gig von Sicherheitsanforderung und -level möglich, diese Informationen klassisch per SMS, E-Mail oder über die Push-Notification einer App an den zuständigen Service-Techniker der einen anderen Verantwortlichen zu senden.

Zum gesamten Monitoring-Prozess gehört jedoch auch, dass er nicht enden darf, nachdem die Informationen an irgendeinen E-Mail-Verteiler gegangen sind. Noch zu oft ist dieser Prozess nicht zu Ende gedacht. Entscheidend ist, zu analysieren und definieren, wie ein ganzheitlicher Ablauf der Datenaufnahme, -bearbeitung und Alarmierung aussieht. Dazu sind durchgängige Prozesse zu definieren und zu implementieren.

Felix Berndt ist Business Development Manager bei der Data Center Group, www.datacenter-group.de.