In Rechenzentren arbeiten verschiedene Geräte und Anlagen, die einen reibungslosen Betrieb sicherstellen und beispielsweise für die sichere Klimatisierung sowie Energieverteilung sorgen. Um eine Verfügbarkeit von bis zu 99,999 Prozent zu gewährleisten, muss garantiert sein, dass alle Anlagen ausreichend überwacht sind und ein Monitoring-System etwaige Fehlermeldungen entgegennimmt.

Zusätzlich zur Verfügbarkeit sind die Auslastung sowie der Wirkungsgrad für den Betreiber von Bedeutung, denn an dieser Stelle lassen sich sowohl Energie als auch Geld sparen. Einzelne USV-Anlagen eines Verbunds können zum Beispiel in den Standby-Betrieb übergehen, wenn die Auslastung des Rechenzentrums gering ist. Ebenso deutet eine ungewöhnlich hohe Auslastung auf Fehler hin, die bei einer entsprechenden Überwachung früher zu erkennen sind. Auf diese Weise kommt etwa frühzeitig ans Licht, dass sich die Effizienz eines Geräts verschlechtert – zum Beispiel durch höhere Drücke und Ventilatorleistungen, bei verunreinigten Luftfiltern oder einem Problem der Steuerung des Freikühlbetriebs der Kälteanlage.

Ein gut funktionierender Informationsaustausch ist also in Rechenzentren unerlässlich. Der Betrieb ist gesichert, sofern eine Kommunikation zur Verfügung steht, die die Informationen zuverlässig transportiert. Zudem ist ein Monitoring-System auszuwählen, das über geeignete Schnittstellen verfügt, um die Daten zusammenzuführen und auszuwerten. Für diese Kommunikation gibt es verschiedene Möglichkeiten. Derzeit existiert in diesem Umfeld zwar kein allgemein gültiger und anerkannter Standard. Dennoch haben sich inzwischen zwei Kommunikationswege bewährt und durchgesetzt.

Der wohl älteste noch verwendete Kommunikationsweg ist der potenzialfreie Kontakt. Ein Gerät stellt dabei eine meist nur geringe Anzahl von Klemmen bereit (etwa zwei bis zwölf Klemmen), die bei einer Meldung über einen Kontakt öffnen oder schließen. Dies kann beispielsweise der Fall sein, wenn ein Fehler in der Anlage auftritt. Jeder Kontakt gibt dabei in den meisten Fällen nur eine Meldung aus, es werden also keine Binärcodes verwendet. Dies hat einen besonderen Vorteil, denn über den Kontakt lässt sich beispielsweise eine Hupe oder eine Sirene ansteuern, die lokal direkt auf den Fehler aufmerksam macht.

Bei der Differenzstromüberwachung, die eine lokale Benachrichtigung fordert, kommt dieses Verfahren häufig zum Einsatz. Der Nachteil ist, dass im Gegensatz zu einem Binärcode weniger Meldungen zur Verfügung stehen. Ein Gerät, das vier potenzialfreie Kontakte anbietet, könnte mit einem Binärcode 16 anstatt vier verschiedene Meldungen ausgeben. Da pro potenzialfreier Meldung eine oder zwei Adern verlegt sind (die Versorgung lässt sich über eine Leitung realisieren), ist der Leitungs- und Installationsaufwand höher als bei anderen Lösungen.

Es ist zudem zu evaluieren, ob das Monitoring-System dezentrale Binäreingänge unterstützt, die über ein Bussystem mit dem Meldesystem verbunden sind. So besteht die Möglichkeit, den Kabelweg zu reduzieren. Die zusätzlichen Kosten für die Binäreingänge sind einzukalkulieren und nicht zu unterschätzen. Abhängig von der Größe und Ausstattung des Rechenzentrums sind bis zu 150 potenzialfreie Kontakte nötig, bei größeren Installationen sogar noch mehr. Hersteller mit proprietären Lösungen nutzen ihre Stellung und verlangen für die entsprechende Hardware hohe Aufpreise.

Bussysteme

Neben den potenzialfreien Kontakten bieten die meisten Hersteller eine Schnittstelle für ein Bussystem. Dieses bietet einen deutlich größeren Umfang an Datenpunkten, die sich für den Überblick über das Rechenzentrum nutzen lassen. Auf diese Weise lässt sich der Ladestand der USV-Anlage extern überwachen oder auch die Auslastung der Klimageräte dokumentieren. So entwickeln sich Profile, die den Optimierungsbedarf offenlegen. Abhängig vom Leistungsumfang des Monitoring-Systems kann auf dieser Basis eine umfangreiche Protokollierung und Auswertung von Geräten und Umgebungsbedingungen entstehen.

Doch es existieren große Unterschiede zwischen verschiedenen Bussystemen. In einem Rechenzentrum sind meist verschiedene Systeme vertreten. Somit ist die Ermittlung und Wahl eines geeigneten Monitoring-Systems bereits während der Planungsphase unabdingbar Dabei lohnt sich eine Betrachtung der vorhandenen oder geplanten Dateninfrastruktur. Rechenzentren sowie deren Standorte haben fast immer ein Ethernet-Netzwerk, das sich für die Kommunikation – beispielsweise mit einer Leitwarte – anbietet. Andere Bussysteme benötigen eine eigene Verkabelung, etwa einen Zweidrahtbus. Diesen muss der Betreiber zusätzlich installieren und eine Verbindung zu den Geräten ermöglichen. Im Außenbereich stellt dies bisweilen eine Herausforderung dar.

Um Kosten und Ärger zu vermeiden, betrachten die Planer im ersten Schritt grundsätzlich die verwendeten Geräte. Die Schnittstellen, die von Herstellerseite meist in Form von Erweiterungsmodulen angeboten werden, müssen mit dem Monitoring-System kompatibel sein. So ist bereits im Rahmen der Planung die entsprechende Schnittstelle explizit auszuwählen.

Zusätzlich zu den Daten von Geräten und Anlagen lohnt sich eine nähere Betrachtung der Messgeräte für die elektrische Leistung, die für das Rechenzentrum eingeplant sind. Abhängig vom ausgewählten Hersteller bieten diese viele Informationen hinsichtlich der Messstelle. Um die Messwerte zentral aufnehmen und auswerten zu können, sind sie ebenfalls über ein Bussystem angebunden. Die Spannung, den Strom und die Leistung misst das System dreiphasig. Zusätzlich kann es Werte wie etwa harmonische Wellen aufnehmen. Ein solches Vorgehen ist bei der Vielzahl von Netzteilen in einem Rechenzentrum von Bedeutung, um eine Netzverschmutzung frühzeitig zu erkennen.

In einem Rechenzentrum erfolgt außerdem eine permanente Überwachung der Umgebungsbedingungen. Dabei messen die Systeme nicht nur die elektrische Leistung, sondern auch die Temperatur und die Luftfeuchte, da diese Faktoren Auswirkung auf die IT-Komponenten haben können. Diese Messungen sind an das Monitoring-System zu übermitteln, um Schwankungen oder Schwelenlwerte zu registrieren. Auch die DIN EN 50600 fordert eine Überwachung und Auswertung der Umgebungsbedingungen. Eine Kommunikation mit einem Überwachungssystem ist demnach auch nach dieser Norm sicherzustellen.

Ein Bussystem, das sowohl über das Ethernet sowie über einen seriellen Zweidrahtbus kommunizieren kann, ist der Modbus. Die Technik hat sich zu einem Standard entwickelt und ist damit – zusammen mit dem potenzialfreien Kontakt – die wohl am weitesten verbreitete Kommunikationsmöglichkeit in einem Rechenzentrum. Das Modbus-Protokoll wurde von Modicon, heute Schneider Electric, im Jahr 1979 vorgestellt. Heute unterstützt Schneider Electric die unabhängigen Entwickler der „Modbus Organization“, die das Modbus-Protokoll pflegen und weiterentwickeln.

Der Modbus unterscheidet sich unter anderem in den Schnittstellen. Sowohl serielle Schnittstellen wie auch die Ethernet Schnittstelle kommt zum Einsatz. Die Kommunikation erfolgt dabei über verschiedene Betriebsarten:

Modbus-RTU,

Modbus ASCII und

Modbus TCP.

Modbus RTU und Modbus ASCII sind serielle Busse und übertragen ihre Daten in binärer Form. Dabei versendet der Modbus ASCII direkt die Zeichen des ASCII-Codes (ASCII Base 256). Die Datenübertragung erfolgt also in Form von 16 Hexadezimalzahlen. Dies bedeutet, dass bei einer Datengröße von 8 Bit pro Protokoll nur zwei Symbole übertragen werden können. Der Modbus ASCII kommt daher nur zum Einsatz, wenn andere Betriebsarten nicht kompatibel sind. Da dies kaum noch der Fall ist, findet der Modbus ASCII nur sehr selten Anwendung.

Deutlich schneller ist der Modbus RTU, da dieser nicht an den ASCII-Code gebunden ist. Er überträgt innerhalb von 8 Bit deutlich mehr Informationen. Verbunden ist der serielle Modbus dabei über die RS485- oder die RS232- Schnittstelle. Die RS485-Schnittstelle lässt dabei eine Mehrfachverbindung mehrerer Teilnehmer zu, die allesamt an eine Zweidrahtverbindung gekoppelt sind. Dies vereinfacht in vielen Fällen die Verdrahtung im Rechenzentrum, da nicht für jedes Gerät eine neue Leitung zu verlegen ist.

Pro Mehrfachverbindung lassen sich maximal 32 Teilnehmer unterstützen. Mit einem Repeater sind sogar noch mehr Teilnehmer möglich. Auf diese Weise lassen sich in einem Schaltschrank beispielsweise mehrere Geräte über einen seriellen Modbus einbinden, um sie an einer Stelle in den Modbus TCP/IP umzuformen. Damit läuft dann die Übertragung über das (bereits vorhandene) Ethernet weiter. In diesem Fall ist für diese Anbindung ein separater Zweidrahtbus nicht erforderlich.

Um einen seriellen Modbus mit dem Ethernet zu verbinden, ist ein Gateway nötig. Es stellt eine Schnittstelle für den seriellen Modbus (ASCII oder RTU) und den Modbus TCP/IP zur Verfügung. Nach der Konfiguration und der Vergabe von Identifikationsnummern an die Teilnehmer (Slave-ID) greift der Modbus über das Gateway auf die seriellen Modbus-Teilnehmer zu. Dieses Konzept vereinfacht die Verdrahtung im Rechenzentrum deutlich.

Modbus TCP/IP basiert, wie der Name bereits sagt, auf dem TCP/IP-Protokoll. Daher kann die Kommunikation in jeder Ethernet-Umgebung erfolgen. Dies macht den Modbus in großen Gebäuden interessant, die über ein internes Ethernet-Netzwerk verfügen. Der Modbus TCP/IP erreicht Datenübertragungen bis zu 100 MBit/s und ist über die RJ45-Schnittstelle mit einem Switch oder Router verbunden. Zudem ist er in der IEC 61158 normiert, was die Handhabung einheitlich gestaltet. Für den Modbus TCP/IP ist der Port 502 reserviert.

Neben potenzialfreien Kontakten und dem Modbus können in einem Rechenzentrum natürlich auch andere Bussysteme zum Einsatz kommen. BacNet und der KNX-Bus sind zwei weitere Beispiele, die speziell in Gebäudesystemen Anwendung finden. BacNet ist daher auch in Geräten zu finden, die in Rechenzentren zum Einsatz kommen, erreicht jedoch bei Weitem nicht dieselbe Verbreitung wie Modbus. Oft besteht darüber hinaus die Forderung nach dem SNMP-Protokoll.

Letzteres findet seine eigentliche Anwendung in der Verwaltung von Netzwerken. Dabei überwacht ein Manager mehrere Agenten in einem Netzwerk: Dies können Router, Switches, Drucker etc. sein. Da es sich um eine IT-nahe Anwendung handelt und viele Rechenzentrumsbetreiber dieses Protokoll verwenden, lohnt sich eine genaue Evaluierung. Rechenzentrumsbetreiber, die über ein übergeordnetes System verfügen, kommunizieren mit diesem gewöhnlich über das SNMP-Protokoll. Aber auch Anbieter für beispielsweise Klimageräte bieten zunehmend eine Unterstützung des SNMP-Protokolls an. Dieser Zusammenhang ist bei der Auswahl eines Meldesystems zu beachten.

Fazit

Ein Projekt verläuft dann reibungslos, wenn die Verkabelung sowie das Monitoring-System sorgfältig ausgewählt sind, sodass alle Geräte im Rechenzentrum kompatibel sind und die Eigenschaften – die jedes Meldesystem mit sich bringt – auf das fragliche Rechenzentrum ausgelegt sind. Dann lässt sich beispielweise eine vorhandene Struktur einbinden, was die Verdrahtung effizienter gestalten kann. Weiter ist in diesem Kontext die Einbindung der Gebäudeleittechnik denkbar, da sich viele Gebäudeleittechnik-Systeme (beispielsweise KNX, BacNet) in das interne Netzwerk einbinden lassen und somit zusammen mit den anderen Anlagen betrachtet und verwaltet werden können. Damit lassen sich zwei Anforderungen in einem System realisieren, was Kosten spart. Im Lichte der DIN EN 50600, die an vielen Stellen eine Überwachung und Dokumentation der Umgebungsbedingungen fordert, ist eine solche Überlegung höchst angebracht.

Wieland Kalenberg ist Junior-Projektleiter bei der Prior1, www.prior1.de.