Ganzheitlicher Ansatz für Rechenzentrumstechnik

Gute Kombination

9. Mai 2006, 23:35 Uhr | Dirk Traeger/jos Dirk Traeger ist Techical Consultant Infrastructure bei Anixter Deutschland.

Ein Rechenzentrum ist ein komplexes Gebilde, das schon kleine Fehler in zunächst unscheinbaren Komponenten empfindlich stören können. Abhilfe kann nur ein übergreifendes Gesamtkonzept bringen. Allein auf diese Weise ist es möglich, die nötigen unterschiedlichen Systeme und Techniken sowie alle beteiligten Fachgruppen so einzubinden, dass als Ergebnis eine funktionierende Gesamtlösung entsteht. Fehler führen meist sofort zu höheren Kosten.

Der Allgemeinsatz, dass das Ganze mehr ist als die Summe seiner Teile, stellt im Bereich der
Data Center die Kernaussage schlechthin dar. Trotz verschiedenster Anwendungen weisen alle Data
Center (die früher ganz unspektakulär Rechenzentrum hießen) gewisse Gemeinsamkeiten auf: Sie müssen
auch unter schwierigen Umständen zuverlässig arbeiten, sie müssen gegen Ausfälle gesichert sein,
und sie kosten eine Menge Geld – Geld, das möglichst wirtschaftlich verwendet werden sollte.

Fehlentscheidungen können die Kosten in ungeahnte Höhen treiben, denn in keinem anderen Bereich
der EDV müssen Fachleute der unterschiedlichsten Disziplinen so eng zusammenarbeiten. Der in der
Verkabelungstechnik beliebte Ansatz "Mix and Match" ("man nehme einfach genormte Komponenten, und
das Ganze wird schon irgendwie funktionieren") führt im Data Center unweigerlich ins Abseits.

Während sich bei der herkömmlichen Infrastruktur meist nur Datentechnik und Elektrotechnik ins
Gehege kommen (und gelegentlich der Heizungsbauer, der seine Rohre partout dort führen will, wo die
neue Backbone-Steigtrasse geplant ist), sind im Data Center wesentlich mehr Disziplinen
beteiligt:

EDV,

Elektroversorgung,

Notstromversorgung,

Erdung und Potenzialausgleich,

Sicherheitstechnik,

Klimatisierungstechnik,

Bau (Doppelboden) sowie

Brandschutz und Brandbekämpfung.

Bereits die Kabelführung ist eine Kunst, denn im Data Center laufen riesige Mengen Kabel auf.
Die geordnete Kabelführung ist wichtig, um die vorgeschriebenen Biegeradien einzuhalten und
gleichzeitig dafür zu sorgen, dass das Gewicht der oben liegenden Kabel nicht die unten liegenden
beeinträchtigt, was zu erhöhten Dämpfungswerten führen würde. Brandlasten sind zu beachten, und die
Wahl zwischen LSOH-, Plenum- und Limited-Combustible-Varianten (schwer entflammbar) sorgt oft genug
für lange Diskussionen (LSOH steht für Low Smoke Zero Halogene). Schlussendlich dürfen Kabelbündel
nur in bestimmten Bereichen des Doppelbodens liegen (falls überhaupt), um nicht den Luftstrom der
Klimaanlage und damit die Kühlung weiter entfernt liegender Systeme zu beeinträchtigen.

Die Klimatisierung ist neben der Notstromversorgung damit auch ein Hauptproblem im
Rechenzentrum. Immer schnellere Server und immer größere Packungsdichten verwandeln die
Datenschränke zusehends in Elektroheizungen. Herkömmliche Lüftungskonzepte sind hier überfordert.
Mit zielgerichteten Lüftern, die den Luftstrom nahezu um die Ecke blasen können (so etwas gibt es
tatsächlich), lassen sich noch Erfolge bis etwa 3 kW erzielen, was gegen über den 1,5 bis 2 kW
herkömmlicher Lüfter schon ein Vorteil ist. Modernes IT-Equipment hat an Hitze jedoch mehr zu
bieten, und Werbesprüche wie "Das Gerät ist heiß" sollte man im Rechenzentrum durchaus wörtlich
nehmen: Ein typischer Server (Pizzabox-Server, 4,45 cm hoch) bietet schon 350 W an Wärme, und mit
den Blade-Servern, die als Einschubkarten geliefert werden, lassen sich noch mehr erzielen.

Verwegene IT-Leiter, die möglichst viele Geräte auf engstem Raum unterbringen wollen oder
müssen, schaffen es damit mühelos auf 15 bis 25 kW pro Schrank. Typische Werte liegen darunter,
denn niemand wird ohne Not einen Verteilerschrank bis zur letzten Höheneinheit voll stopfen, doch
sorgen die Serverhersteller dafür, dass auch in Zukunft niemand im Rechenzentrum frieren muss. Die
Schrankhersteller zeigen sich kreativ: Mit Türen, in die Hochleistungslüfter eingebaut sind, lassen
sich je nach Modell gut und gerne 7 bis 16 kW abführen, flüssigkeitsgekühlte Schränke bringen es
auf 25 kW oder mehr. Allerdings trifft die Flüssigkühlung der Schränke nicht bei allen IT-Leitern
auf Gegenliebe, denn viele erinnern sich noch lebhaft an die Freudentänze, als die letzten
wassergekühlten Mainframes ausgemustert wurden. Flüssigkeiten gleich welcher Art stellen im
Rechenzentrum nach wie vor ein zusätzliches Sicherheitsrisiko dar, dem man mit
Flüssigkeitssensoren, Überwachungseinrichtungen und ganz konservativ mit Wannen entsprechend
begegnen muss.

Eine gute Klimaplanung berücksichtigt aber nicht nur Serverschränke und deren künftige
Erweiterungen, sondern auch nicht so offensichtliche Wärmequellen wie die Beleuchtung und die
Mitarbeiter – ein Mensch heizt immerhin mit durchschnittlich 100 W.

Neben der Klimatisierung ist das Notstromkonzept von Ausschlag gebender Bedeutung, denn das
modernste Rechenzentrum nützt nichts, wenn es keinen Strom hat. Rechenzentren verfügen daher über
mindestens eine unterbrechungsfreie Stromversorgung (USV), die die Server und Switches zumindest so
lange am Leben erhält, bis die Daten gesichert und die Server geordnet heruntergefahren sind.
Jeder, der sich schon die Nacht um die Ohren geschlagen hat, um einen Server wieder aufzusetzen,
der nicht geordnet herunterfahren konnte, wird dem beipflichten.

Größere und wichtigere Rechenzentren verfügen über einen Notstromgenerator, und die USV puffert
die Stromversorgung so lange, bis der Generator genügend Strom liefert. Wichtig: Genügend Diesel
für den Generator vorsehen!

Gretchenfrage: Soll die USV in das Rechenzentrum oder in einen separaten Raum? Im Rechenzentrum
wäre alles schön beieinander und durch entsprechend aufwändige Sicherheitstechnik überwacht und
geschützt. Allerdings gibt die USV auch Wärme ab. Die wäre bei der Dimensionierung der Klimaanlage
zu berücksichtigen. Soll aus Gründen der Zuverlässigkeit und Ausfallsicherheit des Rechenzentrums
auch die Klimatechnik auf die Notstromversorgung geschaltet sein, damit die Server bei einem länger
anhaltenden Stromausfall nicht überhitzen, dann ist die Leistung der Klimaanlage (und dies ist
nicht gerade wenig) bei der Planung der USV-Anlage zu berücksichtigen, die dann größer ausgelegt
werden muss, was wiederum zu mehr Wärme führt – eine veritable Rechenaufgabe!

"Ein Rechenzentrum muss von Anfang an von Fachleuten geplant und koordiniert sein", so Steve
Strange, Technical Director EMEA beim Value-Add-Distributor und IBM-Partner Anixter, der ein
eigenes, von UL zertifiziertes Prüflabor unterhält. "Nur wenn alle Bereiche sauber aufeinander
abgestimmt sind, erhält der Kunde auch den Nutzen, für den er bezahlt. Dies hat ein Rechenzentrum
mit einem Getriebe gemeinsam: Ein falsches oder billiges Zahnrad an der falschen Stelle kann
verheerende Folgen haben."

Aber auch sehr viel einfachere Bereiche, über die man sonst vielleicht nicht einmal nachdenkt,
erfordern im Rechenzentrum erhöhte Aufmerksamkeit: Ist die Statik des Fußbodens ausreichend, um die
entsprechenden Lasten tragen? Welche Mindesthöhe ist für den Doppelboden vorzusehen? Welche
Maschenweite ist für die Erdung und den Potenzialausgleich einzuhalten? Wo sind die Kabel zu
führen, und in welchen Bereichen im Doppelboden stören sie den Luftstrom am wenigsten?

In Europa wird sich die EN 50173-5 dieser Fragen künftig annehmen, die zurzeit jedoch erst im
Entwurf vorliegt. Bis sie in endgültiger Fassung veröffentlicht ist, kann die amerikanische
EIA/TIA-942 gute Dienste leisten. Sie definiert vier unterschiedliche Stufen in puncto
Zuverlässigkeit und Ausfallsicherheit, die so genannten Tiers. Dabei gilt es, wohl zu überlegen,
welche Stufe für das Unternehmen am besten geeignet ist, denn der Sprung von Tier I zu Tier IV
verdoppelt im Allgemeinen die Gesamtkosten.

Die TIA enthält auch detaillierte Vorgaben zu Sicherheitstechnik. Dass die Umgebungsbedingungen
wie Temperatur, Luftstrom und Luftfeuchtigkeit überwacht und aufgezeichnet werden, sollte
heutzutage eine Selbstverständlichkeit sein. Videoüberwachung ist ab Tier II vorzusehen,
Zutrittskontrollanlagen mit biometrischen Sensoren werden empfohlen – wie viel Schaden kann
angerichtet werden bis man bemerkt, dass man seine Codekarte verloren hat?

Diese Maßnahmen reichen jedoch bei weitem nicht aus. Hinter der Sicherheitstechnik muss ein
schlüssiges und auf die IT abgestimmtes Konzept liegen. So zeichnen entsprechende
Überwachungseinheiten permanent Videosignale auf und speichern beispielsweise auch die letzten zehn
Sekunden vor Eintritt eines Ereignisses. Nur so kann festgestellt werden, wer wann was getan hat.
Entsprechende Erweiterungen bieten die Möglichkeit, Unregelmäßigkeiten bereits im Ansatz zu
erkennen und einzugreifen, bevor sich ein Schaden ereignet hat. Nicht von ungefähr ist die Angst
vor internen Gefahren größer als vor externen. Und mit Alarmierungen per Pop-up-Fenster, Mail und
SMS an den Wachdienst kann schnell und flexibel reagiert werden.

Doch nicht nur auf die großen Dinge kommt es im Rechenzentrum an, auch die "Kleinigkeiten" sind
wichtiger als in den übrigen Teilen der IT. Schon so einfache Dinge wie herkömmliche Kabelbinder
können durch erhöhte Druckbelastung der Kabel zu höheren Bitfehlerraten führen. Es dauert
erfahrungsgemäß lange, bis man solche Fehler gefunden und beseitigt hat. Clevere Lösungen wie
Klettkabelbinder, Kabelführungssysteme mit Biegeradienunterstützung und Kabelführungsschläuche,
Überlängenablagen oder gewinkelte Patch-Felder sorgen im Betrieb für größere Zuverlässigkeit wie
flexible Kabelverlegungshilfen mit Rollen oder vorkonfektionierte Verkabelungslösungen (Plug and
Play) bereits während der Installation. Gerade Plug-and-Play-Lösungen finden auch in mittleren und
kleinen Rechenzentren immer mehr Verbreitung. Auf- und Abbau, Versetzen von Einheiten und
Neuverkabelungen sind auf ein zeitliches Minimum reduziert, denn in keinem Rechenzentrum sind
Umbauarbeiten gerne gesehen.

Auch intelligente Infrastrukturmanagementsysteme erfreuen sich zunehmender Beliebtheit. Zu
Recht: Patch-Listen werden automatisch und in Echtzeit aktualisiert, der Anschluss fremder
Endgeräte führt zur sofortigen Abschaltung des entsprechenden Switch-Ports, und Patch-Aufträge
können im Voraus geplant, terminiert und zeitgenau ausgeführt werden. Falsche Patchungen gehören
der Vergangenheit an, denn solche Systeme registrieren Fehl-Patchungen in Echtzeit und lösen einen
entsprechenden Hinweis oder Alarm aus. Administratoren müssen sich nicht mehr durch endlose
Patch-Listen quälen (die meist ohnehin nicht aktuell sind), sondern können Umzüge von Mitarbeitern
mit den ihnen zugeordneten Services am PC per Mausklick vornehmen – das Managementsystem erstellt
und verschickt den Arbeitsauftrag, welches Patch-Kabel wo aus- und einzustecken ist, automatisch.
Selbstredend lassen sich solche Systeme in vorhandene Netzwerkmanagementsysteme wie HP Openview,
IBM Tivoli oder CA Unicenter integrieren.

Fazit: Abstimmung der Einzelteile ist wichtigster Punkt

Die Schlussfolgerung ist so einfach wie prägnant: In keinem anderen Bereich der IT ist es so
wichtig, alle Maßnahmen und Komponenten exakt aufeinander abzustimmen wie bei den Data Centern. Und
in keinem anderen Bereich sind Fachleute aus so vielen unterschiedlichen Gebieten gefordert. Dabei
ist die IT-Abteilung eines Unternehmens auf die Unterstützung kompetenter Partner angewiesen, denn
zu vielfältig sind die Gestaltungsmöglichkeiten und zu kostspielig Fehlentscheidungen. Nur durch
die Vernetzung aller Bereiche ergibt sich ein wirtschaftlicher Betrieb mit vernünftigen
Gesamtkosten.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+