Elektrischer Strom ist für das Internet und jegliche IT so wichtig wie die Luft zum Atmen für Lebewesen. Ein Ausfall ist der Albtraum eines jeden Administrators. Schließlich können Server, die längere Zeit ohne Strom sind, zu Downtime wichtiger Services führen. Es lohnt sich folglich, genau zu betrachten, wie Betreiber von Rechenzentren in Zeiten wachsender Komplexität eine sichere Versorgung gewährleisten können. Dies soll gelingen, ohne die Energieeffizienz aus den Augen zu verlieren.

Viele Faktoren beeinflussen die Energieversorgung für Server und andere Infrastrukturen. Die Betriebstechnik muss verlässlich, zukunftssicher, aber auch wirtschaftlich sein. Betreiber von Rechenzentren müssen sich über ihre Anforderungen klar werden und anschließend ein aussagekräftiges Profil erstellen. Die Migration des Energie-Managements in ein softwaredefiniertes Rechenzentrum ist dabei nur der erste Schritt, auf den viele weitere Möglichkeiten folgen.

Steigende Anforderungen führen zu steigender Komplexität

Moderne Rechenzentren werten auch die Anzahl der Transaktionen pro Wattstunde aus, weil der PUE allein nicht ausreichend aussagekräftig ist. Bild: Eaton

Die Digitalisierung bietet ungeahnte Chancen, neue, auf Daten basierende Geschäftsmodelle zu realisieren. Wie so oft gilt jedoch auch hier: keine Chancen ohne Risiken. Heute gibt es kaum noch Geschäftsmodelle, die nicht digital sind. Dadurch ist die IT in den letzten Jahren ihrer Support-Funktion entwachsen und zum zentralen Treiber des wirtschaftlichen Erfolgs geworden. In gleichem Maße wächst für Unternehmen aber auch die Bedeutung einer zuverlässigen Stromversorgung.
Mit der digitalen Revolution nehmen auch die Datenmengen und damit der Stromverbrauch immer weiter zu. Das IT-Management ist nicht nur gefordert, die Versorgungssicherheit zu gewährleisten, sondern auch die Kosten zu begrenzen. Ein Indikator für die Energieeffizienz ist der PUE-Wert (Power Usage Effectiveness). Dieser Wert entspricht dem Quotienten aus dem Gesamtenergieverbrauch eines Rechenzentrums und dem Stromverbrauch der reinen Rechentätigkeit. Im Idealfall liegt der Wert möglichst nahe an 1, was bedeutet, dass wenig Energie für den Gebäudebetrieb (Kühlung, Licht etc.) nötig ist.

Moderne Rechenzentren werten auch beispielsweise die Anzahl der Transaktionen pro Wattstunde aus, weil die PUE allein nicht immer aussagekräftig ist. Eine weitere Konsequenz sich ausweitender Hard- und Softwareinstallationen ist die Einbeziehung einer wachsenden Anzahl von Komponenten und Raumparametern. Über Server, mobile Geräte sowie die obligatorischen Batterien hinaus sind dies insbesondere Power Distribution Units (PDUs) und IT-Racks. Dennoch erwarten Unternehmen, dass sich die Infrastrukturen leicht verständlich darstellen lassen und übersichtlich bleiben. Ziel: einfache Beherrschbarkeit und eine zuverlässige Bewertung.

Moderne Monitoring-Lösungen können ein Gesamtbild der Energieversorgung zeichnen, das alle relevanten Parameter umfasst. Dazu gehören die momentane Eingangsspannung, die Last und der Energieverbrauch. Solche Lösungen können außerdem physische Infrastrukturen wie USV-Systeme, PDUs und IT-Racks übersichtlich und leicht verständlich darstellen. Große Bedeutung erlangen solche Systeme zusätzlich dadurch, dass auch in diesem Bereich IT-Fachkräfte rar und teuer sind.

Anwendungsbeispiel USV

Die unterbrechungsfreie Stromversorgung (USV) sorgt dafür, dass Schwankungen im Netz und kurzfristige Ausfälle die sensiblen Infrastrukturen nicht beeinträchtigen. Diese Geräte können Stromausfälle, Über- und Unterspannungen sowie Frequenzschwankungen und Oberschwingungen abfangen und kompensieren. Um dies zu realisieren, wird der aus dem öffentlichen Netz entnommene Wechselstrom zunächst gleichgerichtet und sauber aufbereitet über den Wechselrichter wieder zur Verfügung gestellt. Parallel dazu lädt das System die Batterie bei Bedarf aus dem Zwischenkreis. Diese Prozedur sorgt einerseits dafür, dass den empfindlichen IT-Geräten Strom mit einer sehr sauberen Frequenz zur Verfügung steht. Dies verhindert Schäden an der Elektronik. Andererseits stellt die Batterie ein Notreservoir für den Fall eines Blackouts dar. Der Batteriestrom lässt sich entweder zum kontrollierten Herunterfahren von Servern verwenden, um Datenverlust zu vermeiden, oder auch zur Datenmigration. Mit ihm lässt sich jedoch auch die Zeit überbrücken, die motorbetriebene Notstromgeneratoren zum Anlaufen benötigen.

Das Problem bei USV-Anlagen: Durch die doppelte Wandlung und Batterieladung treten Verluste in Form von Wärme auf. Um diese Verlustleistung herunterzukühlen, ist wiederum zusätzliche Energie erforderlich. Bei dem durchschnittlichen Energy Efficiency Ratio (EER) von 3,0 bedeutet dies, dass pro drei Watt Verlustleistung ein Watt für die Kühlung aufgewendet werden muss. Entsprechend sollten die USV-Anlagen nicht überdimensioniert, jedoch für ein zukünftiges Wachstum des Rechenzentrums ausgelegt sein. Dies lässt sich durch einen modularen Aufbau erreichen, der eine bedarfsgerechte Skalierung erlaubt.

Außerdem gibt es mittlerweile Geräte, die über sichere Hocheffizienz- oder Eco-Betriebsarten verfügen. Dabei wird der Doppelwandlerbetrieb überbrückt, solange der Strom sauber und verlässlich aus der Leitung kommt. Gleich- und Wechselrichter sind nur bei Anomalien zwischengeschaltet. Die Umschaltzeiten sind dabei verschwindend gering, Das Energy-Saver-System von Eaton schafft beispielsweise den Wechsel innerhalb von zwei Millisekunden. Geräte mit einem Eco-Modus erreichen Wirkungsgrade von 99 Prozent, während herkömmliche USV-Anlagen im Dauerbetrieb auf etwa 90 bis 95 Prozent kommen.

Die USV-Anlage sorgt dafür, dass Schwankungen im Netz und kurzfristige Ausfälle die sensiblen Infrastrukturen nicht beeinträchtigen. Die Geräte können Stromausfälle, Über- und Unterspannungen sowie Frequenzschwankungen und Oberschwingungen abfangen und kompensieren. Bild: Eaton

Eine einheitliche Strategie fahren

Um eine effiziente Verwaltung der IT-Stromversorgungsinfrastruktur zu gewährleisten, sollten alle physischen und virtuellen Komponenten in einer einzigen Anwendung gebündelt sein. Damit realisieren Unternehmen ein Energie-Management, das die Optimierung aller skalierbaren Ressourcen ermöglicht. Daraus ergeben sich weitreichende Effizienz- und Kostenvorteile.

Zum Beispiel ermöglicht es eine Load-Shedding-Funktion im Fall eines Stromausfalls, einzelne virtuelle Maschinen gezielt herunterzufahren, um dafür zu sorgen, dass kritische Anwendungen länger mit Batteriestrom versorgt bleiben. Eine Alternative dazu stellt die sogenannte Live-Migration dar: Dabei kann die gesamte virtuelle Maschine mit dem kompletten Energie-Management auf einen anderen physischen Server innerhalb des Unternehmens oder ein Ausweichrechenzentrum oder in die Cloud wandern. Welche Variante umgesetzt wird, hängt letztlich von der individuellen Anwenderpräferenz ab. Entscheidend ist, dass sich unabhängig davon die Energieversorgung und damit der laufende Geschäftsbetrieb sichern lassen.

Fazit

Einen gesunden Kompromiss zwischen Sicherheit und Wirtschaftlichkeit zu finden, ist nie einfach – auch nicht in IT-Umgebungen. Strom ist schon lange ein entscheidender Faktor für den Betrieb der allermeisten Geschäftsmodelle. Da die umfassende Digitalisierung diesen Umstand immer mehr verstärkt, gibt es heute große Investitionen in die Versorgungssicherheit. Gleichzeitig bringt die digitale Revolution aber auch gute Lösungen für ihr Stromproblem hervor.

Simon Feger ist Produkt-Support-Manager bei Eaton, www.eaton.com