Durchgängiges Energie-Management

Sensoren und Prozesse

11. März 2010, 8:22 Uhr | Björn Paulewicz, Frank Donat/wg

Es ist ruhiger geworden um das Thema Green IT. Doch die Hersteller haben die vergangenen Monate genutzt und ihre Konzepte in Lösungen umgesetzt. Der isolierte Blick auf einzelne Baugruppen weicht dabei der ganzheitlichen Betrachtung der Energiebilanz im RZ. Intelligente Regelungsmechanismen richten dabei den Energieverbrauch an den Geschäftsanforderungen aus.

Um den Energieverbrauch zu senken, wird im RZ allseits optimiert. Dies beginnt beim Design und
Einsatz stromsparender Bauteile, setzt sich fort bei der Optimierung der Rechner-Boards, der
Server, bis hin zu den Server-Racks, der Platzierung der Server im RZ, ihrer Netzteile und deren
Kühlung und endet schließlich bei der Auslegung und dem Betrieb des gesamten Rechenzentrums und
dessen Kühlung. Eine umfassende Ausrichtung all dieser IT-Baugruppen, vom Chip bis zum
Rechenzentrum, an den Kriterien der effizienten Nutzung kann aber nur in mehreren Stufen erfolgen.
Sie wird sich in der Regel an den Entwicklungs, Nutzungs- oder Abschreibungszyklen der Objekte
orientieren.

Zusammen mit der letzten CPU-Generation führte beispielsweise Intel eine Reihe an Optimierung
ein. Diese sind in den aktuellen Boards bereits im Einsatz. Zu den Neuerungen gehören unter anderen
eine Reihe an Sensoren auf den Boards ("Sea of Sensors") sowie die Begrenzung und Optimierung des
Stromverbrauchs für eine Server-Gruppe im Rahmen des Dynamic Power Cappings. Power Capping nutzt
eine Definition von Ober- und Untergrenzen für den Stromverbrauch der Server oder Server-Gruppen.
Relativ neu sind aber all jene Techniken, die sich auf die Racks und das Rechenzentrum in seiner
Gesamtheit beziehen. Dazu ist der Betrieb des Rechenzentrums ganzheitlich zu betrachten. Da die
RZ-Infrastruktur immer die Hülle für die IT-Baugruppen wie Server und Speichersysteme darstellt,
muss sie in alle Planungen und Konzepte einbezogen werden. Die meist vorherrschende Trennung in
Rechenzentrumsbetrieb und Gebäudeinfrastruktur erschwert einen umfassenden Blick. Für eine
konsequente Optimierung wäre aber genau dies notwendig.

Das Ziel aller Bemühungen der Energieoptimierung liegt darin, den Betrieb des Rechenzentrums und
seiner Server an die geschäftlichen Anforderungen anzupassen. Dies vermeidet Überkapazitäten, die
zu Energieverschwendung führen. Server, die immer mit der Maximalleistung laufen, obwohl keine Last
abgefordert wird, sind ein Beispiel dafür. Gleiches gilt für Rechenzentren, die stärker gekühlt
werden als notwendig. Die Ursachen für diese Überversorgung liegen oft in den Begrenzungen der
Geräte und der Softwaresysteme: Wenn die Systeme nur die Betriebszustände "Ein" und "Aus" kennen,
ist eine Optimierung der Energienutzung schwierig. Im Optimalfall steht die Last mit der Leistung
der Server und der Infrastruktur des Rechenzentrums in Einklang. Dies ist allerdings nur durch eine
verstärkte Verknüpfung der einzelnen Baugruppen mit der Gebäudeinfrastruktur möglich.

Der erste Schritt besteht darin, variable Einsatzvarianten zu ermöglichen. Dies mag für einen
Server die Änderung der Taktfrequenz sein, für den Lüfter die Anpassung der Drehzahl, für
Kühlsysteme die Optimierung der Kühltemperatur und Durchflussmenge des Kühlmittels. Dafür benötigen
die Systeme Kenntnis über den Istzustand der Werte. Diese lassen sich über Sensoren ermitteln. Im
Rahmen eines so genannten "Data Center Smart Grids" werden daher alle relevanten Bauteile oder
Baugruppen mit Sensoren ausgestattet. Diese messen Stromverbrauch, Temperatur, Luftdruck,
Luftfeuchte, Energiedurchfluss, Temperaturunterschiede und weitere Werte, die für die Optimierung
des RZ-Betriebs nötig sind. Typ, Anzahl und Position der Sensoren wird in Abstimmung mit der
jeweiligen RZ-Situation bestimmt. Die Anbringung dieser Sensoren beeinträchtigt den IT-Betrieb
nicht und ist von ihm unabhängig. Dies erlaubt die Optimierung der Sensoren im laufenden
Betrieb.

Die Sensoren liefern in einstellbaren Intervallen ihre Ergebnisse an einen zentralen
Verwaltungs-Server, der die Werte in einer Datenbank hinterlegt. Damit entsteht ein Fundus an
Messwerten über alle relevanten Baugruppen im RZ. Die gesammelten Messwerte lassen sich nach
gewünschten Kriterien auswerten. Im einfachsten Fall verhelfen die Messdaten dazu, Profile und
Trendanalysen über die Entwicklung der gemessen Kriterien zu erstellen.

Systeme für die Energieoptimierung sind heute zudem in der Lage, selbstständig auf Ereignisse zu
reagieren. Schwellenwerte der Sensoren triggern die Reaktionen. Dabei werden alle Systemebenen
(CPU, Board, Server, Rack, RZ) abgedeckt. Durch Power-Capping-Funktionen passt die
Management-Software den Energieverbrauch in Abhängigkeit von einstellbaren Ereignissen an. Hier
spielen mehrere Aspekte zusammen: Die Sensoren liefern den aktuellen Energieverbrauch. Diese Werte
werden in der Datenbank hinterlegt. Trigger dienen der Überwachung diese Werte. Bei Überschreitung
eines Schwellenwerts greifen weitere Funktionen zur Regulierung des Stromverbrauchs. Diese nehmen
nun über Programmschnittellen Änderungen am Arbeitsmodus der Server vor. Sie drosseln
beispielsweise durch Änderung der Taktfrequenz den Energieverbrauch der Server. Bei Bedarf lassen
sich die Rechner auch Trigger-gesteuert herunterfahren.

Energiefluss nach Geschäftspriorität regeln

Die Regelung des Energieverbrauchs durch Power Capping erfolgt im Prinzip auf der
Infrastrukturebene und somit ohne Kenntnis der Applikationen oder gar Geschäftsprozesse. Diese
Verknüpfung allerdings ist das eigentliche Ziel: Wichtige Geschäftsprozesse sollen bei Bedarf
Vorrang gegenüber weniger wichtigen erhalten. Unwichtiges wird man bei einem Engpass bremsen oder
drosseln wollen. In unserem Szenario allerdings sind die Server-Funktionen oder gar
Geschäftsprozesse noch nicht berücksichtigt. Doch auch dies ist möglich.

Auch dazu ein Modell: Sensoren liefern Informationen über die Auslastung der Hardwarebaugruppen.
Damit allein sind aber noch keine Rückschlüsse auf die Anwendungsprozesse zu treffen. Deshalb wird
mittels Mapping beispielsweise festgelegt, dass im Rack X an der vierten Position von unten ein
Datenbanksystem ausgeführt wird, auf dem Server darüber die zugehörige Software für
Materialwirtschaft. Damit ist die Brücke vom Messwert des Servers zur Applikation geschlagen. Das
Energie-Management lässt sich somit nach Maßgabe der geschäftlichen Prioritäten steuern. Die
CPU-Taktung, und als Konsequenz der Stromverbrauch, wird im Bedarfsfall zuerst für die Anwendungen
gedrosselt, die am wenigsten geschäftskritisch sind.

Dieses Verfahren bietet noch keine ausgefeilte Laststeuerung und Energieoptimierung. Hier kommen
die Techniken der Virtualisierung ins Spiel. Bereits deren Grundfunktion erlaubt die dynamische
Aktivierung von virtuellen Maschinen (VMs). Diese VMs und somit auch Applikationen lassen sich über
die Trigger der Management-Software aktivieren oder deaktivieren (Suspend, Shutdown). Bei einem
Engpass oder fehlender Last kann somit ein Server kurzerhand heruntergefahren werden, nach dem Ende
des Engpasses wird der Server wieder aktiviert. Wird es also im RZ zu heiß oder fehlen nachts die
Benutzer, die den Server fordern, so wird er eben vorübergehend deaktiviert. Durch die Integration
der Monitoring-Funktionen der physischen und virtuellen Maschinen lassen sich VMs somit in
Abhängigkeit von den Umgebungswerten im RZ und dem Bedarf der Geschäftsprozesse starten, stoppen
und in der Leistung verändern.

Fazit

Die Rechenzentren der Zukunft werden mit den geforderten Leistungen in Einklang stehen. Da die
Leistungsprofile allerdings großen Schwankungen unterworfen sind, müssen auch die Rechenzentren mit
all ihren Einrichtungen dynamisch verwaltbar werden. Was vor Jahren mit der Virtualisierung der
Server begann, setzt sich nun über alle Baugruppen des Rechenzentrums fort: Server-Racks,
Stromversorgung, Kühlung und natürlich die Server selbst werden flexibler und orientieren sich an
der geforderten Last. Die Grundlagen dazu bietet eine geschlossene Verarbeitungskette mit Sensoren
zur Ist-Aufnahme der Situation und mit Regelung der Leistung.

Björn Paulewicz ist Product Manager HP Industry Standard Server, Frank Donat Manager Critical
Facilities Services bei HP.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+