Das umweltfreundliche Data Center

Ganzheitlicher Ansatz erforderlich

19. Juni 2007, 22:00 Uhr | Patrick Schmidt/wg Patrick Schmidt ist Manager Product Sales Specialist Data Center bei Cisco Deutschland.

Die Energiekosten im Data Center könnten schon in wenigen Jahren mehr als die Hälfte des IT-Budgets verschlingen, warnt Gartner. Zudem sei es nur eine Frage der Zeit, bis nationale und internationale Regelungen die Betreiber von Rechenzentren zwingen, ihren Stromverbrauch und die dadurch verursachten CO2-Emissionen auf ein Mindestmaß zu reduzieren. Gelingen kann dies nur mit einem ganzheitlichen Ansatz hinsichtlich der Energiebilanz.

Da das Netzwerk alle Komponenten und Systeme in einem Data Center verbindet, kommt ihm eine
wichtige Rolle zu, obwohl es nur zu etwa zehn bis 20 Prozent zur gesamten Leistungsaufnahme
beiträgt. Ein im Hinblick auf die Leistungsaufnahme optimiertes Netzdesign kann einen deutlichen
Beitrag für einen effizienteren Umgang mit Energie liefern. Bei einem ganzheitlichen
Architekturansatz, dem ein intelligentes Netzwerk als Plattform dient, tragen Konsolidierung und
Virtualisierungstechniken zur Reduzierung der Zahl von Einzelkomponenten bei. Die Implementierung
von Diensten wie Firewalling, Load Balancing sowie Replikation oder Datenmigration auf Basis der
Netzwerkinfrastruktur ermöglicht es dann, die bisher damit betrauten Server und Komponenten samt
der zugehörigen Klimatisierungstechnik abzuschalten.

Der Boom, den Blades zurzeit erleben, zeigt deutlich die Dramatik des Problems: Ein voll
bestücktes Rack verbraucht zwischen zehn- und 15-mal soviel Energie wie ein Rack voller
herkömmlicher Server. Steigende Prozessordichte gilt als probates Mittel gegen räumliche
Begrenzungen, an die viele Rechenzentren aufgrund des unvermindert anwachsenden Kapazitätsbedarfs
ansonsten stoßen würden. Doch viele Rechenzentren, die vor 15 oder 20 Jahren errichtet wurden, sind
für maximal 200 bis 300 Watt pro Quadratmeter ausgelegt – zu wenig, um künftigen Belastungen
standzuhalten: Je mehr Geräte sich auf kleinster Fläche drängen, desto mehr Abwärme entsteht. Das
wiederum schraubt den Energiebedarf für die Kühlung in die Höhe – und die Energiespirale dreht sich
immer weiter. American Power Conversion (APC) geht davon aus, dass jedes aufgenommene Watt
Nettoleistung im Data Center mit einem Belastungsfaktor (Burden Factor) von 1,8 bis 2,5 für
Klimatisierung, Beleuchtung und sonstigen Energieverbrauch behaftet ist.

Neben den technischen und baulichen Problemen, ausreichend Stromanschlüsse zu verlegen, bereiten
vor allem auch die ständig steigenden Strompreise vielen IT-Verantwortlichen Kopfzerbrechen.
Gartner warnte bereits im Herbst 2006, dass Energiekosten im RZ von heute unter 30 Prozent schon
innerhalb weniger Jahre auf über 50 Prozent des gesamten IT-Budgets anwachsen könnten.

Außer handfesten ökonomischen Konsequenzen hat der verschwenderische Umgang mit Strom einen
ökologischen Aspekt: Im Oktober hat die EU-Kommission den Aktionsplan "Energieeffizienz" vorgelegt,
um "Verhaltensweisen, Arbeitsmethoden und Produktionstechniken zu fördern, die weniger Energie
erfordern". Ziel ist es, den Stromverbrauch bis 2020 um 20 Prozent zu senken. Dabei geht es in
erster Linie darum, den Ausstoß von klimaschädlichem Kohlendioxid zu drosseln. Analysten erwarten
einhellig, dass solche Bestrebungen schon bald in Gesetze münden, die auch für Rechenzentren
verbindliche Normen festschreiben. IT-Manager müssen demnach rechtzeitig die Weichen in Richtung
eines umweltfreundlichen Data Centers stellen. Bei Neuanschaffungen darf nicht mehr ausschließlich
das Verhältnis von Preis und Prozessorleistung den Ausschlag geben, sondern neben minimaler
Netto-Leistungsaufnahme auch ein möglichst kleiner "Burden Factor".

Netzwerk als Integrationsplattform

Die Fokussierung auf verbrauchsarmes Equipment allein wird auf lange Sicht aber nicht
ausreichen, den Energiemehrverbrauch aufgrund weiter massiv ansteigenden Rechen- und
Speicherkapazitätsbedarfs zu kompensieren. Vielmehr ist ein ganzheitlicher Ansatz gefragt, der über
Einzelgeräte hinausgeht und sich auf die gesamte Data-Center-Architektur erstreckt. Die Basis dafür
bildet das Netzwerk, in das Dienste und Funktionen hineinverlagert werden, die bisher einen Server
oder eine dezidierte Appliance erforderten. Durch umfassende Dienstintegration lassen sich
redundante Geräte systematisch eliminieren und entsprechend viele Geräte vom Stromnetz trennen. Auf
der anderen Seite ist das Netzwerk aber auch die Plattform für die breit angelegte Konsolidierung
und Virtualisierung von Ressourcen. Dieser Ansatz nutzt verfügbare Kapazitäten server- und
applikationsübergreifend optimal aus – was nicht nur viele Neuinvestitionen vermeidet, sondern auch
signifikant Energiekosten spart.

Im Umfeld von Server Load Balancing (SLB) und Firewalling (FW) lässt sich der Stromverbrauch
durch netzwerkbasierte Dienstintegration und Virtualisierung schon heute um Größenordnungen
verringern. Voraussetzung ist allerdings, dass sich aktive Netzwerkkomponenten flexibel mit
entsprechenden Servicemodulen nachrüsten lassen. Bei einem Switch zum Beispiel beläuft sich die
zusätzliche Leistungsaufnahme für entsprechende FW- und SLB-Module zusammen auf weniger als 400
Watt. Damit sind in der Praxis bis zu 200 virtuelle Gruppen mit jeweils zehn Servern versorgbar.
Zum Vergleich: Heute am Markt verfügbare Einzelkomponenten für SLB und FW erhöhen den Verbrauch
typischerweise um jeweils 300 beziehungsweise 400 Watt, zusammen also 700 Watt – und dies für jede
Servergruppe aufs Neue.

Ein weiteres Beispiel, wie Virtualisierung als Designprinzip den Stromverbrauch im Data Center
massiv senken kann, liefern konsolidierte SANs (Storage Area Networks). Besonders sinnfällig wird
bei Speicher-Switches zudem, wie wenig der einfache Vergleich von Wattzahl pro Port über den
tatsächlichen Einfluss einer virtuellen Fabric auf die Gesamtenergiebilanz aussagt. Um
Verkehrsströme unterschiedlicher Anwendungen voneinander zu isolieren und Massenspeicher dennoch
gemeinsam zu nutzen, gibt es im Wesentlichen zwei Methoden: Das traditionell praktizierte Verfahren
basiert auf Abschottung des Zugriffs über separate Router. Mit virtuellen SANs (VSAN) ist dies
nicht länger notwendig. Sobald die eingesetzten SAN-Komponenten in der Lage sind, Verkehrsströme
sicher durch verschiedene VSANs zu routen, können sich alle Anwendungen eine einzige Fabric teilen.
Damit erübrigen sich zusätzliche Router wie in der traditi-onellen Variante samt
Stromversorgung.

Der Beitrag virtueller Speichernetze zur Steigerung der Energieeffizienz im Data Center ist
damit aber keineswegs erschöpft. Denn mit VSANs lassen sich sämtliche Plattensysteme und
Bandbibliotheken zu einem gemeinsamen Speicher-Pool zusammenfassen, aus dem alle Anwendungen je
nach Bedarf schöpfen können. Die Kapazitätsausnutzung verbessert sich im Durchschnitt um 70 Prozent
– entsprechend weniger Speichermedien müssen neu gekauft und anschließend belüftet, beleuchtet und
gewartet werden. Außerdem können konsolidierte SANs blockorientierte Speicherdaten über optische
und sogar Ethernet-Leitungen transportieren. Dies ermöglicht standortübergreifende
Datenreplikationen und Backups ohne Umweg über einen Server – noch ein Gerät mehr, das nun
abgeschaltet werden kann.

Nachhaltige Energieeffizienz lässt sich im Data Center nur durch einen ganzheitlichen
Designansatz verwirklichen. Als Plattform dafür dient das Netzwerk, weil es die Basis für die
Serviceintegration, die Konsolidierung der Infrastruktur und die Virtualisierung von Ressourcen
liefert. Integrierte Netzwerkservices müssen sich nicht auf Lastverteilung und Firewalling
beschränken. Infrage kommen alle anderen Funkti-onen rund um die IT-Sicherheit; RFID (Radio
Frequency Identification) ist geradezu prädestiniert für eine Bereitstellung als netzwerknaher
Dienst. Je mehr Anwendungen von der Virtualisierung und Serviceintegration profitieren, desto höher
sind die strukturellen Energieeinsparungen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+