Das vorherrschende Modell des hochverfügbaren Rechenzentrums mit zweifacher Stromversorgung, redundanten Generatoren und doppelt ausgelegter Kühlung steht zunehmend infrage. Innovative Herangehensweisen an das Thema Rechenzentrumsplanung und -betrieb bieten unterschiedliche Alternativen für die Zukunft. Fünf Überlegungen zu den Aspekten Energieeffizienz, Flexibilität und Management der RZ-Infrastruktur.

Der massiv steigende Datenverkehr, die zunehmende Digitalisierung von Geschäftsprozessen und Cloud Computing erfordern starke und hochverfügbare Infrastrukturen, die sinnvolles Wachstum für Unternehmen zulassen. Mit durchdachten, effizient betriebenen Rechenzentren lassen sich Zeit, Nerven und vor allem Kosten sparen. Welche Aspekte Unternehmen beim Bau und beim Management eines nachhaltigen Rechenzentrums beachten sollten, zeigt der folgende Beitrag.

1. Den richtigen Standort wählen

Viele große Unternehmen, Service-Provider oder Cloud-Anbieter wählen den Standort ihrer Rechenzentren danach aus, welche ökonomischen und ökologischen Vorteile dieser bietet. Ein Beispiel dafür ist das Facebook-Rechenzentrum Luleå 2 in Nordschweden. Mit ihm schuf das Internet-Unternehmen 2014 eines der energieeffizientesten und nachhaltigsten Rechenzentren weltweit – unter anderem aufgrund seines innovativen Kühlkonzepts: Luleå 2 nutzt für die Kühlung der Server Frischluft aus der Umgebung. Durch das kühle Klima in Nordschweden ist diese Kühlmethode für das Rechenzentrum bestens geeignet.

Gleichwohl weist Frischluftkühlung gegenüber indirekter Kühlung ein paar Nachteile auf: So ist etwa die Qualität der Luft immer von äußeren Einflüssen abhängig. Diese muss gefiltert und bei Bedarf abgemischt und angefeuchtet werden. Für den Fall, dass sich die vorhandene Luft nicht verwenden lässt, ist ein Backup notwendig. Die großen Öffnungen im Gebäude für den Lufteinlass bergen zudem Sicherheitsrisiken. Demgegenüber steht allerdings der Vorteil erheblicher Stromeinsparungen, da es nicht erforderlich ist, die Luft abzukühlen.

Neben großen, zentralen Rechenzentren setzen sich auch dezentrale „Kleinstrechenzentren“ immer häufiger durch: „Edge Computing“ liegt im Trend und kommt für verschiedenste Zwecke zum Einsatz, bei denen die Daten unmittelbar am Ort der digitalen Interaktion verarbeitet werden – wie beispielsweise in Bankfilialen, Handelsketten, Logistikzentren oder Krankenhäusern. So lassen sich Verzögerungen bei der Datenbereitstellung vermeiden und die Verfügbarkeit erhöhen. Die Infrastrukturlösung für das Edge Computing ist das „Datacenter in a Box“: skalierbare, modulare Mikrorechenzentren im geschlossenen Rack oder in der Schrankreihe, die komplett ausgestattet sind.

2. Virtualisierung macht flexibel

Eine Virtualisierung der Server ermöglicht die Konsolidierung auf sehr viel weniger Hardware und bietet IT-Mitarbeitern die Chance, schneller auf einen sich verändernden Bedarf aus den Geschäftsprozessen zu reagieren. Diese Vorteile der Virtualisierung sind heute weitestgehend erkannt. Dennoch liegt der Nutzungsgrad von Servern häufig immer noch recht niedrig. Dabei ließe sich durch die Erhöhung des Virtualisierungsgrads von 30 auf 60 Prozent der Energieverbrauch um etwa 30 Prozent senken.

3. Mit DCIM alles unter Kontrolle

Trends wie Cloud Computing, Virtualisierung und konvergente Infrastrukturen eröffnen scheinbar unendlich neue Möglichkeiten. Sie machen das Infrastruktur-Management aber gleichzeitig wesentlich komplexer. Viele Unternehmen und IT-Abteilungen fürchten sich, den Überblick zu verlieren, und haben nicht die Kapazitäten, um hochkomplexe Rechenzentren zu managen.

An dieser Stelle kommt das Datacenter-Infrastructure-Management (DCIM) ins Spiel. Mit einer Software lassen sich die Geräte, Standorte, Netzwerkverbindungen, Kapazitäten sowie notwendige Änderungen eines Rechenzentrums erfassen und effizient planen. Das Ergebnis sind bis zu 50 Prozent weniger Betriebs- und Arbeitskosten. Gleichzeitig lässt sich die Effizienz des Rechenzentrums erhöhen: Der Betreiber kann die zur Verfügung stehenden Ressourcen schneller identifizieren und besser auslasten. Auch die Stromversorgung sowie wichtige Umgebungsparameter wie Temperatur und Luftfeuchtigkeit lassen sich überwachen und visualisieren.

Auch um das Niveau der Virtualisierung zu steigern und virtuelle Umgebungen zu managen, ist DCIM ein gutes Hilfsmittel. Anwenderunternehmen sollten deshalb eine DCIM-Lösung wählen, die eine Überwachung der physischen und der virtualisierten Infrastruktur in Echtzeit ermöglicht. Die notwendigen Daten dafür stammen von IT-Geräten und Facility-Systemen. Die Verarbeitung der Daten sollte autark und skalierbar erfolgen, damit sie auch bei einem Verbindungsausfall reibungslos funktioniert und Server-Systeme durch die zusätzlichen Datenmengen nicht weiter belastet werden.

4. Heute Kühlung, morgen Wärme-Management

Bei herkömmlichen Anlagen macht die Kühlung im Rechenzentrum durchschnittlich 40 Prozent des gesamten Energieverbrauchs aus. Energieeffiziente innovative Kühlkonzepte sind daher entscheidend für den kostensparenden und umweltfreundlichen Betrieb eines Rechenzentrums. Da IT-Geräte immer höhere Ansaugtemperaturen vertragen, ist häufig eine mechanische Kühlung nicht mehr erforderlich. Aber die Notwendigkeit bleibt, die erzeugte Wärme abzuführen. Indirekte freie Kühlung, besonders in Verbindung mit adiabater Verdunstungskühlung (Kühlung durch Verdunstung von Wasser), kommt deshalb zunehmend zum Einsatz. Für kleinere Anlagen spielt aber immer noch das „klassische“ Umluftkühlgerät die dominierende Rolle, wobei innovative Geräte die Kompressorkühlung mit Kältemittel durch sehr effiziente freie Kühlung ergänzen.

Luftgekühlte IT-Geräte dürften auch weiterhin dominieren, doch es wird der Bedarf für direkte Flüssigkeitskühlung – getrieben durch höhere Leistungsdichten und optimierte Energieeffizienz – weiter zunehmen. Innovative Ansätze wie Immersionskühlung (Kühlung der Komponenten durch Eintauchen in eine hitzeabsorbierende Flüssigkeit, die die Wärme aufnimmt und abtransportiert) werden ebenfalls an Bedeutung gewinnen. Immersionskühlung ist zwar äußerst effizient, aber mit hohen Investitionen verbunden. Sie wird daher eine Lösung für spezielle Einsatzgebiete bleiben, die besonders viel Hitze erzeugen, wie beispielsweise Supercomputing-Anwendungen. Welche Kühlmethode am besten ist, entscheiden die Rahmenbedingungen: die Leistungsanforderungen an das Rechenzentrum, die Größe und der Standort des Gebäudes und letztlich auch das Budget.

5. Server-Power-Management: 50 Prozent weniger Stromverbrauch

Energieeffizienz ist in aller Munde – und dies nicht nur aus finanziellen Gründen. Die gesellschaftliche Verantwortung wird immer wichtiger und veranlasst Unternehmen, konzernweite Nachhaltigkeitskonzepte zu entwickeln. Ein typisches Rechenzentrum mit einer Fläche von etwa 500 m² hat einen Stromverbrauch von zehn Millionen kWh im Jahr. Um diesen Stromverbrauch zu reduzieren, muss man zuerst bei den IT-Geräten ansetzen. Mithilfe neuer Techniken lässt sich der Verbrauch um bis zu 50 Prozent reduzieren.

Dabei bietet das Strom-Management der Server oft wenig genutzte Möglichkeiten, den Verbrauch im RZ zu senken. Und Rechenzentren arbeiten selten bei voller Kapazität: Problematisch ist dies, weil ein Rechenzentrum, das nur 20 Prozent seiner Kapazitäten nutzt, trotzdem 80 Prozent der Energie verbraucht, die es bei voller Kapazität benötigen würde. Ein Server-Power-Management – vor allem in Verbindung mit Virtualisierung – ermöglicht, den hohen Energieverbrauch durch ungenutzte Server-Kapazitäten zu reduzieren, und dient zudem als langfristige Strategie, um den Stromverbrauch der Server an die Lastveränderungen im Rechenzentrum anzupassen.

Fazit

Es wird auch in Zukunft nicht das „eine“ typische Rechenzentrum geben. Je nach Verwendungszweck werden klassische Rechenzentren von Unternehmen neben Colocation-Standorten, Cloud Computing oder Superrechenzentren (RZs mit einem Strombedarf von zahlreichen MW) und Supercomputing-Standorten (RZs auf der Basis schnellster Hochleistungscomputer) existieren. Modulare Rechenzentren, die durch ihre Containerbauweise mehr Flexibilität und Skalierbarkeit bieten, werden an Bedeutung gewinnen.

Dr. Peter Koch ist Vice President Solutions for Europe, Middle East & Africa bei Vertiv ().