High-Density Computing

Dichter rechnen

3. März 2017, 7:51 Uhr | Von Jens Leuchters.

Stetig steigende Datenmengen und das damit einhergehende Wachstum im Bereich Rechenzentren setzen deren Betreiber und Kunden unter enormen Druck, Fläche und Energie effizienter zu nutzen - zwei der kritischsten Themen beim Design von Rechenzentren. Denn eine Erweiterung ist kostspielig und in manchen Fällen auch gar nicht möglich. In solchen Fällen bietet das High-Density Computing einen Ausweg.

Die Analysten von Datacenter Dynamics Intelligence (DCDI) verfolgen die Entwicklung und das Wachstum der Branche seit Jahren. So nahm der Energieverbrauch weltweit kontinuierlich zu: von rund 41 GW im Jahr 2013 auf knapp 50 GW per Ende 2016 - Tendenz steigend. Dieses Wachstum ergibt sich trotz verstärkter Virtualisierung, Technik zur Optimierung des Stromverbrauchs sowie Verbesserungen bei der Effizienzsteigerung, gemessen als PUE-Wert (Power Usage Effectiveness), der die insgesamt im RZ verbrauchte Energie ins Verhältnis zur Energieaufnahme der Rechner setzt. Auch die RZ-Fläche nahm und nimmt weltweit zu: von 33,8 Millionen Quadratmetern im Jahr 2013 auf prognostizierte 41,3 Millionen Quadratmeter im Jahr 2017, also um über ein Fünftel in nur vier Jahren.

LL03S11a
Laut dem Analystenhaus DCDI ist der weltweite RZ-Energiebedarf in den letzten vier Jahren um rund ein Fünftel gestiegen. Bild DCD Intelligence

Die kontinuierliche globale Zunahme der Datenmengen treibt die Anforderungen an Storage und Datenverarbeitung in Rechenzentren weiter nach oben, mit dem Cloud Computing als wichtigem Wachstumstreiber. Entsprechend wird sich der Schwerpunkt bei Datenverarbeitung und Storage verlagern - von der unternehmenseigenen Infrastruktur aus Servern und Speicher-Racks in Cloud-Rechenzentren. Ciscos Global Cloud Index prognostiziert, dass 2019 ganze 86 Prozent der Workloads in Cloud-basierten Rechenzentren verarbeitet werden. Als weitere Treiber der Entwicklung identifiziert hat DCDI Forschung und Analyse, insbesondere von Big Data, sowie das Internet der Dinge (Internet of Things, IoT). Die Verarbeitung und Speicherung dieser Anwendungen wird ebenfalls in der Cloud geschehen. Aus dem daraus resultierenden erhöhten Bedarf an Rechenkapazität ergibt sich eine steigende Nachfrage nach Ressourcen wie elektrischer Energie oder RZ-Fläche.

Kosteneffizienter RZ-Betrieb

Die Herausforderung lautet also, die RZ-Infrastruktur deutlich kosteneffizienter zu betreiben. Hier empfiehlt sich das High-Density Computing. Es ermöglicht mehr Rechenkapazität auf gleichem Raum und basiert auf folgenden Parametern:

  • Server erzielen immer höhere Packungsdichten, zum Beispiel aufgrund steigender Anzahl an Cores pro CPU und der Verlagerung traditionell peripherer Funktionen auf den CPU-Die.
  • "Predictive Flash Storage Arrays" können die Zahl benötigter Festplatten und SSDs in Storage-Systemen deutlich reduzieren und den Energiebedarf bei gleichbleibender oder besserer Performance senken.
  • Hyperkonvergente Plattformen bieten höchste Skalierbarkeit, sodass sich der Platz- und Energiebedarf minimieren lässt, da für zukünftiges Wachstum keine überdimensionierten Infrastrukturen vorzuhalten sind.
  • Die Versorgung ganzer Racks oder Cages erfolgt mit Gleichstrom, um bei der Wandlung von Wechselstrom effizienter zu werden.
  • Die Nutzung von Rack-Systemen mit voll integrierten Klimatisierungsmodulen ermöglicht eine sehr effiziente Kühlung und erleichtert Erweiterungen bei künftigem Wachstum.
  • Hinzu gesellt sich die Eigennutzung oder der Verkauf der Abwärme als Nebenprodukt eines Rechenzentrums.

DCDI zufolge ist High-Density Computing im Aufwind, wenn auch zögerlich. So ermittelten die Analysten, dass die Leistungsdichte pro Rack stetig wächst. Lag sie früher bei rund zwei bis vier kW, so sind nun 20 oder gar 30 kW erreichbar.

Die Realisierung kann auf drei Arten erfolgen. Eine Möglichkeit ist der Einsatz neuer Server-Modelle, die dank verbesserter Prozessorleistung schlicht mehr Rechenleistung im gleichen Gehäuse generieren. "Mehr Prozessorleistung pro Watt" über eine stetig steigende Core-Anzahl pro physischem Prozessor ist somit die evolutionäre Grundlage bei der Verdichtung der Rechenkapazität. Eine zweite Möglichkeit bieten Blade-Server. Diese kann man nach und nach einschieben, um Rechenkapazität hinzuzufügen. Blade-Designs verfolgen das Konzept, Komponenten an der Peripherie oder außerhalb des eigentlichen Servers in eine einheitliche Infrastruktur einzubinden. Hierzu zählt die Integration von IP- und SAN-Netzwerken sowie der Stromversorgung in das Chassis eines Blade-Centers, sodass die Blade-Server diese gemeinsam nutzen können. Die dritte Option - eine konsequente Fortsetzung des Blade-Gedankens - besteht in High-Density Pods. Dabei handelt es sich in der Regel um eine oder mehrere Rack-Reihen, die eine Dichte pro Rack von durchschnittlich vier kW oder mehr gewährleisten. High-Density Pods verfügen über Kühl- und Stromanschlüsse, die in einer in sich geschlossenen modularen Bauweise integriert sind.

Vorteile

Das High-Density Computing verspricht eine Reihe von Vorteilen, darunter erstens die Einsparung von Fläche. Speziell in Ballungszentren ist es nicht einfach, eine passende Örtlichkeit für ein RZ zu finden. Denn RZ-Betreiber benötigen gute Transportverbindungen, einfach erhältliche Baugenehmigungen, Konnektivität und Energie. Mehr Effizienz in bestehenden Rechenzentren ist deshalb eine nützliche Alternative: Ist eine ausreichende Stromversorgung gesichert, kann High-Density Computing eine modulare Lösung darstellen, um die Kapazität anzupassen, ohne eine neue Anlage beziehen zu müssen.

LL03S11b
High-Density Computing verdichtet die Rechenleistung im RZ - wobei mittels intelligenten RZ-Designs der Energieverbrauch pro Workload sinkt. Bild: DCD Intelligence

Zweitens erhöht High-Density-Computing zwar den Stromverbrauch pro Rack, kann aber den Strombedarf für die Rechenlast eines Anwenders insgesamt deutlich senken. Ein Spezialist für Special-Effects konnte so beispielsweise den Energieverbrauch in seinem RZ um 84 Prozent senken.

Da High-Density-Server mehr Hitze produzieren, steigt auch die Komplexität der Kühlanforderungen. Grundvoraussetzung für einen effizienten Betrieb ist deshalb die optimale Integration der Komponenten. Bei einer Kühllösung gehören dazu zum einen die Kalt- oder Warmgangeinhausung, zum anderen moderne Adiabatik-Chiller, die mithilfe von Verdunstungskühlung die Wärme deutlich effizienter abtransportieren. Eine direkte oder indirekte Freikühlung bietet bei entsprechenden baulichen und klimatischen Gegebenheiten hohe Energieeffizienz. Exotischere Ansätze greifen auf die konstant niedrige Temperatur von Grundwasser oder gar auf unterirdisch angelegte Becken zurück. Dort wird über den Winter Wasser abgekühlt und im Sommer zur Kühlung genutzt. Mehrheitlich dürften jedoch klassische Kompressorkühlanlagen zum Einsatz kommen.

Drittens erfordert High-Density Computing weniger IT-Equipment pro Rack und sorgt so für eine einfachere Handhabung im RZ. Der geringere Bedarf an Racks und Kabeln reduziert die Komplexität und erhöht gleichzeitig die Zuverlässigkeit.

Noch mangelnde Akzeptanz

Die Akzeptanzrate von High-Density Computing lässt noch zu wünschen übrig, da oftmals unklar ist, wie viel Rechenleistung pro Rack oder wie viel Strom auf Rack-Ebene man bereitstellen kann. Zudem hegen die Unternehmen Bedenken in Bezug auf die Kühlanforderungen und die daraus resultierenden Kosten. Sie befürchten, dass höhere Kosten für Kühlung und Strom den Mehrwert aus der verbesserten Rechenleistung pro Rack zunichte machen.

Dabei kann ein Vergleich diese Zweifel entkräften, zumindest wenn es sich um Rechenzentren handelt, die bereits jetzt standardmäßig Racks mit hoher Energiedichte, zum Beispiel 20 kW pro Rack, zur Verfügung stellen. Für die Umrüstung von Bestandsrechenzentren hängt die Bewertung von den realisierbaren Maßnahmen und lokalen Gegebenheiten im Einzelfall ab und ist mit dem jeweiligen RZ-Betreiber zu klären. Effektives Design - speziell der Kühlsysteme für High-Density-Racks - ist hier eine entscheidende Einflussgröße.

Sinnvoll ist beispielsweise die Installation einer Kaltgangeinhausung, also die Überdachung des Bereichs, in dem die kühle Luft aus dem Doppelboden austritt, mit modularen Bauplatten. Dies verhindert die Vermischung der kalten mit der aus den IT-Geräten ausströmenden warmen Luft, steigert die Kühleffizienz und ermöglicht eine höhere Leistungsaufnahme auf gleicher Fläche.

Einen neuen Ansatz bietet beispielsweise ein Rechenzentrum der NTT-Tochter Gyron im britischen Hemel Hempstead. Die Anlage ist mit einem Kühlsystem ausgestattet, das mithilfe von "Schornsteinen" die heiße Luft extrahiert. Diese wird mittels Ventilatoren aus der Heißluftkammer befördert, über Kaltwasser-Kühlschlangen gekühlt sowie gefiltert und dann wieder zurück ins RZ geführt. Die Luft wird also recycelt und nicht von außen zugeführt. Dieses Konzept ist beliebt, da der traditionelle Ansatz von Warm-/Kaltgang weit weniger effizient ist und sich das RZ bei höheren Temperaturen betreiben lässt.

Mit High-Density Computing können Unternehmen das Wachstum ihrer RZ-Leistung modularer gestalten, Fläche und Energie effizienter nutzen sowie gegebenenfalls höhere Zuverlässigkeit erreichen. Um zu erkennen, ob ein RZ wirklich für High-Density ausgelegt ist, sollten Unternehmen den Betreibern folgende Fragen stellen: Können Sie wirklich 20-kW-Racks bereitstellen? Kann ich mehrere 20-kW-Racks zusammen verwenden oder muss ich sie verteilen und für die nicht genutzte Fläche zahlen? Muss man das Kühlsystem umrüsten oder benötige ich spezielle Rack-Kühlung?

Jens Leuchters ist Regional General Manager Central and East Europe bei NTT Europe ().

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Vodafone D2 GmbH

Matchmaker+