Dell über ungenutzte Potenziale im RZ

Mehr Effizienz durch Softwareeinsatz

20. Februar 2023, 12:30 Uhr | Wilhelm Greiner
© Dell Germany

Um die Flut an Daten verarbeiten zu können, investieren Verantwortliche regelmäßig in neue Hardwarekomponenten – aber oft, ohne darauf zu achten, dass der Energiehunger mancher Systeme die Gesamteffizienz der RZ-Infrastruktur belastet. Gleichzeitig steigt jedoch auch der Druck, die – auch durch die Digitalisierung – stetig wachsenden Treibhausgas-Emissionen zu senken und damit der Klimaerwärmung entgegenzuwirken. Angesichts stark steigender Energiepreise sollten Unternehmen hier laut Empfehlung von Dell Technologies allein schon aus wirtschaftlichem Interesse handeln.

Software bietet zahlreiche Möglichkeiten, die Leistung der Infrastruktur im Rechenzentrum zu steigern und gleichzeitig den ökologischen Fußabdruck zu verringern. Dell Technologies rät den Unternehmen, folgende Punkte im Blick zu behalten:

1. Auf die optimale Verzahnung von Hard- und Software achten. Grundlegend gilt: Unternehmen müssen neue IT-Ressourcen pflegen, warten und fortlaufend updaten, was einen erheblichen Folgeaufwand nach sich zieht. Eine zu groß dimensionierte Konfiguration bedeutet aber immer auch nicht ausgelastete Kapazitäten, die die Bilanz verschlechtern. Bevor Unternehmen also in Hardware investieren, sollten sie erst einmal die Leistungsanforderungen ihrer Anwendungen und die Performance der Maschinen aufeinander abstimmen. Eine Kalkulation „Pi mal Daumen“ ist in der Regel wenig zielführend, wichtig ist eine optimale Verzahnung von Hard- und Software.

2. Stromsparmechanismen nicht ungenutzt lassen. Moderne Server bieten die unterschiedlichsten Werkzeuge, um Energie zu sparen. Doch mit dem Ziel, die maximale Performance aus den Rechnern herauszuholen, schalten IT-Teams diese gerne aus. Das heißt, dass Komponenten nicht in einen Stromsparmodus wechseln können und mehr Energie verbrauchen, als notwendig wäre. Höchstleistung ist allerdings selten verlangt – und sollte es doch der Fall sein, dauert es nicht lange, bis die Systeme den Sparmodus verlassen haben und volle Performance liefern. Mit den Energie-Management-Tools der Server-Hersteller können IT-Abteilungen darüber hinaus den Stromverbrauch aller Server und virtuellen Maschinen überwachen und inaktive oder schlecht ausgelastete Systeme aufspüren.

3. Die Modernisierung von Altanwendungen nicht vergessen. Viele Legacy-Systeme sind nicht in der Lage, mit Multi-Threading umzugehen oder moderne Instruktionen auszuführen. Künstliche Intelligenz beispielsweise setzt Prozessoren mit einer eingebetteten Befehlssatzarchitektur voraus. VNNI (Vector Neural Network Instructions) beschleunigt komplexe Berechnungen, wie sie für Convolutional Neural Networks (CNNs) und andere Deep Neural Networks (DNNs) typisch sind. Damit lässt sich ein bis zu 30-mal höherer Inferenzdurchsatz erreichen. Gleichzeitig verlangen KI-Workloads nach sogenannten FPGAs (Field Programmable Gate Arrays). Diese programmierbaren Hardwarebeschleuniger liefern die erforderliche Anpassungsfähigkeit bei gleichzeitig niedrigeren Kosten und einem geringeren Energieverbrauch. Doch Legacy-Anwendungen unterstützen FPGAs nicht.

4. Bereits beim Entwickeln auf die Effizienz achten. Bei proprietärer Software haben Unternehmen keinen Einfluss auf einzelne Funktionen und damit im weiteren Sinne auf den Energiebedarf. Das sogenannte „Green Coding“ ist ein nachhaltigerer Ansatz. Legen Anwendungsentwickler beispielsweise beim Rendering ein Augenmerk darauf, wie ihre programmierten Datensätze visualisiert und umgewandelt werden, lässt sich Energie einsparen. Ähnliches gilt für Programmcode, der so entwickelt ist, dass er die CPU-Auslastung auf das erforderliche Minimum reduziert. Ein anderes Beispiel ist die Trainingsoptimierung bei KI: Durch den Einsatz von GPT-3, einem autoregressiven Sprachmodell, lässt sich laut Forschern von Google und der Universität Berkeley ein Großteil der CO2-Emissionen in Vergleich zu einem Standardtraining einsparen.

5. Containerisierung ist besser als Virtualisierung. Studien belegen, dass Unternehmen durch die Nutzung von Cloud-Lösungen erheblich CO2 einsparen können. Im Rahmen eines reinen „Lift  and Shift“-Ansatzes führt die Verlagerung von IT-Ressourcen in die Cloud aber weder zu den erhofften Effizienzsteigerungen noch zu einer signifikanten Verringerung der Emissionen. Cloud-native Anwendungen erzielen eine größere Wirkung: Statt einer monolithischen Architektur ist jede funktionale Einheit ein eigener unabhängiger Micro-Service, der in einem Container läuft. Statt der Abstimmung über gemeinsame Bibliotheken kommunizieren die einzelnen Micro-Services über APIs. Sie bilden damit ein Netzwerk aus Komponenten, in dem sich jeder Micro-Service unabhängig von den anderen weiterentwickeln lässt. Die Applikationen sind zudem nicht mehr nach Spitzenlast ausgelegt – im Falle von Serverless Computing startet die Anwendung sogar erst, wenn es eine Anfrage gibt.

„Das olympische Motto ‚schneller, höher, weiter‘ erreichen die meisten Unternehmen in der Regel dadurch, dass sie immer performantere Hardware kaufen. Stellschrauben in anderen Disziplinen, allen voran bei der Software, werden dagegen gerne übersehen – mit negativen Folgen für den Energieverbrauch und damit die CO2-Bilanz“, sagt Peter Dümig, Senior Produkt Manager Server bei Dell Technologies Deutschland. „Zwar stehen die meisten bei der Modernisierung ihrer IT-Infrastruktur im Gegensatz zu Startups nicht auf der ‚grünen Wiese‘. Dennoch haben sie zahlreiche Möglichkeiten, die Leistungsbilanz und Energieeffizienz ihrer Rechenzentrumsinfrastruktur allein mit Bordmitteln oder einfachsten Optimierungen spürbar zu verbessern.“

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Dell Technologies

Weitere Artikel zu Energie-Monitoring

Weitere Artikel zu Quantum GmbH

Weitere Artikel zu United Internet

Matchmaker+