Zukunftstechnik stellt hohe Anforderungen an RZs

HPC im Datacenter

19. Mai 2022, 7:00 Uhr | Wolfgang Kaufmann/jos
LL2004 LL-6-04_titel

Die Anforderungen an Rechenzentren in Bezug auf Sicherheit und Leistung steigen enorm. So setzen besonders neue Techniken wie künstliche Intelligenz oder das Internet der Dinge (IoT) eine massive Rechenleistung und möglichst geringe Latenzzeiten voraus. Kein Wunder also, dass Rechenzentrumsbetreiber auf diese extremen Datenströme reagieren und ihre Rechenzentren entsprechend an diese Hochleistungen anpassen müssen. Besonders in der Wissenschaft – und zunehmend auch in Unternehmen – verbreitet sich High-Performance Computing (HPC) immer stärker, um extrem wachsende Datenmengen verarbeiten zu können.

Vor allem in der Wissenschaft und Forschung arbeiten viele Institute bereits heute mit Hochleistungsrechnern, um beispielsweise Simulationen oder aufwendige Animationen zu erstellen – oft im Zusammenhang mit künstlicher Intelligenz. Dieses sogenannte High-Performance Computing wird immer beliebter und spielt für Rechenzentrumsbetreiber, die sich für die Zukunft wappnen wollen, eine zunehmend wichtige Rolle bei der strategischen Ausrichtung. Beim HPC sind Rechenleistung und Speicherkapazität um ein Vielfaches höher als bei der klassischen Datenverarbeitung. Die Rechner sind als Cluster, also als eine zusammenhängende Struktur, aufgestellt und innerhalb eines Netzwerks miteinander verbunden. Dank spezieller Software verarbeitet diese Rechnerstruktur Daten parallel. Große Datenmengen sind dabei sehr viel schneller übertragbar, was zu niedrigeren Latenzen führt.

Die Vorteile von HPC zeigen sich vor allem in der Forschung. Durch die hohe Rechenleistung sind Simulationen möglich, zum Beispiel im Bereich von Crashtests oder in der Raumfahrt, die physische Tests teilweise obsolet machen. Dies spart vor allem immense Kosten. Zudem bildet HPC die Grundlage für technische Innovationen und wissenschaftliche Entdeckungen, die die Zukunft maßgeblich mitgestalten. Die Charité in Berlin beispielsweise nutzt HPC für die Analyse und Verarbeitung der Daten aus der Genomsequenzierung, um Hochrisikopatienten zu identifizieren und gezielte Behandlungstherapien zu entwickeln.

Für Unternehmen und RZ-Betreiber bedeutet dies vor allem eines: die Aufrüstung der Infrastruktur. Prozessoren, Storage und Netzwerkequipment müssen auf den neusten Stand gebracht und regelmäßig aktualisiert werden, was hohe finanzielle Investitionen zur Folge hat. Die Unterschiede zu „klassischem“ Computing liegen unter anderem in der Anzahl der CPU- und GPU-Kerne, dem Betriebssystem und der Hardware. Bauen sich Unternehmen eine eigene HPC-Infrastruktur auf, erfordert dies nicht nur massive Ressourcen, sondern auch umfassendes Know-how zu Technik und Einsatzbereichen. Dies können meist nur große Konzerne stemmen – kleine und mittelständische Unternehmen kommen an ihre Grenzen.

Eine Möglichkeit bieten jedoch Rechenzentrums- oder Colocation-Anbieter, bei denen sich Unternehmen die notwendige Fläche für ihr HPC „mieten“ können. Immer mehr RZ-Anbieter erkennen das Potenzial und rüsten ihre Rechenzentren entsprechend auf. Neben RZ- und Colocation-Anbietern bieten einige Cloud-Giganten High-Performance-Computing-Dienste bereits in der Cloud an. Dies bringt beispielsweise für sehr umfassende und anspruchsvolle Projekte Vorteile mit sich, da in der Cloud die Skalierbarkeit nahezu unbegrenzt ist.

Quantencomputing mit Potenzial

Teil des High-Performance Computings ist Quantencomputing – eine spezielle Art von Hochleistungsrechnern, bisweilen auch Supercomputer der Zukunft genannt. Laut einer Studie von Atos und IQM planen 76 Prozent der High-Performance-Computing-Rechenzentren weltweit, bis 2023 Quantencomputing einzusetzen. Dabei bilden nicht Bits, sondern Qubits, also Quanten-Bits, die Grundrecheneinheit. Anders als ein Bit kann ein Qubit nicht nur den Zustand 0 oder 1 annehmen, sondern auch gleichzeitig im Zustand 0 und 1 sein oder auch in theoretisch unendlich vielen Zuständen dazwischen.
Dieser Unterschied verleiht Quantencomputern das Potenzial, exponentiell schneller zu sein als die heutigen Großrechner und Server. Die Architektur der Rechenzentren verändert sich durch den Einzug von Quantencomputing massiv. Die „Quanten“ sind allerdings sehr empfindlich – sie müssen vor jeglicher Art der Außeneinwirkung geschützt sein.

Obwohl die Standardisierung noch in den Kinderschuhen steckt, wächst die Nachfrage nach Quantencomputing enorm. Der Finanzdienstleister Morgan Stanley prognostiziert einen jährlichen Umsatz von neun Milliarden Euro bis zum Jahr 2025.
Bis es frei programmierbare Quantencomputer geben wird, müssen Quantencomputer jedoch jeweils für spezielle Probleme maßgeschneidert konstruiert und mit herkömmlichen Computern gekoppelt sein. Einige Unternehmen haben sich aber bereits heute auf die Entwicklung von Quantencomputern spezialisiert.

Wolfgang Kaufmann ist CEO von Datacenter One.


Verwandte Artikel

Datacenter One GmbH

Daten-Management

künstliche Intelligenz