HPE: High-Performance Computing as a Service

Supercomputer „to go“

10. Dezember 2020, 07:00 Uhr   |  Wilhelm Greiner

Supercomputer „to go“
© HPE

Mit der Digitalisierung steigt die Nachfrage nach High-Performance Computing (HPC), beispielsweise für ML-gestützte Analysen (Machine Learning). HPE will deshalb nun HPC der breiten Masse der Unternehmen zugänglich machen und steigt dazu ins „HPC as a Service“-Business ein: Der US-Konzern wird ab nächstem Jahr HPC als Teil seines GreenLake-Portfolios auf Abruf bereitstellen. Die Greenlake-HPC-Kapazitäten könne ein Unternehmen per Self-Service in den „T-Shirt-Größen“ S, M und L beziehen.

Anders als etwa bei AWS oder Microsoft finden Numbercrunching, Datenanalysen und ML-Modelltraining nicht irgendwo „in der Cloud“ statt, die HPE-Systeme sollen vielmehr im RZ des Anwenderunternehmens oder eines Colocation-Providers stehen. Die Idee dahinter: eine hybride Umgebung mit Agilität und Einfachheit à la Cloud, zugleich aber auch der Kontrollmöglichkeiten lokaler IT. Die Lieferzeit für die Systeme gibt HPE mit 14 Tagen an, anschließend kümmere man sich auch um den Betrieb der Hochleistungssysteme und rechne nach tatsächlicher Auslastung ab.

HPE will seine neuen Supercomputer-Services zunächst auf Basis seiner Apollo-Systeme anbieten. Die Apollo-Server gibt es in verschiedenen Varianten bis hin zum Apollo 6500 Gen10 Plus mit AMD-Prozessoren und Nvidia Tensor Core GPUs, konzipiert für Workloads wie etwa ML-Modelltraining. Cray-Rechner als Service – das wären dann wohl die Konfektionsgrößen XL und XXL – sollen hingegen erst später folgen.

Für Workload-, Cluster- und Container-Management, Orchestrierung sowie Monitoring liefert HPE eine Reihe von Softwarelösungen ergänzend zu den Hardwareplattformen. Die Web-Applikation GreenLake Central dient als Plattform, mit der Anwenderunternehmen ihre Services verwalten und steuern. Per Self-Service Dashboard könne man Hochleistungs-Cluster per Mausklick betreiben und verwalten, ohne Workloads zu unterbrechen, verspricht HPE. Für die Nutzungs- und Kostenanalyse gibt es das Tool Consumption Analytics. Per Containerisierung, so der Konzern, könne man die HPC-, KI- und Applikations-Services standardisieren und zudem Datenübertragungen und Datenzugriff erleichtern.

Peter Ungaro, der HPEs HPC-Business leitet, betonte bei der Online-Vorstellung der neuen Angebote, Anwenderunternehmen wünschten heute eine Public-Cloud-Erfahrung auch im eigenen oder im Colocation-RZ. Mit Greenlake Central habe der Anwender stets die Kontrolle über seine Ressourcen und zugleich die Wahl, wie er sie beziehen möchte.

On-Demand-Standardbausteine sollen HPC für das Gros der Unternehmen erschwinglich machen.
© HPE

On-Demand-Standardbausteine sollen HPC für das Gros der Unternehmen erschwinglich machen.

Dank der Standardbausteine in den Größen S/M/L rücke HPC für viele Unternehmen in den Bereich des Erschwinglichen: „Wir wollen das für jeden ermöglichen“, so Ungaro. Deshalb biete man modulare Komponenten auch für kleinere Einsatzfälle und mit nutzungsbasierter Abrechnung. Diese Abrechnung erfolgt laut seinen Angaben auf der Basis eines echten Meterings der Prozessorleistung (Cores) und des genutzten Speichers (GByte). Das Einsatzspektrum deckt laut Ungaro die Batch-Verarbeitung, wie sie im Supercomputing üblich sei, ebenso ab wie die interaktiven Nutzung, die man für KI/ML benötige. Die Use Cases reichten von der Finanzindustrie über das Gesundheitswesen bis zur Industrie.

Für die Bereitstellung der HPC-Services setzt HPE auch auf Partner, darunter Colocation-Provider wie atNorth, CyrusOne und ScaleMatrix sowie Softwarehäuser wie Activeeon, Ansys, Core Scientific und TheUberCloud. Diese offerieren Softwarelösungen für Einsatzfälle wie Automation, KI, Data Analytics, Blockchain, CAD und CAE (Computer-Aided Design/Engineering).

Als Referenzkunden für das Greenlake’sche „Supercomputing as a Service“ nannte Ungaro Zenseact, ein Softwarehaus für autonomes Fahren mit Sitz in Schweden und China. Dieses nutze die GreenLake-Services, um Hunderte von PBytes an Daten zu analysieren, laut Peter Ungaro sogar mit bis zu 10.000 Simulationen pro Sekunde.
 

Seite 1 von 2

1. Supercomputer „to go“
2. Greenlake-Entwicklung im grünen Bereich

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

Hewlett Packard GmbH

HPE

HPC