Supermicro, Anbieter von Server-, Storage- und Netzwerklösungen, erweiterte sein GPU-Server-Portfolio mit Systemen, die auf Nvidia-Ampere-GPUs und Intel-Xeon-Scalable-Prozessoren der dritten Generation mit integrierten KI-Beschleunigern basieren. Die Systeme seien für anspruchsvolle KI-Anwendungen konzipiert, bei denen niedrige Latenzzeiten und eine hohe Anwendungsleistung von entscheidender Bedeutung sind.
Der 2HE-Nvidia-HGX-A100-4-GPU-Server eigne sich für den Einsatz moderner KI-Trainingscluster im großen Maßstab mit Hochgeschwindigkeits-CPU-GPU- und GPU-GPU-Verbindungen. Der 2HE-2-Node Server reduziere den Energieverbrauch und die Kosten durch die gemeinsame Nutzung von Netzteilen und Lüftern. Beide Systeme sollen erweiterte Hardware-Sicherheitsfunktionen bieten, die durch die aktuellen Intel Software Guard Extensions (Intel SGX) möglich sind.
Der 2HE-Nvidia-HGX-A100-4-GPU-Server basiert auf den Intel-Xeon-Scalable-Prozessoren der dritten Generation mit Intel-Deep-Learning-Boost-Technik und ist laut Supermicro für Analyse-, Trainings- und Inferenz-Workloads optimiert. Das System liefere eine KI-Leistung von bis zu 2,5 Petaflops mit vier A100-GPUs, die vollständig mit Nvidia NVLink verbunden sind und bis zu 320 GByte GPU-Speicher bereitstellen. Das System ist laut Anbieter bis zu viermal schneller als die vorherige GPU-Generation für komplexe KI-Modelle wie Bert Large Inference und liefert eine bis zu dreifache Leistungssteigerung für Bert Large AI Training.
Darüber hinaus eignen sich diese Systeme aufgrund ihrer thermischen und kühltechnischen Konstruktion für Hochleistungscluster, bei denen Node-Dichte und Leistungseffizienz Priorität haben, so Supermicro. Für diese Systeme ist auch eine Flüssigkeitskühlung erhältlich, was zu weiteren Opex-Einsparungen führen soll.
Der 2HE 2-Node-Server sei eine energieeffiziente, ressourcensparende Architektur, bei der jeder Node bis zu drei GPUs mit doppelter Breite unterstützen kann. Jeder Node verfüge außerdem über einen einzelnen Intel-Xeon-Scalable-Prozessor der dritten Generation mit bis zu 40 Kernen und integrierter KI- und HPC-Beschleunigung. Ausgestattet mit Supermicros „Advanced I/O Module“-Erweiterungssteckplätzen (AIOM) für schnelle und flexible Netzwerkfähigkeiten könne das System auch massive Datenströme für anspruchsvolle KI/ML-Anwendungen, Deep-Learning-Training und Inferencing verarbeiten und gleichzeitig die Arbeitslast und die Lernmodelle sichern.