Der europäische KI-Chiphersteller Graphcore hat mit dem IPU-POD128 und dem IPU-POD256 zwei neue KI-Systeme vorgestellt. Mit 32 Petaflops beim IPU-POD128 und 64 Petaflops beim IPU-POD256 bieten die Systeme eine hohe KI-Rechenleistung für Supercomputer-Umgebungen.
Die KI-Systeme sollen ein schnelles Training großer Transformer-basierter Sprachmodelle, Large-Scale-KI-Inferenzberechnungen und die Erforschung neuer KI-Modelle wie GPT und GNN (Graph Neural Networks) ermöglichen. Durch Aufteilung der Systeme in kleinere, flexible vPODs können mehrere KI-Entwickler Zugriff auf die IPUs (Intelligence Processing Units) erhalten. Die KI-Systeme eignen sich damit laut Graphcore insbesondere für Cloud-Hyperscaler, wissenschaftliche Rechenzentren und Unternehmen mit großen KI-Teams in Branchen wie der Finanz- oder Pharmaindustrie.
Die IPUs sollen aufgrund ihres On-Chip-Memorys eine hohe Leistung für traditionelle MatMul-Modelle wie Bert und ResNet-50 bieten. Darüber hinaus unterstützen sie laut Hersteller auch allgemeinere Berechnungsarten, die die Effizienz von Sparse-Multiplikationen und Fine-Grained-Berechnungen erhöhen. Die EfficientNet-Modellfamilie profitiere davon, aber auch verschiedene KI-Modelle für maschinelles Lernen, die nicht auf klassischen neuronalen Netzen basieren, zum Beispiel GNN.
Wie bei anderen IPU-POD-Systemen auch bedeute die Disaggregation von KI-Rechenleistung und Servern, dass man die IPU-POD128- und IPU-POD256-Systeme weiter optimieren kann, um höchstmögliche Leistung für verschiedene KI-Workloads bereitzustellen und die Gesamtbetriebskosten (TCO) zu optimieren. Beispielsweise könne ein NLP-fokussiertes System mit nur zwei Servern auskommen, während datenintensivere Prozesse, wie zum Beispiel Computer-Vision-Tasks, eher von einer Konfiguration mit acht Servern profitieren.
Darüber hinaus lasse sich auch das angebundene Storage-System für bestimmte KI-Workloads optimieren. Die Storage-Anbieter DDN, Pure Storage, Vast Data und WekaIO unterstützen die KI-Systeme mit Referenzarchitekturen, so die weiteren Angaben.
Die IPU-POD128- und IPU-POD256-Systeme sind ab sofort über die Graphcore-Partner Atos, Boston und Megware in der DACH-Region lieferbar und auch als Cloud-Service im Angebot. Dazu bietet der Hersteller ein Schulungs- und Supportpaket an, das es ermöglichen soll, die KI-Server schon in kurzer Zeit produktiv einzusetzen.