Nach Jahren der Forschung am „The Machine“-Projekt (LANline berichtete) hat Hewlett Packard Enterprise (HPE) nun den Protoyp seiner neuen Server-Generation vorgestellt, laut Bekunden des Herstellers der „weltgrößte Computer mit einheitlichem Arbeitsspeicher“. The Machine, so HPE, ist das größte Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens. Der Rechner nutzt eine neue Computing-Architektur: Memory-Driven Computing ersetzt das heutige CPU-zentrierte Rechnen durch ein speicherzentriertes.

Der Prototyp nutzt einen Arbeitsspeicher von 160 TByte und kann damit laut HPE das Fünffache aller Bücher in der Bibliothek des US-Kongresses an Daten gleichzeitig bearbeiten, zirka 160 Millionen Bücher. Nie zuvor war es möglich, so HPE, Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten. „Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde“, begründete HPE-Chefin Meg Whitman die Notwendigkeit für ein solches Unterfangen.

Memory-Driven Computing stellt den Arbeitsspeicher (Non-Volatile Memory, nicht-flüchtigen Speicher) statt des Prozessors (CPU, „Central Processing Unit“) ins Zentrum der Rechnerarchitektur. Ergänzt wird dies in HPEs Architektur um Rechenarbeit auf Basis eines SoC-Designs (System on a Chip) und eine systeminterne Kommunikation per optischer Datenübertragung. Dies vermeide einen Großteil der Ineffizienz, die durch die heute übliche Rechnerarchitekur entsteht, vor allem durch das Auslagern und erneute Abrufen von Daten, so HPE (LANline berichtete).

Damit verkürze Memory-Driven Computing die Zeit für die Lösung komplexer Probleme von Tagen auf Stunden, Stunden auf Minuten und Minuten auf Sekunden. Das Unternehmen meldete schon während der Forschungsphase, The Machine habe im Testlabor eine Beschleunigung der Anwendungsleistung bis um den Faktor 8.000 erzielt. Die erreichbare Beschleunigung sei allerdings stark von der Art der Workload abhängig.

Im Prototyp teilen sich 40 physische Rechnerknoten die 160 TByte Shared Memory, verbunden über ein Hochleistungs-Fabric-Protokoll. Das Linux-basierte Betriebssystem der Maschine läuft auf Thunder X2, Caviums ARMv8-SoC-Architektur der zweiten Generation. Für die optische Kommunikation sorgt unter anderem das neue X1 Photonics Module. Ergänzt wird das HPE-System um Softwareentwicklungs-Tools, die Programmierern erlauben sollen, die Vorteile eines so umfangreichen nicht-flüchtigen Arbeitsspeichers auszuschöpfen.

HPE erwartet laut eigenem Bekunden, dass die Architektur des Computers leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Größe skaliert werden kann und letztlich sogar bis zu einem Arbeitsspeicher von 4.096 Yottabyte (1 Yottabyte = 1.000 Zettabyte = 1 Billion TByte). Dies, so der Konzern, entspreche dem 250.000-fachen des heutigen Gesamtdatenbestands auf der Welt. Damit könne man zum Beispiel die Daten aller autonomen Fahrzeuge weltweit oder die Daten der gesamten Weltraumforschung gleichzeitig analysieren, um Antworten in bislang nicht gekannter Geschwindigkeit zu erhalten.

„Wir glauben, dass das Memory-Driven Computing die Lösung ist, um die Technologiebranche auf eine Art weiterzuentwickeln, die uns große Fortschritte in allen Bereichen der Gesellschaft ermöglichen“, so Mark Potter, CTO von HPE und Leiter der Hewlett Packard Labs. Die vorgestellte Architektur könne in jeder Rechnerkategorie zum Einsatz kommen: von intelligenten Geräten im Internet der Dinge bis hin zum Supercomputer.

Weitere Informationen finden sich unter www.hpe.com/TheMachine.

Dr. Wilhelm Greiner ist Stellv. Chefredakteur der LANline.