Hewlett Packard Enterprise zeigt ersten Prototyp von "The Machine"

Weltweit erste Memory-zentrische Rechnerarchitektur

30. November 2016, 7:35 Uhr | Von Dr. Wilhelm Greiner.

Hewlett Packard Enterprise (HPE) hat erstmals sein neues "Memory-Driven Computing" demonstriert. Bei dieser Rechnerarchitektur steht nicht mehr der Prozessor, sondern nichtflüchtiger Arbeitsspeicher (Non-Volatile Memory) im Mittelpunkt. Zusammen mit optischer Datenübertragung und einem System on a Chip mit maßgeschneidertem Linux-Derivat soll dies für bislang nicht gekannte Performance und Effizienz sorgen: Das System soll bis zu 8.000-mal schneller sein als heutige Computer.

Mit "The Machine" will HPE die seit 60 Jahren bestehende Computerarchitektur transformieren (andere Anbieter würden wohl sagen: "revolutionieren"). "Wir haben einen großen Meilenstein mit unserem Forschungsprojekt The Machine erreicht – einem der größten und komplexesten Forschungsprojekte in unserer Firmengeschichte", so Antonio Neri, Executive Vice President und General Manager der Enterprise Group bei HPE. "Mit diesem Prototyp haben wir das Potenzial des Memory-Driven Computings demonstriert und gleichzeitig die Tür für sofortige Innovationen geöffnet."

161130_hpe_2
HPE-Cheftechniker Martin Fink präsentierte die Architektur von "The Machine" erstmals 2014 auf der Hausmesse Discover in Las Vegas. Bild: Hewlett Packard Enterprise

Der Prototyp ist laut HPE-Angaben seit Oktober in Betrieb und zeigt, wie die Bausteine der neuen Architektur zusammenarbeiten. Man habe Folgendes demonstrieren können: Die Rechnerknoten greifen auf einen gemeinsamen Pool von Fabric-Attached Memory zu; ein optimiertes Linux läuft auf einem maßgeschneiderten SoC (System on a Chip); die verwendete optische Datenübertragung einschließlich der neuen X1-Photonics-Module ist funktionsfähig; und es gibt Entwicklungswerkzeuge, die einen umfangreichen persistenten Arbeitsspeicher nutzen können.

Während der Entwicklung des Prototyps hat HPE laut eigenem Bekunden per Simulation errechnet, dass die neue Architektur im Vergleich zu heutigen Computern bei zahlreichen Workloads eine bis zu 8.000-fache Verarbeitungsgeschwindigkeit erzielt. Man erwarte ähnliche Resultate, wenn die Kapazität des Prototyps um weitere Knoten und weiteren Arbeitsspeicher erweitert wird.

Das Forschungsprojekt lege zudem den Fokus auf das sogenannte "Exascale Computing", also auf Hochleistungsrechner, die laut HPE-Angaben künftig eine Trillion Rechenoperationen in der Sekunde ausführen sollen. Die hauseigene Memory-Driven-Computing-Architektur sei hoch skalierbar: von winzigen IoT-Geräten bis Exascale. Damit eigne sie sich als Grundlage für zahlreiche rechen- und datenintensive Workloads, zum Beispiel für die Big-Data-Analyse.

HPE will nach eigener Verlautbarung die Technik, die im Rahmen des "The Machine"-Forschungsprojekts entwickelt wurde, schnell in neuen wie auch bestehenden Geräten auf den Markt bringen. HPEs Anstrengungen verteilen sich auf vier Bereiche: nichtflüchtiger Speicher (Non-Volatile Memory), Netzwerk (Fabric, einschließlich Photonik), Ökosystem und Sicherheit.

Der Hersteller arbeitet laut eigenem Bekunden weiter daran, Byte-adressierbaren nichtflüchtigen Speicher auf den Markt zu bringen. Diesen will er bereits 2018/19 vorstellen.

Mit Technik aus dem Projekt habe man auch den HPE Persistent Memory entwickelt -ein Schritt auf dem Weg zu Byte-adressierbarem, nichtflüchtigem Speicher, der darauf abzielt, die Leistung von DRAM, aber zugleich die Kapazität und Beständigkeit von traditionellem Speicher zu bieten. HPE Persistent Memory wurde in den HPE-Servern Proliant DL360 und DL380 Gen9 eingeführt.

Im Rahmen der Photonikforschung hat HPE seine Geräte laut eigenen Angaben zukunftssicher ausgerüstet. So sollen etwa die Synergy-Systeme, die im kommenden Jahr verfügbar sein werden, künftig mit optischer Technik arbeiten. Bereits 2018/19 will man Photonik in weitere Produktlinien einschließlich des Storage-Portfolios integrieren. Zudem sei geplant, Fabric-Attached Storage auf den Markt zu bringen, basierend auf dem Hochleistungs-Interconnect-Protokoll des kürzlich gegründeten Gen-Z-Konsortiums, bei dem HPE Mitglied ist.

Dieses Jahr, so HPE , habe man eine Zusammenarbeit mit Hortonworks/Spark gestartet, um Software für Memory-Driven Computing auf den Markt zu bringen. Seit Juni 2016 stelle man Codepakete auf Github bereit, um Programmierer mit der neuen Architektur vertraut zu machen. HPE plane, den Code innerhalb des nächsten Jahres in existierende Systeme zu integrieren, und werde die nächste Generation von Analytics-Lösungen und -Anwendungen 2018/19 herausbringen. Als Mitglied des Gen-Z-Konsortiums werde man zudem Ökosystem-Technik und Spezifikationen des Konsortiums in den nächsten Jahren in eine Reihe von Lösungen einfließen lassen.

In puncto Sicherheit schließlich demonstrierte HPE mit dem Prototyp laut eigenen Angaben eine neue, sichere RAM-Vernetzung - denn Sicherheit müsse in sämtlichen Hardware- und Softwareschichten integriert sein. Diese Strategie will der Konzern nächstes Jahr mit zusätzlichen Hardware-Sicherheitsfunktionen weiterverfolgen, neue Software-Sicherheitsfunktionen sollen in den nächsten drei Jahren ebenfalls folgen.

Weitere Informationen finden sich unter www.labs.hpe.com/the-machine.

Dr. Wilhelm Greiner ist freier Mitarbeiter der LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Excito

Weitere Artikel zu toplink GmbH

Weitere Artikel zu ACR AG

Weitere Artikel zu Compris

Matchmaker+