HP Discover 2014, Las Vegas: HP Labs erfinden Computer neu

Welcome to "The Machine"!

13. Juni 2014, 2:15 Uhr | LANline/Stefan Mutschler

Nach den zahlreichen Produkt- und Service-Ankündigungen durften auf der Discover 2014 in Las Vegas auch die Entwickler aus den HP Labs auf die Bühne. Mit "The Machine" gab HP Technikchef Martin Finkel einen Einblick in und Ausblick auf das derzeit mit Abstand größte Entwicklungsprojekt innerhalb der HP Labs. Dabei geht es um nicht weniger als ein komplett neues Konzept, wie Computer künftig arbeiten werden. Die Schlüsselformel lautet: Mit Elektronen rechnen, mit Photonen kommunizieren und mit Ionen speichern.

Seit ihren Anfängen funktionieren Computer im Prinzip auf die gleiche Art und Weise: Hauptprozessor (CPU), On-Chip-Cache-Memory, Hauptspeicher (RAM), Massenspeicher (Flash, Festplatten, Bänder). Schon mit einem Prozessor bringt diese Speicherhierarchie einen immensen Verwaltungsaufwand mit sich. „Heute werden etwa 90 Prozent der Rechenleistung eines Prozessors allein dafür verwendet, Daten von zwischen den verschiedenen Speicherebenen hin und her zu bewegen“, so HP Chefin Meg Whitman während ihres zweiten Plenumauftritts.

Vollends absurd werde die Sache, wenn in einem System mehrere Prozessoren am Werk sind, die Speicher der anderen Prozessoren nutzen wollen. „Da muss jedes Mal eine Anfrage losgeschickt werden, die der Prozessor des gewünschten Zielspeichers nach bestimmten Algorithmen beantwortet“, weiß John Sontag, Vice President Systems Research bei den HP Labs. „Das ist extrem zeitintensiv und erweist sich zunehmend als limitierender Faktor moderner IT-Anwendungen“.

Auch wenn es in den letzten 60 Jahren unglaubliche Fortschritte sowohl bei den Prozessoren, als auch den Kommunikationsverbindungen und den Speichern gegeben habe, sei dieses grundlegende Arbeitsmodell nie verändert worden. Mit den Arbeitslasten, die im Zeitalter von Big Data, Cloud und Mobility auf die IT zukommen, sei damit nun Ende der Fahnenstange erreicht.

Der „neue Computer“, den HP bis auf weiteres „The Machine“ nennt, basiert auf einer Architektur, die mit den klassischen Hierarchien und Zuordnungen von Speichern aufräumt. Eines der Kernelemente ist demnach ein massiver, universeller Speicher-Pool aus sogenannten Memristoren. Dabei handelt es sich um superschnelle Speicherchips (jeder Speicherbereich soll in weniger als 260 Nanosekunden ansprechbar sein), die Daten auf atomarer Ebene dauerhaft speichern.

Der Clou: Wenn ein Programm gestartet und Daten verarbeitet werden sollen, müssen keinerlei Daten verschoben werden. Die Prozessoren stoßen stattdessen die Prozesse direkt in den jeweiligen Speicherbereichen an, in denen die Informationen bereits vorliegen.

Speicheranbindung mit Glasfaser
Im Modell der Machine-Architektur ist dieser Speicher mit einen Netzwerk an zweckoptimierten Prozessorkernen verbunden, die das zweite Hauptelement bilden. Da der Speicher-Pool gemäß architektonischer Anlage hier deutlich weiter von der Recheninstanz entfernt sein wird, als das in der klassischen Architektur insbesondere bei Cache- und RAM-Speichern der Fall ist (Cache direkt im Prozessor, RAM auf dem Systembus), ist für die Verbindung der beiden Elemente eine Kommunikationsform notwendig, die so schnell ist, dass Entfernungen keine Rolle spielen.

Die Lösung sind nach dem Machine-Konzept Photonen. Kupfer werde zwar auch im Rechenzentrum der Zukunft nicht völlig von der Bildfläche verschwinden, der Großteil aber laufe über Glasfaser. Dies sei unter dem Aspekt der Energieeffizienz unabdingbar.

HP nennt für The Machine im Vergleich zu herkömmlichen Rechnerarchitekturen eine um 89 Prozent verbesserte Energiebilanz. Der Platzbedarf verringere sich um 80 Prozent, die Komplexität sogar um 97 Prozent und die Kosten um 77 Prozent.

Um das volle Potenzial dieser Hardwarebasis auszuschöpfen, sei allerdings auch eine neue Softwarearchitektur nötig. In Form des MachineOS werde bei HP bereits ein neues Betriebssystem entwickelt (auf Open-Source-Basis), welches als Grundlage dieser Softwarearchitektur dienen soll.

Auf dem Weg von massiven Datenmengen zu verwertbaren Informationen gehe es darüber hinaus um ein Management, das Millionen Knoten verwaltet, um neue Algorithmen, die Daten in Exabyte-Größenordnungen auswerten, und um neue Analyse- und Visualisierungswerkzeuge, die alle Prozesse transparent machen und überwachen. Auch an diesen Aufgaben würden Entwicklerteams bei HP und Partnern schon mit Volldampf arbeiten.

Bis es vollständig nach dem Machine-Konzept entwickelte Systeme zu kaufen gibt, werden aber wohl noch ein paar Jahre vergehen. „The Machine ist mehr ein Continuum, das ständig weiterentwickelt werden wird“, so Martin Finkel, Executive Vice President und Chief Technology Officer der HP Labs. Konkret nannte er für etwa für 2015 den Fertigungsbeginn der Memristoren.

Auch die Infrastruktur auf Photonenbasis soll im Laufe des Jahres 2015 stehen. MachineOS soll 2017 in eine öffentliche Betaphase gehen – 2018 offiziell angekündigt werden. 2019 sollen die Prozessorkern-Einheiten fertig werden und schließlich The Machine als Produkt, Service und Transformationsprogramm für Geschäftsprozesse vermarktet werden.

"The Machine ist mehr ein Continuum, das ständig weiterentwickelt werden wird", so Martin Finkel, Executive Vice President und Chief Technology Officer der HP-Labs. Foto: HP

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu GfK Holding GmbH

Matchmaker+