Auf seiner Hausmesse Discover, die Anfang Juni in Las Vegas stattfand, erläuterte HP, wie der IT-Ausrüster sich das Rechenzentrum der Zukunft vorstellt, um der IT ihre Rolle als Treiber der Wertschöpfung zu erleichtern. Eine „Composable Infrastructure“ (also zusammensetzbare Infrastruktur) soll dynamisch aggregierbare Ressourcenpools für Devops- und Cloud-Anforderungen bereitstellen. Mit The Machine will HP dabei die nächste Generation des Computings liefern. Erste Komponenten davon waren auf der Discover zu sehen, zudem gab es neue All-Flash-Storage-Produkte.

 

Seitens HP betont man die Notwendigkeit, Rechenzentren für künftige Anforderungen auf neue Architekturen, Infrastrukturen und Komponenten umzurüsten – und diesen Vorgang möglichst fließend zu gestalten, da es schließlich gilt, das laufende Geschäft ebenso zu unterstützen wie die nächste Generation per Devops entwickelter Cloud- und Big-Data-Applikationen. Das Analystenhaus Gartner spricht hier von „bimodaler“ IT.

 

Basis für bimodale IT
Um eine solche bimodale IT-Infrastruktur auf die Straße zu bringen, hat der Konzern auf der Discover eine Architektur namens „Composable Infrastructure“ aus der Taufe gehoben. Diese umfasst drei Aspekte:

 

* eine RESTful API („Composable Infrastructure API“) dient dazu, die Logik jeglicher Infrastrukturelemente zu abstrahieren,

* dynamisch zusammensetzbare Ressourcenpools liefern die Grundlage, um sich schnell den wechselnden Anforderungen der Applikationen anzupassen,

* ein Template-basiertes Management (von HP recht Marketing-lastig als „Software-Defined Intelligence“ bezeichnet) soll für die automatisierte Kontrolle dieser Infrastruktur sorgen.

 

Im ersten Schritt hat HP die Composable Infrastructure API präsentiert, die dynamischen Ressourcenpools sollen in einer zweiten Phase folgen und damit „Infrastruktur als Code“ bereitstellen. Die API setzt bei HPs Management-Lösung Oneview an, nicht auf Geräteebene.

 

Oneview ist über die Schnittstelle mit den Virtualisierungsplattformen von VMware, Microsoft und Red Hat ebenso kompatibel wie mit der Container-Management-Lösung Docker, den Cloud-Orchestrierungslösungen Chef, Puppet sowie Ansible und der Cloud-Plattform Openstack, auf der auch HPs eigene Hybrid-Cloud-Angebote der Marke Helion beruhen. Die programmatische Kontrolle erfolgt mittels Powershell oder Python.

 

Neben der API stellte HP – wie auch schon zuvor bei seinem SDN-Engagement – ein passendes Partnerprogramm vor. Dieses umfasst laut HP ein Software Development Kit (SDK) ebenso wie ein Partner-Lab und Zugang zu technischem Support.

 

The Machine wird greifbar
Unter dem Namen „The Machine“ ist HP derzeit damit befasst, eine neue Generation von Computern zu entwickeln (LANline berichtete); diese soll sich künftig als Hardwareplattform in die Composable Infrastructure einfügen lassen.

 

Der neuartige Computer vereint mittels Memristor-Technologie RAM und Massenspeicher zu einem einheitlichen nicht-flüchtigen Speicherbereich, wie HPs „Machine-Evangelist“ Andreas Hausmann auf einer Pressekonferenz in München erläuterte. So mache man bis zu fünf PByte RAM innerhalb weniger Nanosekunden zugänglich. Die mehrgliedrige Speicher-Hierarchie herkömmlicher Computerarchitekturen (hier RAM, dort Festplatte oder SSD) sei damit hinfällig, so Hausmann.

 

HPs „Memory-Driven Computing“ beschleunige die Datenverarbeitung selbst umfangreicher Datenbestände bis hin zu Echtzeit-Analytics-Anwendungen im IoT-Umfeld (Internet of Things). The Machine skaliere dabei sehr hoch, bis zu 160 Racks könnten künftig als Gesamtsystem mit wenigen 100 Nanosekunden Zugriffszeit agieren. Auch an die Energieeffizienz denkt HP: Ein System mit 75.000 CPUs und 10 PByte Speicher benötige nicht einmal 1.000 Watt, so Hausmann.

 

Zugleich ermögliche diese Architektur Miniaturkomponenten wie zum Beispiel smarte Sensoren. Andreas Hausmann nannte als Beispiel einen PKW, der dank intelligenter Sensorik in den Reifen den Fahrer rechtzeitig vor zu hoher Abnutzung warnt, bevor der Reifen während der Fahrt platzt – ein durchaus plausibler künftiger IoT-Einsatzfall.

 

Statt der heute üblichen generischen CPUs setzt HP mit The Machine auf eine SoC-Architektur (System on a Chip) mit einer Vielzahl spezialisierter Cores. Die Datenübertragung auf den Boards sowie zwischen den Computern soll mittels optischer Übertragung erfolgen, da Kupfer deutlich langsamer ist. Entsprechende Multiplexing-Mechanismen habe HP in Arbeit, so Andreas Hausmann.

 

Da sich mit dem Memory-Driven Computing ein Auslagern von Daten vom RAM in externen Speicher erübrige, so Hausmann, könne man auch das Betriebssystem deutlich schlanker gestalten. Derzeit arbeite man mit einer Reihe namhafter Universitäten wie zum Beispiel dem Hasso-Plattner-Institut in Potsdam am zugehörigen Betriebssystem Linux for The Machine (Linux4TM). Daneben werde es aber auch ein natives OS und eine Android-Variante geben.

 

Noch klingt The Machine sehr futuristisch, HP wehrt sich jedoch heftig dagegen, die neue Computergeneration als bloße Zukunftsmusik abgetan zu sehen: Auf der Discover, berichtete Hausmann, seien nun erstmals die HP Labs vertreten gewesen, man habe Prototypen der SoC-Boards gezeigt, auch die Memristor-Technik war zu bestaunen. Für eine kommerzielle Massenfertigung der Memristoren sei die Fehlerquote allerdings noch zu hoch.

 

The-Machine-Techik soll zunächst – siehe „bimodale IT“ – als Bauteile in Bestandssysteme wie etwa HPs noch recht jungen Moonshot-Server einfließen. Im Jahr 2018 will man dann The Machine als Stand-alone-Gerät mit zugehörigen „Edge Devices“ (also Kleinstrechnern wie die genannten intelligente Sensoren) auf den Markt bringen.

 

Nur noch Flash statt drehender Speichermedien
Doch auch konkrete Produktneuerungen gab es zur Discover, insbesondere zum Thema All-Flash Storage. Mit den neuen 3,84-TByte-Einschüben, so betont HP, habe die hauseigene Flash-Speichertechnik das gleiche Preisniveau erreicht wie die handelsüblichen 10K/15K-SATA-Festplatten. Es gebe somit keinen Grund mehr für hybride Speichersysteme oder aufwendiges Storage Tiering.

 

Die neuen Storage-Geräte 3PAR Storeserv 20800 (die auch rotierende Festplatten unterstützen) sowie 20850 (rein Flash-basiert) bringen laut HP-Angaben 280 TByte Speicherplatz auf 2 HE unter. Damit komme man auf 5,5 PByte pro Rack und bis zu 15 PByte in einem 3PAR-Gesamtsystem – und dies bei nur 0,2 bis 0,8 Millisekunden Latenz.

 

Die Speicherlösung skaliert laut HP auf bis zu acht Knoten, ein „Persistent Checksum“-Verfahren sorge für durchgängige Datenintegrität. Zudem unterstütze das System für den Störungsfall ein automatisches transparentes Failover und Failback. Das System sei mandantenfähig und lasse sich im laufenden Betrieb aktualisieren. Gegenüber vergleichbaren Hybrid-Speichersystemen benötige ein 3PAR-Storeserv-Verbund mit 12 PByte Nutzdatenkapazität 87 Prozent weniger Stellfläche, Energie und Kühlung; aber auch im Vergleich zu anderen Scale-out-Flash-Systemen sei man deutlich günstiger.

 

Angesichts einer Preisstruktur, die mit Festplatten gleichgezogen hat, rentiere es sich aber nicht nur am Highend, sondern auch für den Mittelstand, auf All-Flash-Speicher zu wechseln. So koste ein Hybridsystem Storeserv 7200c inzwischen genauso viel wie ein vergleichbares 7200c-All-Flash-System. Der Platzbedarf sinke dabei aber von zehn auf zwei Höheneinheiten, die Performance steige von 16.400 IOPS bei 10 ms Latenz auf über 48.000 IOPS bei 1,5 ms Latenz.

 

Neues bei Helion und Oneview
Die Hybrid-Cloud-Plattform Helion unterstützt nun die Object-Storage-Komponente Swift und die Orchestrierungsfunktionalität (Heat) von Openstack 1.1. Zudem gibt es mit der HP Helion Development Platform Hilfestellung für Entwickler und Devops-Teams.

 

Außerdem kann HPs Private-Cloud-Lösung Helion Cloudsystem Enterprise nun als AWS/Eucalyptus-Provider agieren. So lassen sich nicht nur Private-Cloud-Ressourcen in die AWS-Cloud verschieben, sondern man kann sie auch wieder aus AWS ins eigene RZ zurückholen – und somit eine echte bidirektionale Hybrid Cloud aufbauen.

 

Das IT-Management-Werkzeug Oneview wiederum bietet laut HP-Angaben in der aktuellen Version 2.0 diverse neue Funktionen, um den Ressourcen-Lifecycle besser zu unterstützen. Dazu zählen Features wie ein Template-basiertes Firmware- und Treiber-Management oder auch über Plattformen hinweg verwendbare Workload-Profile.

 

Weitere Informationen finden sich unter www.hp.com.

Mehr zum Thema:

IBM-Forscher: Näher zum Quantencomputer

VCE mit neuer Generation konvergenter Infrastrukturen

EMC: Rechen-, Speicher-, Netzwerk- und Management-Funktionen in einer Appliance

Nutanix: Komplettsystem für hohe Compliance-Anforderungen

Integrierte Nutanix-Infrastrukturen nun auch auf Dell-Hardware

HP-Komplettsysteme für einfachen, skalierbaren IT-Betrieb

HP Discover 2014: Welcome to „“The Machine““!

Die Management-Lösung Oneview dient dem Überblick über die genutzten IT-Ressourcen. Bild: HP

Eine RESTful API von Oneview soll die Ressourcen als Software-Defined Infrastructure verfügbar machen. Bild: HP

Die Einführung der Composable Infrastructure soll in vier Phasen erfolgen. Bild: HP

Das „Memory-Driven Computing“ von The Machine führt RAM und nicht-flüchtigen Speicher zu einem einheitlichen Speicherpool zusammen. Bild: HP

In drei Jahren soll The Machine auf den Markt kommen. Schon davor werden einzelne Komponenten in Bestandslösungen von HP verbaut. Bild: HP

Mit dem All-Flash-Speichersystem 3PAR Storeserv 20850 ist hochskalierender, rein Flash-basierter Storage laut HP zum gleichen Preis erhältlich wie Speicherlösungen mit rotierenden Medien. Bild: HP

HPs Composable Infrastructure soll dynamisch aggregierbare Ressourcenpools liefern. Bild: HP