Hewlett Packard Enterprise (HPE) hat neue Plattformen und Services angekündigt, die darauf abzielen, die Einführung von Deep Learning zu vereinfachen. Zu den Neuheiten zählen ein Apollo-6500-System mit Support von Nvidia-Tesla-V100-GPUs und ein „Deep Learning Cookbook“, unterstützt durch drei AI Innovation Centers und fünf Centers of Excellence des IT-Konzerns.

HPE hat mit „Rapid Software Development für KI“ eine integrierte Hardware- und Softwarelösung angekündigt, die für HPC- (High-Performance Computing) und Deep-Learning-Anwendungen optimiert ist. Die Lösung basiert auf der hauseigenen Plattform Apollo 6500 (siehe Bild) und wurde laut HPE-Angaben zusammen mit Bright Computing für die schnelle Bereitstellung von Deep-Learning-Anwendungen entwickelt. Sie enthalte vorkonfigurierte Software-Frameworks für Deep Learning, Bibliotheken, automatisierte Software-Updates, für Deep Learning optimiertes Cluster-Management und unterstütze Nvidias Tesla-V100-GPUs.

Ebenfalls neu ist das „Deep Learning Cookbook“ des KI-Forschungsteams der Hewlett Packard Labs. Dabei handelt es sich um eine Sammlung von Werkzeugen, um IT-Organisationen bei der Auswahl der besten Hard- und Software-Umgebungen für Deep-Learning-Aufgaben zu unterstützen. Die Werkzeuge sollen den Organisationen helfen, die Leistung verschiedener Hardwareplattformen einzuschätzen, Deep Learning Frameworks auszuwählen und die Hard- und Software für ihre individuellen Bedürfnisse zusammenzustellen. Das Cookbook lässt sich laut HPE auch nutzen, um die Leistung bereits angeschaffter Hard- und Software zu validieren und deren Konfiguration zu optimieren. So lieferten zum Beispiel Image Classification Reference Designs optimierte Infrastrukturkonfigurationen für das Training von Bildklassifizierungsmodellen in verschiedenen Anwendungen – so für die Erkennung von Nummernschildern oder die Klassifizierung von Gewebeproben in der Biologie. Die Designs seien getestet.

HPEs AI Innovation Centers wiederum sollen eine Plattform für die Zusammenarbeit zwischen Universitäten, Unternehmen der KI-Forschung und HPE-Forschern bei langfristigen Forschungsprojekten bereitstellen. Die Einrichtungen in Houston, Palo Alto und Grenoble bieten Forschern aus Universitäten und Unternehmen Zugriff auf Infrastruktur und Werkzeuge.

In sogenannten CoEs (Centers of Excellence) will HPE zudem ausgewählten Kunden Zugriff auf Technik und Expertise mit den neuesten GPUs von Nvidia auf HPE-Systemen geben. Derlei CoEs hält HPE in Houston, Palo Alto, Tokio, Bangalore und Grenoble vor.

Ein flexibles Nutzungsmodell für HPE-Infrastruktur soll beim Deep-Learning-Einsatz Überprovisionierung vermeiden, Kosten einsparen und bedarfsgerechte Skalierung erleichtern.

Deep Learning ist ein Teilgebiet der künstlichen Intelligenz (KI). Das menschliche Gehirn dient ihm als Vorbild, Einsatzgebiete sind anspruchsvolle Aufgaben wie Gesichts- und Stimmerkennung oder auch das Erkennen und Klassifizieren von Bildern. Um Deep Learning zu nutzen, so HPE, benötigen Unternehmen eine Hochleistungs-Rechnerinfrastruktur, um Lernmodelle aufzubauen und zu trainieren, große Datenmengen zu verarbeiten und Muster in Audiodaten, Bildern, Videos, Text und Sensordaten zu erkennen. Vielen Unternehmen haben jedoch laut HPE nicht die Voraussetzungen, um Deep Learning zu implementieren: Ihnen fehlten Expertise und Ressourcen ebenso wie eine geeignete Hardware- und Software-Infrastruktur oder die Fähigkeit, KI-Systeme zu skalieren.

Weitere Informationen finden sich unter www.hpe.com.

 

Dr. Wilhelm Greiner ist freier Mitarbeiter der LANline.