HPE hat unter dem Namen ML Ops – kurz für „Machine Learning Operations“ – eine containerbasierte Software vorgestellt, die den Umgang mit Machine-Learning-Modellen über deren gesamte Einsatzdauer hinweg erleichtern soll, und dies im lokalen RZ ebenso wie in der Public Cloud und in Hybridumgebungen. Dank DevOps-ähnlicher Prozesse soll die Inbetriebnahme von ML-Projekten statt Monaten nur noch Tage dauern.

Laut Gartner hat sich die KI-Nutzung in Unternehmen in den letzten vier Jahren mehr als verdoppelt. Eine Herausforderung bleibe aber die Inbetriebnahme der ML-Modelle, also der Übergang vom Pilot- in den Live-Betrieb (das „Last Mile“-Problem). Laut Gartner werden deshalb bis 2021 mindestens die Hälfte der ML-Projekte nicht vollständig einsatzfähig sein.

Vor diesem Hintergrund soll HPEs ML-Ops-Lösung Unternehmen helfen, KI-Projekte aus dem Pilotenstadium in den Produktivbetrieb zu überführen. Dazu, so HPE, decke sie die gesamte ML-Einsatzdauer ab: von der Datenvorbereitung und Modellentwicklung über das Training bis hin zu Einführung und Monitoring.

ML Ops basiert auf der EPIC-Plattform des Anbieters BlueData, den HPE im November 2018 übernommen hatte. Die Software dient dazu, Datenanalysten auf Abruf Zugang zu Containerumgebungen für verteilte KI-, ML- und Analytics-Umgebungen zu geben.

Für die Modellentwicklung bietet die Software laut HPE-Bekunden vorinstallierte Sandboxen für ML-Werkzeuge und Data Science Notebooks, für das Modelltraining skalierbare Trainingsumgebungen mit sicherem Datenzugang. Sie unterstütze eine flexible, schnelle und nachvollziehbare Einführung und sorge per Monitoring für Durchblick über den gesamten ML-Lifecycle hinweg. Zudem erleichtere sie die Zusammenarbeit durch CI/CD-Workflows (Continuous Integration/Continuous Delivery) mit Code-, Modell- und Projekt-Repositories. Für Sicherheit soll Multi-Mandantenfähigkeit mit integrierten Authentifizierungsmechanismen sorgen.

Die Lösung eigne sich für den Betrieb im lokalen Rechenzentrum, in der Public Cloud und in hybriden Umgebungen. Eine automatische Skalierung des Clusters sorgt laut Herstellerangaben für eine dynamische Anpassung an die Leistungsanforderungen des ML-Projekts.

Datenwissenschaftler können dadurch laut HPE ihre Zeit dafür verwenden, Modelle zu erstellen und Ergebnisse zu analysieren, statt auf die Fertigstellung von Trainingsdurchläufen warten zu müssen. Zugleich vermeide ML Ops Genauigkeits- und Leistungsverluste selbst in Multi-Mandantenumgebungen.

Dazu, so der Anbieter, unterstütze die Software eine große Bandbreite von Open-Source-Frameworks für Machine Learning und Deep Learning, darunter Keras, MXNet, PyTorch und TensorFlow, zudem kommerzielle ML-Anwendungen von HPE-Partnern wie Dataiku und H2O.ai. Die SaaS-Lösung ist ab sofort mit Services und Support von HPE Pointnext verfügbar.

Weitere Informationen über HPE ML Ops finden sich unter www.hpe.com/info/MLOps.

Dr. Wilhelm Greiner ist freier Mitarbeiter der LANline.