Erweiterungskarte für KI-Integration

ICP Deutschland: Deep-Learning-Inferenz am Edge

18. März 2019, 8:30 Uhr | Von Timo Scheibe.

Da am Netzwerkrand (Edge) vorwiegend kompakte und passiv gekühlte System zum Einsatz kommen, ist dort für die Realisierung einer Deep-Learning-Inferenz laut ICP Deutschland eine flexible und skalierbare Lösung notwendig, die stromsparend ist und eine geringe Latenz aufweist. Mit der PCIe-basierten Erweiterungskarte Mustang-V100 will der Hersteller eine solche Lösung für die Integration von KI-Trainingsmodellen am Edge ermöglichen.

Die Lösung verfügt über acht "Intel Movidius Myriad X MA2485"-VPUs (Vision Processing Units), die pro VPU einen Stromverbrauch von 2,5 W aufweist. Dadurch eigne sich die Erweiterungskarte für besonders anspruchsvolle Low-Power-KI-Anwendungen am Netzwerkrand. Aufgrund der Multi-Channel-Fähigkeit, die die simultane Ausführung von Berechnungen ermöglicht, lässt sich laut ICP jeder einzelnen VPU eine andere DL-Topologie zuweisen. Auf diese Weise sei es möglich, unterschiedliche Anwendungen, etwa Objekterkennung oder Bild- und Videoklassifikation, gleichzeitig ausführen.

Die Kompatibilität mit dem OpenVINO-Toolkit von Intel soll außerdem für eine Performance-Optimierung des eingespielten Trainingsmodels sowie eine passende Skalierung auf das Zielsystem am Edge ermöglichen. Softwareentwickler profitieren so von einer schnellen und optimierten Integration ohne langwieriges Trail und Error, so der Hersteller.

Die Mustang-V100 ist nach ICP-Angaben mit einer Vielzahl von gängigen Betriebssystemen wie Ubuntu 16.04, CentosOS 7.4 und Windows 10 IoT kompatibel und unterstützt zahlreiche Architekturen und Topologien neuronaler Netzwerke.

Weitere Informationen finden sich unter www.icp-deutschland.de.

Timo Scheibe ist Redakteur bei der LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Manfred Rosemann

Weitere Artikel zu Aquaman Deutschland GmbH

Weitere Artikel zu Swissphone Telecommunications

Matchmaker+