Für den Einsatz in einer industriellen Deep-Learning-Inferenz, in der Bild- und Videoverarbeitung in Echtzeit sowie in der Datenanalytik hat ICP Deutschland die FPGA-basierte KI-Beschleuniger-Karte Mustang-F100 vorgestellt.

Diese basiert laut Hersteller auf der „Intel Arria 10 GX1150 FPGA“ (Field Programmable Gate Array) und ist mit 8 GByte on-board DDR4 RAM ausgestattet. Die Karte sei aufgrund der Parallelität und dem hohen Konfigurierungsgrad, die FPGA ermöglicht, in der Lage, wechselnde Workloads und verschiedene Gleitkommazahlen zu verarbeiten. Auch unterstütze die Karte verschiedene Topologien, etwa AlexNet, ResNet oder Yolo Tiny.

Nach Bekunden von ICP Deutschland sind von der klassischen Objekterkennung über die Video- und Bildklassifikation bis hin zu Gesichtserkennung oder Bildsegmentierung keine Grenzen auf der Anwenderseite gesetzt. Die integrierte Enpirion-Power-Lösung von Intel führe außerdem zu einer hohen Effizienz (<60 W TDP, Thermal Design Power), Leistungsdichte und Performance von bis zu 1,5 TFLOPS. Zudem optimiere die Kompatibilität mit dem Inten-OpenVINO-Toolkit die Leistung der Mustang-F100 zusätzlich. Für eine schnelle Time-to-Market sollen außerdem verschiedene Bibliotheksfunktionen, voroptimierte Betriebssysteme und vorgefertigte Trainingsmodelle sorgen.

Mit dem standardisierten PCIe-Gen3-x8-Interface lässt sich die KI-Beschleunigerkarte problemlos integrieren, so der Hersteller weiter. Auch das Zuweisen einer individuellen Karten-ID ermögliche eine flexible Verwendung von mehreren Mustang-F100 in einem Inferenzsystem. Als mögliche Inferenzsysteme eigne sich etwa der Flex-BX oder der TANK-870AI. ICP Deutschland unterstützt Anwender jedoch nach eigenen Angaben bei der Auswahl und der Integration der passenden Hardware.

Weitere Informationen finden sich unter www.icp-deutschland.de.

Timo Scheibe ist Redakteur bei der LANline.