Mustang-V100 – Intel® Movidius™ Myriad™ X VPU Beschleuniger

Neuigkeiten bei ICP Deutschland GmbH - Offizieller Partner von IEI
Mustang-V100 – Intel® Movidius™ Myriad™ X VPU Beschleuniger

Deep-Learning-Inferenz an der Edge


Für die Realisierung von Deep-Learning-Inferenz (DL) an der Edge ist eine flexibel skalierbare Lösung von Nöten, die stromsparend ist und eine geringe Latenzzeit aufweist. Denn an der Edge werden vorwiegend kompakte und passive gekühlte Systeme eingesetzt, die schnelle Entscheidungen ohne Upload in die Cloud treffen.

Die neue KI-Beschleunigerkarte Mustang-V100 von ICP Deutschland unterstützt Entwickler bei der erfolgreichen Integration von KI-Trainingsmodellen an der Edge. Auf der PCIe basierten Erweiterungskarte sind acht Intel® Movidius™ Myriad™ X MA2485 Vision Processing Units (VPUs) integriert. Aufgrund ihres geringen Stromverbrauchs von 2.5W pro VPU eignet sie sich für besonders anspruchsvolle Low-Power KI-Anwendungen an der Edge. Dabei lässt sich jeder einzelnen VPU eine andere DL-Topologie zuweisen. Grund hierfür ist die Multi-Channel Fähigkeit der VPUs, die die simultane Ausführung von Berechnungen ermöglicht. So lassen sich unterschiedliche Anwendungen wie Objekterkennung oder Bild- und Videoklassifikation gleichzeitig ausführen.

Die Kompatibilität mit dem OpenVINO™ Toolkit von Intel® sorgt für eine Performance Optimierung des eingespielten Trainingsmodels und nimmt eine passende Skalierung auf das Zielsystem an der Edge vor. Softwareentwickler profitieren so in zweifacher Hinsicht – durch eine schnelle sowie optimierte Integration ohne langwieriges Trail und Error. Die Mustang-V100 ist mit einer Vielzahl von gängigen Betriebssystemen wie Ubuntu 16.04, CentosOS 7.4 und Windows 10 IoT kompatibel und unterstützt zahlreiche Architekturen und Topologien neuronaler Netzwerke.


Spezifikationen

  • ● KI-Beschleunigerkarte mit Intel® Movidius™ Myriad™ X MA2485 VPU
  • ● Single Slot PCIe x4 Interface
  • ● Betriebstemperatur: 5°C~55°C
  • ● Geringer Stromverbrauch: <30W TDP
  • ● Aktiv gekühlt
  • ● Unterstützung von ANN-Topologien


Anwendungsbereiche/Applikationen

  • ● Multi-Channel Ausführung
  • ● Beschleunigung von Deep-Learning-Inference
  • ● Low-Power Anwendungen

Alle Industrie Computer News