Hårdvara

Qnap introducerar Mustang Range Calculator Accelerator Cards

Innehållsförteckning:

Anonim

QNAP presenterade idag två beräkningsacceleratorkort utformade för djup inlärningsstörning av AI. I detta nya sortiment finns Mustang-V100 (baserat på VPU) och Mustang-F100 (baserat på FPGA). Användare kan installera dessa PCIe-baserade acceleratorkort på en Intelo-baserad server / PC på en märkesvaror NAS.

QNAP introducerar Mustang Range Calculator Accelerator Cards

Dessa Mustang-V100- och Mustang-F100-acceleratorkort är optimerade för OpenVINO-arkitekturen och kan utöka arbetsbelastningen till Intel-hårdvara med maximerad prestanda. De kan också användas med OpenVINO Workflow Consolidation Tool.

Nya acceleratorkort

Både Mustang-V100 och Mustang-F100 erbjuder billiga accelerationslösningar för AI-slutsatser. De arbetar också med OpenVINO-verktygset för att optimera inferensarbetsbelastningar för bildklassificering och datorsynsuppgifter. OpenVINO-verktygssatsen hjälper till att påskynda utvecklingen av högpresterande datorsyn och djup inlärning i visionapplikationer. Inkluderar Model Optimizer och Inferensmotor.

När QNAP NAS utvecklas för att stödja en bredare variation av applikationer, är kombinationen av stor lagring och PCIe-utbyggbarhet fördelaktig för användning i AI. OpenVINO Workflow Consolidation Tool (OWCT) har utvecklats. Använder Intels OpenVINO gemensamma verktygsteknologi. När den används med OWCT erbjuder Intel-baserade NAS en idealisk inferensserverlösning för att hjälpa organisationer att snabbt skapa inferenssystem. AI-utvecklare kan distribuera formade modeller på en NAS för slutning och installera antingen Mustang-V100-kortet eller Mustang-F100-kortet.

QNAP NAS stöder nu Mustang-V100- och Mustang-F100-kort med den senaste versionen av operativsystemet QTS 4.4.0. För att se NAS-modellerna som stöder QTS 4.4.0 kan du gå till www.qnap.com. För att ladda ner och installera OWCT-applikationen för QNAP NAS måste du ange App Center.

Hårdvara

Redaktörens val

Back to top button