processorer

Nnp, dlboost och keem bay, nya Intel-chips för ia och neurala nätverk

Innehållsförteckning:

Anonim

Intel meddelade ny dedicerad hårdvara vid sitt AI Summit-evenemang den 12 november bort från massmarknaden, NNP, DLBoost och Keem Bay. Dessa produkter är utan tvekan kulminationen på mer än tre års arbete sedan förvärven av Movidius och Nervana under andra halvåret 2016 och skapandet av deras AI Products Group, ledd av Naveen Rao, medgrundare av Nervana.

NNP, DLBoost och Keem Bay, nya Intel-chips för AI- och nervnätverk

Rao konstaterade att Intel redan är en stor aktör inom AI-sektorn och att dess AI-intäkter 2019 kommer att överstiga 3, 5 miljarder dollar, upp från mer än 1 miljard dollar 2017. Intel har redan olika hårdvara för alla. OpenVINO-fronter för IOt, Agilex FPGAs, Ice Lake på PC, DLBoost från Cascade Lake, och ännu mer dess framtida diskreta grafik.

Processorer: DLBoost

Intel demonstrerade kompatibiliteten med bfloat16 vid Cooper Lake 56-core som kommer att ligga nästa år som en del av sitt DLBoost-sortiment av AI-funktioner i sina processorer. Bfloat16 är ett numeriskt format som uppnår en precision som liknar den för den enda precisionens flytande punkt (FP32) vid AI-träning.

Intel lämnade inte en uppskattning av prestandaförbättringen, men den uppgav att Cooper Lake är 30 gånger snabbare än Skylake-SP. På PC-sidan innehåller Ice Lake samma DLBoost AVX-512_VNNI-instruktioner som också finns i Cascade Lake.

Movidius: Keem Bay VPU

Som en del av sin strategi för artificiell intelligens, som smarta kameror, robotar, drönare och VR / AR, förvärvade Intel Movidius 2016. Movidius kallar sina lågkraftschips ”vision processor units” (VPU). De har funktioner för bildsignalbehandling (ISP), hårdvaruacceleratorer, MIPS-processorer och 128-bitars programmerbara vektorprocessorer (VLIW) som du kallar SHAVE-kärnor.

Besök vår guide om de bästa processorerna på marknaden

Intel har nu detaljerat vad den kallar "Gen 3" Intel Movidius VPU kodnamn Keem Bay. Enligt Intel har den en slutsats som är mer än tio gånger högre än för Myriad X och förbrukar samma mängd energi.

Nervana Neural Network Processors (NNP)

Intel har NNP: er för både träning och djup neuralt nätverk. Intels NNP-I för inferens är baserad på två Ice Lake Sunny Cove-kärnor och tolv ICE-acceleratorkärnor. Intel hävdar att det kommer att ge bra prestanda per watt och beräkningsdensitet. I sin M.2-formfaktor kan den 50 TOPS vid 12W, vilket motsvarar 4.8TOPS / W, som tidigare meddelats. Intel avslöjade att formfaktorn på PCIe-kortet förbrukar 75W och producerar upp till 170 TOPS (med INT8-precision).

Intel upprepade sin höga nästan linjära skalningseffektivitet på 95% för 32 kort, jämfört med 73% för Nvidia.

Intel har förberett ett brett sortiment av chips för alla fronter, AI, 5G, neurala nätverk, autonom körning etc. på en marknad som i år genererade intäkter uppskattade till 10 miljarder dollar. Vi håller dig informerad.

Tomshardware-teckensnitt

processorer

Redaktörens val

Back to top button