Procesory

Nnp, dlboost i keem bay, nowe układy Intel dla IA i sieci neuronowych

Spisu treści:

Anonim

Intel ogłosił nowy dedykowany sprzęt podczas imprezy AI Summit 12 listopada z dala od rynku masowego, NNP, DLBoost i Keem Bay. Produkty te są bez wątpienia kulminacją ponad trzech lat pracy od przejęć Movidius i Nervana w drugiej połowie 2016 r. I utworzenia ich grupy AI Products, kierowanej przez Naveen Rao, współzałożyciela Nervana.

NNP, DLBoost i Keem Bay, Nowe układy Intela dla AI i sieci neuronowych

Rao zauważył, że Intel jest już dużym graczem w sektorze sztucznej inteligencji i że jego przychody ze sztucznej inteligencji w 2019 r. Przekroczą 3, 5 mld USD, w porównaniu z ponad 1 mld USD w 2017 r. Intel ma już inny sprzęt dla wszystkich. Fronty OpenVINO dla IOt, FPGA Agilex, Ice Lake na PC, DLBoost z Cascade Lake, a nawet jego dyskretna grafika w przyszłości.

Procesory: DLBoost

Intel zademonstrował kompatybilność z bfloat16 na Cooper Lake 56-core, który będzie dostępny w przyszłym roku w ramach zakresu funkcji AI DLBoost w procesorach. Bfloat16 to format numeryczny, który osiąga precyzję podobną do precyzji zmiennoprzecinkowej pojedynczej precyzji (FP32) w treningu AI.

Intel nie podał oszacowania poprawy wydajności, ale stwierdził, że do celów wnioskowania Cooper Lake jest 30 razy szybszy niż Skylake-SP. Po stronie komputera Ice Lake zawiera te same instrukcje DLBoost AVX-512_VNNI, które znajdują się również w Cascade Lake.

Movidius: Keem Bay VPU

W ramach strategii na rzecz sztucznej inteligencji, takiej jak inteligentne kamery, roboty, drony i VR / AR, Intel nabył Movidius w 2016 roku. Movidius nazywa swoje układy małej mocy „procesorami wizyjnymi” (VPU). Są wyposażone w funkcje przetwarzania sygnałów obrazu (ISP), akceleratory sprzętowe, procesory MIPS i 128-bitowe programowalne procesory wektorowe (VLIW), które nazywamy rdzeniami SHAVE.

Odwiedź nasz przewodnik po najlepszych procesorach na rynku

Intel wyszczególnił teraz, co nazywa „Gen 3” Intel Movidius VPU o kryptonimie Keem Bay. Według Intela wydajność wnioskowania jest ponad 10 razy wyższa niż w przypadku Myriad X i zużywa taką samą ilość energii.

Procesory sieci neuronowej Nervana (NNP)

Intel ma NNP zarówno do szkolenia, jak i wnioskowania z głębokiej sieci neuronowej. System NNP-I Intela do wnioskowania oparty jest na dwóch rdzeniach Ice Lake Sunny Cove i dwunastu rdzeniach akceleratora ICE. Intel twierdzi, że zapewni doskonałą wydajność na wat i gęstość obliczeniową. W swoim formacie M.2 jest w stanie uzyskać 50 TOPS przy 12 W, co odpowiada 4, 8TOPS / W, jak wcześniej ogłoszono. Intel ujawnił, że wielkość karty PCIe zużywa 75 W i wytwarza do 170 TOPS (z precyzją INT8).

Intel powtórzył swoją wysoką prawie liniową wydajność skalowania wynoszącą 95% dla 32 kart, w porównaniu z 73% dla Nvidii.

Intel przygotował szeroki asortyment układów dla wszystkich frontów, AI, 5G, sieci neuronowych, autonomicznej jazdy itp., Na rynku, który w tym roku wygenerował przychody szacowane na 10 miliardów dolarów. Będziemy Cię informować na bieżąco.

Czcionka Tomshardware

Procesory

Wybór redaktorów

Back to top button