Nnp, dlboost i keem bay, nowe układy Intel dla IA i sieci neuronowych
Spisu treści:
- NNP, DLBoost i Keem Bay, Nowe układy Intela dla AI i sieci neuronowych
- Procesory: DLBoost
- Movidius: Keem Bay VPU
- Procesory sieci neuronowej Nervana (NNP)
Intel ogłosił nowy dedykowany sprzęt podczas imprezy AI Summit 12 listopada z dala od rynku masowego, NNP, DLBoost i Keem Bay. Produkty te są bez wątpienia kulminacją ponad trzech lat pracy od przejęć Movidius i Nervana w drugiej połowie 2016 r. I utworzenia ich grupy AI Products, kierowanej przez Naveen Rao, współzałożyciela Nervana.
NNP, DLBoost i Keem Bay, Nowe układy Intela dla AI i sieci neuronowych
Rao zauważył, że Intel jest już dużym graczem w sektorze sztucznej inteligencji i że jego przychody ze sztucznej inteligencji w 2019 r. Przekroczą 3, 5 mld USD, w porównaniu z ponad 1 mld USD w 2017 r. Intel ma już inny sprzęt dla wszystkich. Fronty OpenVINO dla IOt, FPGA Agilex, Ice Lake na PC, DLBoost z Cascade Lake, a nawet jego dyskretna grafika w przyszłości.
Procesory: DLBoost
Intel zademonstrował kompatybilność z bfloat16 na Cooper Lake 56-core, który będzie dostępny w przyszłym roku w ramach zakresu funkcji AI DLBoost w procesorach. Bfloat16 to format numeryczny, który osiąga precyzję podobną do precyzji zmiennoprzecinkowej pojedynczej precyzji (FP32) w treningu AI.
Intel nie podał oszacowania poprawy wydajności, ale stwierdził, że do celów wnioskowania Cooper Lake jest 30 razy szybszy niż Skylake-SP. Po stronie komputera Ice Lake zawiera te same instrukcje DLBoost AVX-512_VNNI, które znajdują się również w Cascade Lake.
Movidius: Keem Bay VPU
W ramach strategii na rzecz sztucznej inteligencji, takiej jak inteligentne kamery, roboty, drony i VR / AR, Intel nabył Movidius w 2016 roku. Movidius nazywa swoje układy małej mocy „procesorami wizyjnymi” (VPU). Są wyposażone w funkcje przetwarzania sygnałów obrazu (ISP), akceleratory sprzętowe, procesory MIPS i 128-bitowe programowalne procesory wektorowe (VLIW), które nazywamy rdzeniami SHAVE.
Odwiedź nasz przewodnik po najlepszych procesorach na rynku
Intel wyszczególnił teraz, co nazywa „Gen 3” Intel Movidius VPU o kryptonimie Keem Bay. Według Intela wydajność wnioskowania jest ponad 10 razy wyższa niż w przypadku Myriad X i zużywa taką samą ilość energii.
Procesory sieci neuronowej Nervana (NNP)
Intel ma NNP zarówno do szkolenia, jak i wnioskowania z głębokiej sieci neuronowej. System NNP-I Intela do wnioskowania oparty jest na dwóch rdzeniach Ice Lake Sunny Cove i dwunastu rdzeniach akceleratora ICE. Intel twierdzi, że zapewni doskonałą wydajność na wat i gęstość obliczeniową. W swoim formacie M.2 jest w stanie uzyskać 50 TOPS przy 12 W, co odpowiada 4, 8TOPS / W, jak wcześniej ogłoszono. Intel ujawnił, że wielkość karty PCIe zużywa 75 W i wytwarza do 170 TOPS (z precyzją INT8).
Intel powtórzył swoją wysoką prawie liniową wydajność skalowania wynoszącą 95% dla 32 kart, w porównaniu z 73% dla Nvidii.
Intel przygotował szeroki asortyment układów dla wszystkich frontów, AI, 5G, sieci neuronowych, autonomicznej jazdy itp., Na rynku, który w tym roku wygenerował przychody szacowane na 10 miliardów dolarów. Będziemy Cię informować na bieżąco.
Czcionka TomshardwareNowe układy Samsunga osiągną rekordową prędkość dla smartfonów
Nowe układy ARM Samsunga osiągną rekordową prędkość dla smartfonów. Dowiedz się więcej o współpracy między obiema firmami.
Zapowiedź obliczeń neuronowych Intel 2
Intel Neural Compute Stick 2 jest przeznaczony do zastosowań, w których sieci neuronowe muszą być wdrażane bez połączenia z zasobami chmurowymi.
Intel Horse Ridge, nowe komercyjne układy do obliczeń kwantowych
Intel wprowadził nowy układ o nazwie Horse Ridge, który przyspieszy rozwój systemów obliczeń kwantowych.