Nvidia ogłasza wprowadzenie sztucznej inteligencji przez tesla p40 i tesla p4
Spisu treści:
- Nvidia Tesla P40 i Tesla P4 oferują ogromny postęp w sztucznej inteligencji
- Nowe oprogramowanie TensorRT i NVIDIA DeepStream SDK dla maksymalnej wydajności
Nvidia ogłosiła nowe karty graficzne Tesla P40 i Tesla P4 oparte na architekturze Pascal oraz nowe oprogramowanie, które obiecuje ogromny postęp w wydajności i szybkości w wymagającym obszarze sztucznej inteligencji.
Nvidia Tesla P40 i Tesla P4 oferują ogromny postęp w sztucznej inteligencji
Wiele nowoczesnych usług sztucznej inteligencji (AI), takich jak pomoc głosowa, filtry antyspamowe i usługi rekomendacji treści, doświadcza ogromnego wzrostu złożoności, wymagając 10-krotnie większej mocy obliczeniowej niż przed rokiem. W tej sytuacji obecne procesory nie są w stanie zapewnić wystarczającej mocy, więc procesor graficzny coraz bardziej zajmuje centralne miejsce.
Zalecamy przeczytanie naszych ustawień rzeczywistości wirtualnej.
Nowe karty Nvidia Tesla P40 i Tesla P4 zostały specjalnie zaprojektowane, aby oferować maksymalną wydajność w scenariuszach sztucznej inteligencji, takich jak rozpoznawanie głosu, obrazu lub tekstu, aby reagować tak szybko, jak to możliwe. Te nowe karty są oparte na architekturze Pascal z instrukcjami 8-bitowymi (INT8) i są w stanie zaoferować 45 -krotnie wyższą wydajność najbardziej wydajnych procesorów i 4-krotnie większą wydajność niż w przypadku układów GPU poprzedniej generacji. Początkowy pobór Tesli P4 wynosi zaledwie 50 W, aby był 40 razy bardziej wydajny niż procesor, serwer z tylko jedną z tych kart może zastąpić do 13 serwerów opartych na procesorze do zadań wnioskowania wideo, co oznacza 8-krotna oszczędność kosztów całkowitych.
Ze swojej strony Tesla P40 oferuje maksymalną wydajność w scenariuszach głębokiego uczenia się dzięki imponującemu 47 tera-operacjom na sekundę (TOPS), serwer z ośmioma tymi kartami jest w stanie zastąpić do 140 serwerów opartych na procesorze, co przekłada się na oszczędność ponad 650 000 USD w kosztach nabycia serwera.
Nowe oprogramowanie TensorRT i NVIDIA DeepStream SDK dla maksymalnej wydajności
Wraz z Tesla P40 i Tesla P4 wydano dwa nowe oprogramowanie NVIDIA TensorRT i NVIDIA DeepStream SDK, aby przyspieszyć operacje wnioskowania sztucznej inteligencji.
TensorRT to biblioteka stworzona w celu optymalizacji modeli głębokiego uczenia się w celu zapewnienia natychmiastowej odpowiedzi w najbardziej złożonych sytuacjach sieciowych. Maksymalizuje wydajność i wydajność głębokiego uczenia się dzięki 16-bitowym i 32-bitowym operacjom oraz 8-bitowym operacjom precyzyjnym.
Polecamy nasz post na temat najlepszych kart graficznych dla graczy.
Ze swojej strony zestaw NVIDIA DeepStream SDK oferuje moc całego serwera do jednoczesnego dekodowania i analizy do 93 strumieni wideo HD w czasie rzeczywistym, co stanowi przełom w porównaniu z 7 strumieniami, które może przetwarzać serwer z dwoma procesorami. Stanowi to ogromny postęp w dziedzinie sztucznej inteligencji, umożliwiając między innymi operacje rozumienia wideo dla autonomicznych systemów jazdy, robotów interaktywnych, filtrów treści i głębokiego uczenia.
Specyfikacja | Tesla P4 | Tesla P40 |
FLOPS z pojedynczą precyzją * | 5.5 | 12 |
INT8 TOPS * (Tera-Operacje na sekundę) | 22 | 47 |
Rdzenie CUDA | 2560 | 3840 |
Pamięć | 8 GB | 24 GB |
Przepustowość pamięci | 192 GB / s | 346GB / s |
Energia | 50 Watów (lub więcej) | 250 watów |
Źródło: videocardz
NVIDIA JETON TX1, NVIDIA dołącza do sztucznej inteligencji
Nvidia dołącza do sektora sztucznej inteligencji i prezentuje swoją kartę Nvidia Jetson TX1 z dużymi możliwościami w zakresie robotyki
Tesla działa na własnych chipach sztucznej inteligencji
Tesla działa na własnych chipach sztucznej inteligencji. Dowiedz się więcej o decyzji firmy o stworzeniu własnej sztucznej inteligencji.
Silniki Tesla i amd łączą siły w celu sztucznej inteligencji
Tesla Motors zawarła sojusz z AMD w celu opracowania nowego niestandardowego SoC skoncentrowanego na sztucznej inteligencji.