Nvidia 【wszystkie informacje】

Spisu treści:
- Historia Nvidii
- Nvidia GeForce i Nvidia Pascal, dominujące gry
- Sztuczna inteligencja i architektura Volty
- Przyszłość Nvidii przechodzi przez Turinga i Ampere
- NVIDIA G-Sync, zakończenie problemów z synchronizacją obrazu
Nvidia Corporation, bardziej znana jako Nvidia, to amerykańska firma technologiczna zarejestrowana w Delaware z siedzibą w Santa Clara w Kalifornii. Nvidia projektuje procesory graficzne dla gier wideo i rynków profesjonalnych, a także system jednostek chipowych (SoC) dla rynku motoryzacyjnego i mobilnego. Jego podstawowa linia produktów, GeForce, stanowi bezpośrednią konkurencję dla produktów AMD Radeon.
Zalecamy przeczytanie naszego najlepszego przewodnika na temat sprzętu komputerowego i komponentów:
Oprócz produkcji procesorów graficznych, Nvidia zapewnia naukowcom i naukowcom możliwości przetwarzania równoległego na całym świecie, umożliwiając im wydajne uruchamianie aplikacji o wysokiej wydajności. Niedawno przeniósł się na rynek komputerów mobilnych, gdzie produkuje mobilne procesory Tegra do konsol do gier, tabletów oraz autonomicznych systemów nawigacji i rozrywki samochodowej. Doprowadziło to do tego, że od 2014 roku Nvidia stała się firmą skoncentrowaną na czterech rynkach: grach, profesjonalnej wizualizacji, centrach danych oraz sztucznej inteligencji i samochodach.
Indeks treści
Historia Nvidii
Nvidia została założona w 1993 roku przez Jen-Hsun Huanga, Chrisa Malachowskiego i Curtisa Priema. Trzej współzałożyciele firmy postawili hipotezę, że właściwym kierunkiem obliczeń będzie przetwarzanie przyspieszone przez grafikę, wierząc, że ten model obliczeniowy może rozwiązać problemy, których obliczenia nie byłyby w stanie rozwiązać. Zauważyli również , że gry wideo są jednymi z najbardziej wymagających obliczeniowo problemów i że mają niewiarygodnie wysoką sprzedaż.
Od małej firmy produkującej gry wideo po giganta sztucznej inteligencji
Firma narodziła się z kapitałem początkowym w wysokości 40 000 USD, początkowo nie miała nazwy, a współzałożyciele nazwali wszystkie swoje pliki NV, jak w „następnej wersji”. Konieczność włączenia firmy spowodowała, że współzałożyciele dokonali przeglądu wszystkich słów za pomocą tych dwóch liter, co doprowadziło ich do „invidia”, łacińskiego słowa oznaczającego „zazdrość”.
Wprowadzenie RIVA TNT w 1998 r. Ugruntowało reputację Nvidii w zakresie opracowywania kart graficznych. Pod koniec 1999 roku Nvidia wypuściła GeForce 256 (NV10), który w szczególności wprowadził transformację i oświetlenie na poziomie konsumenckim (T&L) w sprzęcie 3D. Działając z częstotliwością 120 MHz i czterema liniami pikseli, zaimplementował zaawansowane przyspieszenie wideo, kompensację ruchu i sprzętowe mieszanie podobrazów. GeForce przewyższył istniejące produkty o szeroki margines.
Ze względu na sukces swoich produktów, Nvidia wygrała kontrakt na opracowanie sprzętu graficznego dla konsoli do gier Microsoft Xbox, dzięki czemu Nvidia uzyskała 200 milionów dolarów zaliczki. Jednak projekt wziął wielu swoich najlepszych inżynierów z innych projektów. W krótkim okresie nie miało to znaczenia, a GeForce2 GTS został wydany latem 2000 roku. W grudniu 2000 roku Nvidia osiągnęła porozumienie w sprawie nabycia zasobów intelektualnych swojego jedynego rywala 3dfx, pioniera technologii grafiki 3D dla konsumenta. który kierował polem od połowy lat 90. do 2000. Proces akwizycji zakończył się w kwietniu 2002 r.
W lipcu 2002 r. Nvidia nabyła Exluna za nieujawnioną kwotę. Exluna była odpowiedzialna za tworzenie różnych narzędzi do renderowania oprogramowania. Później, w sierpniu 2003 r., Nvidia nabyła MediaQ za około 70 milionów dolarów. Ponadto 22 kwietnia 2004 r. Nabył również iReady, dostawcę wysokowydajnych rozwiązań odciążających TCP / IP i iSCSI.
Sukces Nvidii na rynku gier wideo był tak wielki, że w grudniu 2004 roku ogłoszono, że pomoże Sony zaprojektować procesor graficzny RSX PlayStation 3, konsolę do gier nowej generacji japońskiej firmy, która miał trudne zadanie powtórzenia sukcesu swojego poprzednika, najlepiej sprzedającego się w historii.
W grudniu 2006 r. Nvidia otrzymała cytaty z Departamentu Sprawiedliwości USA. W odniesieniu do możliwych naruszeń przepisów antymonopolowych w branży kart graficznych. W tym czasie AMD stało się wielkim rywalem po zakupie ATI przez tego ostatniego. Od tego czasu AMD i Nvidia są jedynymi producentami kart graficznych do gier, nie zapominając o zintegrowanych układach Intela.
Forbes nazwał Nvidię Najlepszą Firmą Roku 2007, powołując się na osiągnięcia, jakie poczyniła w ciągu ostatnich pięciu lat. 5 stycznia 2007 r. Nvidia ogłosiła, że zakończyła przejęcie PortalPlayer, Inc, aw lutym 2008 r. Nvidia przejęła Ageię, twórcę silnika fizyki PhysX i jednostki przetwarzania fizyki obsługującej ten silnik. Nvidia ogłosiła, że planuje zintegrować technologię PhysX z przyszłymi produktami GPU GeForce.
Nvidia stanęła w obliczu wielkich trudności w lipcu 2008 r., Kiedy to odnotowano spadek przychodów o około 200 mln USD po tym, jak ogłoszono, że niektóre mobilne mikroukłady i mobilne układy GPU produkowane przez firmę wykazują nieprawidłowe wskaźniki awarii z powodu wad produkcyjnych. We wrześniu 2008 r. Nvidia stała się przedmiotem pozwu zbiorowego osób poszkodowanych, twierdząc, że wadliwe karty graficzne zostały włączone do niektórych modeli notebooków produkowanych przez Apple, Dell i HP. Opera mydlana zakończyła się we wrześniu 2010 r., Kiedy Nvidia osiągnęła porozumienie, że właściciele laptopów, których dotyczy problem, otrzymają zwrot kosztów naprawy lub, w niektórych przypadkach, wymiany produktu.
W listopadzie 2011 r. Nvidia wypuściła swój układ czipowy ARG Tegra 3 dla urządzeń mobilnych po wstępnej prezentacji na Mobile World Congress. Nvidia twierdziła, że układ zawiera pierwszy czterordzeniowy procesor mobilny. W styczniu 2013 r. Nvidia wprowadziła Tegra 4, a także Nvidia Shield, przenośną konsolę do gier opartą na systemie Android, zasilaną przez nowy procesor.
6 maja 2016 r. Nvidia wprowadziła karty graficzne GeForce GTX 1080 i 1070, pierwsze oparte na nowej mikroarchitekturze Pascal. Nvidia twierdziła, że oba modele przewyższały oparty na Maxwell model Titan X. Karty te zawierają odpowiednio pamięć GDDR5X i GDDR5 i wykorzystują proces produkcyjny 16 nm. Architektura Pascal obsługuje także nową funkcję sprzętową znaną jako symultaniczna wielokrotna projekcja (SMP), która została zaprojektowana w celu poprawy jakości renderowania na wielu monitorach i rzeczywistości wirtualnej. Pascal umożliwił produkcję laptopów, które spełniają standard projektowy Nvidii Max-Q.
W maju 2017 r. Nvidia ogłosiła partnerstwo z Toyota Motor Corp, w ramach której ta ostatnia będzie wykorzystywać platformę sztucznej inteligencji Nvidia z serii Drive X do swoich pojazdów autonomicznych. W lipcu 2017 r. Nvidia i chiński gigant wyszukiwania Baidu, Inc. ogłosiły potężne partnerstwo AI, które obejmuje przetwarzanie w chmurze, autonomiczną jazdę, urządzenia konsumenckie oraz platformę AI Baidu, PaddlePaddle.
Nvidia GeForce i Nvidia Pascal, dominujące gry
GeForce to marka kart graficznych opartych na procesorach graficznych (GPU) stworzonych przez Nvidię od 1999 roku. Do tej pory seria GeForce zna szesnaście pokoleń od samego początku. Wersje przeznaczone dla profesjonalnych użytkowników tych kart mają nazwę Quadro i zawierają pewne funkcje różnicujące na poziomie sterownika. Bezpośrednią konkurencją GeForce jest AMD z kartami Radeon.
Pascal to nazwa kodowa najnowszej mikroarchitektury GPU opracowanej przez Nvidię, która weszła na rynek gier wideo, jako następca poprzedniej architektury Maxwell. Architektura Pascal została wprowadzona po raz pierwszy w kwietniu 2016 r. Wraz z wprowadzeniem Tesli P100 dla serwerów w dniu 5 kwietnia 2016 r. Obecnie Pascal jest głównie używany w serii GeForce 10, a GeForce GTX 1080 i GTX są Pierwsze karty do gier 1070 zostały wydane z tą architekturą odpowiednio 17 maja 2016 r. I 10 czerwca 2016 r. Pascal jest produkowany przy użyciu 16-metrowego procesu FinFET TSMC, co pozwala mu oferować znacznie wyższą efektywność energetyczną i wydajność w porównaniu do Maxwell, który został wyprodukowany przy 28 nm FinFET.
Architektura Pascal jest wewnętrznie zorganizowana w tak zwanym multiprocesorze strumieniowym ( SM), jednostkach funkcjonalnych, które składają się z 64 rdzeni CUDA, które z kolei są podzielone na dwa bloki przetwarzania po 32 rdzenie CUDA każdy z nich, wraz z buforem instrukcji, planerem osnowy, 2 jednostkami mapowania tekstur i 2 jednostkami wysyłającymi. Te dyski SM są odpowiednikami procesorów AMD.
Architektura Nvidii Pascal została zaprojektowana jako najbardziej wydajna i zaawansowana w świecie gier. Zespół inżynierów Nvidii włożył wiele wysiłku w stworzenie architektury GPU, która jest w stanie osiągać bardzo wysokie częstotliwości taktowania przy jednoczesnym zachowaniu niskiego zużycia energii. Aby to osiągnąć, wybrano bardzo ostrożną i zoptymalizowaną konstrukcję we wszystkich jego obwodach, w wyniku czego Pascal jest w stanie osiągnąć częstotliwość o 40% wyższą niż Maxwell, liczbę znacznie wyższą niż proces pozwoliłby na 16 nm bez wszystkich optymalizacji na poziomie projektu.
Pamięć jest kluczowym elementem w wydajności karty graficznej, technologia GDDR5 została ogłoszona w 2009 roku, więc stała się już przestarzała dla dzisiejszych najpotężniejszych kart graficznych. Właśnie dlatego Pascal obsługuje pamięć GDDR5X, która była najszybszym i najbardziej zaawansowanym standardem interfejsu pamięci w historii w momencie wprowadzenia tych kart graficznych, osiągając prędkości transferu do 10 Gb / s lub prawie 100 pikosekund między bitami. danych. Pamięć GDDR5X pozwala również karcie graficznej zużywać mniej energii w porównaniu z GDDR5, ponieważ napięcie robocze wynosi 1, 35 V, w porównaniu do 1, 5 V lub nawet więcej, niż potrzebują szybsze układy GDDR5. Ta redukcja napięcia przekłada się na 43% wyższą częstotliwość roboczą przy takim samym zużyciu energii.
Kolejna ważna innowacja Pascal pochodzi z technik kompresji pamięci bez utraty wydajności, co zmniejsza zapotrzebowanie na przepustowość przez procesor graficzny. Pascal obejmuje czwartą generację technologii kompresji kolorów delta. Dzięki kompresji delta kolorów GPU analizuje sceny, aby obliczyć piksele, których informacje można skompresować bez utraty jakości sceny. Podczas gdy architektura Maxwella nie była w stanie skompresować danych związanych z niektórymi elementami, takimi jak roślinność i części samochodu w grze Project Cars, Pascal jest w stanie skompresować większość informacji na temat tych elementów, dzięki czemu jest znacznie wydajniejszy niż Maxwell. W rezultacie Pascal jest w stanie znacznie zmniejszyć liczbę bajtów, które należy wyodrębnić z pamięci. Ta redukcja bajtów przekłada się na dodatkowe 20% efektywnej przepustowości, co powoduje wzrost 1, 7 razy przepustowości przy użyciu pamięci GDDR5X w porównaniu z architekturą GDDR5 i Maxwell.
Pascal oferuje także ważne ulepszenia w stosunku do obliczeń asynchronicznych, co jest bardzo ważne, ponieważ obciążenia są obecnie bardzo złożone. Dzięki tym ulepszeniom architektura Pascal jest bardziej wydajna w rozkładaniu obciążenia między wszystkie różne jednostki SM, co oznacza, że prawie nie ma żadnych nieużywanych rdzeni CUDA. Dzięki temu optymalizacja procesora graficznego jest znacznie większa, co pozwala lepiej wykorzystać wszystkie posiadane zasoby.
Poniższa tabela podsumowuje najważniejsze cechy wszystkich kart GeForce opartych na Pascal.
KARTY GRAFIKI PASKALNEJ NVIDIA GEFORCE |
||||||
Rdzenie CUDA | Częstotliwości (MHz) | Pamięć | Interfejs pamięci | Przepustowość pamięci (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64-bitowy | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 bitów | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 GB GDDR5 | 128 bitów | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3 GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1060 6 GB | 1280 | 1506/1708 | 6 GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8 GB GDDR5 | 256 bitów | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8 GB GDDR5 | 256 bitów | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB GDDR5X | 256 bitów | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 GB GDDR5X | 352 bity | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 GB GDDR5X | 384 bit | 547 | 250 |
Sztuczna inteligencja i architektura Volty
Procesory graficzne Nvidii są szeroko stosowane w dziedzinie głębokiego uczenia się, sztucznej inteligencji i przyspieszonej analizy dużych ilości danych. Firma opracowała głębokie uczenie się w oparciu o technologię GPU, aby wykorzystać sztuczną inteligencję do rozwiązywania problemów, takich jak wykrywanie raka, prognozowanie pogody i autonomiczne prowadzenie pojazdów, takich jak słynna Tesla.
Celem Nvidii jest pomoc sieciom w nauce „myślenia ”. Procesory graficzne Nvidii działają wyjątkowo dobrze do zadań głębokiego uczenia, ponieważ są przeznaczone do obliczeń równoległych i działają dobrze do obsługi operacji wektorowych i macierzowych, które dominują w głębokim uczeniu się. GPU firmy są używane przez badaczy, laboratoria, firmy technologiczne i przedsiębiorstwa. W 2009 r. Nvidia uczestniczyła w tak zwanym Wielkim Wybuchu w zakresie głębokiego uczenia, ponieważ sieci neuronowe do głębokiego uczenia zostały połączone z jednostkami przetwarzania grafiki firmy. W tym samym roku Google Brain wykorzystał procesory graficzne Nvidii do stworzenia głębokich sieci neuronowych zdolnych do uczenia maszynowego, gdzie Andrew Ng stwierdził, że mogą zwiększyć szybkość systemów głębokiego uczenia się 100 razy.
W kwietniu 2016 r. Nvidia wprowadziła oparty na klastrze 8-GPU superkomputer DGX-1 w celu zwiększenia możliwości korzystania z głębokiego uczenia się przez połączenie procesorów graficznych ze specjalnie zaprojektowanym oprogramowaniem. Nvidia opracowała także oparte na GPU maszyny wirtualne Nvidia Tesla K80 i P100, dostępne za pośrednictwem Google Cloud, które Google zainstalowało w listopadzie 2016 r. Microsoft dodał serwery oparte na technologii GPU Nvidii w wersji zapoznawczej swojej serii N, oparty na karcie Tesla K80. Nvidia współpracowała również z IBM, aby stworzyć zestaw oprogramowania, który zwiększy możliwości AI swoich GPU. W 2017 r. Procesory graficzne Nvidii zostały również udostępnione online w RIKEN Center for Advanced Intelligence Project for Fujitsu.
W maju 2018 r. Badacze z działu sztucznej inteligencji w Nvidi a zdali sobie sprawę, że robot może nauczyć się wykonywania pracy, po prostu obserwując osobę wykonującą tę samą pracę. Aby to osiągnąć, stworzyli system, który po krótkim przeglądzie i przetestowaniu może być teraz używany do sterowania robotami uniwersalnymi nowej generacji.
Volta to nazwa kodowa najbardziej zaawansowanej mikroarchitektury GPU opracowanej przez Nvidię. Jest to następca architektury Pascala, który został ogłoszony w ramach ambicji przyszłej mapy drogowej w marcu 2013 roku. Architektura nosi imię Alessandro Volta, fizyk, chemik i wynalazca akumulatora elektrycznego. Architektura Volta nie dotarła do sektora gier, chociaż dokonała tego dzięki karcie graficznej Nvidia Titan V, skoncentrowanej na sektorze konsumenckim i która może być również używana w sprzęcie do gier.
Ta Nvidia Titan V to karta graficzna oparta na rdzeniu GV100 i trzy stosy pamięci HBM2, wszystkie w jednym pakiecie. Karta ma łącznie 12 GB pamięci HBM2, która działa przez 3072-bitowy interfejs pamięci. Jego procesor graficzny zawiera ponad 21 milionów tranzystorów, 5120 rdzeni CUDA i 640 rdzeni Tensor, aby zapewnić wydajność 110 TeraFLOPS w głębokim uczeniu się. Jego częstotliwości robocze wynoszą 1200 MHz podstawy i 1455 MHz w trybie turbo, a pamięć działa na częstotliwości 850 MHz, oferując przepustowość 652, 8 GB / s. Niedawno ogłoszono wersję CEO Edition, która zwiększa pamięć do 32 GB.
Pierwszą kartą graficzną wyprodukowaną przez Nvidię z architekturą Volta była Tesla V100, która jest częścią systemu Nvidia DGX-1. Tesla V100 wykorzystuje rdzeń GV100, który został wydany 21 czerwca 2017 r. Procesor graficzny Volta GV100 jest zbudowany w 12- nanometrowym procesie produkcyjnym FinFET z 32 GB pamięci HBM2 zdolnej do zapewnienia przepustowości do 900 GB / s.
Volta wprowadza również w życie najnowszą wersję Nvidia Tegra SoC, zwaną Xavier, która została ogłoszona 28 września 2016 r. Xavier Zawiera 7 miliardów tranzystorów i 8 niestandardowych rdzeni ARMv8, a także procesor graficzny Volta z 512 rdzeniami CUDA i TPU o open source (Tensor Processing Unit) o nazwie DLA (Deep Learning Accelerator). Xavier może kodować i dekodować wideo w rozdzielczości Ultra HD 8K (7680 × 4320 pikseli) w czasie rzeczywistym, wszystkie z TDP 20-30 watów i wielkością matrycy szacowaną na około 300 mm2 dzięki 12 procesom produkcyjnym. nm FinFET.
Architektura Volta charakteryzuje się tym, że jako pierwsza zawiera rdzeń Tensor, rdzenie zaprojektowane specjalnie w celu zaoferowania znacznie lepszej wydajności w zadaniach głębokiego uczenia w porównaniu ze zwykłymi rdzeniami CUDA. Rdzeń tensora to jednostka, która mnoży dwie matryce FP16 4 × 4, a następnie dodaje do wyniku trzecią macierz FP16 lub FP32, wykorzystując połączone operacje dodawania i mnożenia, uzyskując wynik FP32, który można opcjonalnie obniżyć do wyniku FP16. Jądra tensorowe mają na celu przyspieszenie uczenia sieci neuronowej.
Volta wyróżnia się także zaawansowanym zastrzeżonym interfejsem NVLink, który jest przewodowym protokołem komunikacyjnym do komunikacji półprzewodnikowej bliskiego zasięgu opracowanym przez Nvidia, który może być wykorzystywany do przesyłania kodów danych i sterowania w systemach procesorowych w oparciu o CPU i GPU oraz te oparte wyłącznie na GPU. NVLink określa połączenie punkt-punkt z szybkością transmisji danych 20 i 25 Gb / s na linię danych i na adres w swojej pierwszej i drugiej wersji. Całkowita szybkość transmisji danych w rzeczywistych systemach wynosi 160 i 300 GB / s dla całkowitej sumy strumieni danych wejściowych i wyjściowych. Wprowadzone do tej pory produkty NVLink koncentrują się na przestrzeni aplikacji o wysokiej wydajności. NVLINK został po raz pierwszy ogłoszony w marcu 2014 r. I wykorzystuje zastrzeżony szybki interkonekt sygnalizacyjny opracowany i opracowany przez Nvidię.
Poniższa tabela podsumowuje najważniejsze cechy kart opartych na Volcie:
KARTY GRAFICZNE NVIDIA VOLTA |
||||||||
Rdzenie CUDA | Tensor rdzenia | Częstotliwości (MHz) | Pamięć | Interfejs pamięci | Przepustowość pamięci (GB / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | 32 GB HBM2 | 4096 bitów | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3072 bit | 652 | 250 | |
GeForce Titan V CEO Edition | 5120 | 640 | 1200/1455 | 32 GB HBM2 | 4096 bitów | 900 | 250 |
Przyszłość Nvidii przechodzi przez Turinga i Ampere
Dwie przyszłe architektury Nvidii to Turing i Ampere, zgodnie ze wszystkimi plotkami, które pojawiły się do tej pory, możliwe jest, że kiedy przeczytasz ten post, jedna z nich została już oficjalnie ogłoszona. Na razie nic nie wiadomo na pewno o tych dwóch architekturach, chociaż mówi się, że Turing byłby uproszczoną wersją Volty na rynek gier, w rzeczywistości oczekuje się, że przybierze ten sam proces produkcyjny przy 12 nm.
Amper brzmi jak następcza architektura Turinga, chociaż może być także następcą Volty w sektorze sztucznej inteligencji. Absolutnie nic o tym nie wiadomo, choć logiczne wydaje się oczekiwanie, że przyjedzie wyprodukowany przy 7 nm. Plotki sugerują, że Nvidia ogłosi nowe karty GeForce na Gamecom w następnym miesiącu sierpnia, tylko wtedy nie będziemy mieć wątpliwości, co to będzie Turing lub Ampere, jeśli naprawdę się pojawią.
NVIDIA G-Sync, zakończenie problemów z synchronizacją obrazu
G-Sync to zastrzeżona technologia synchronizacji adaptacyjnej opracowana przez firmę Nvidia, której głównym celem jest wyeliminowanie zrywania ekranu i potrzeby alternatyw w postaci oprogramowania takiego jak Vsync. G-Sync eliminuje rozdarcie ekranu, zmuszając go do dostosowania się do liczby klatek na sekundę urządzenia wyjściowego, karty graficznej, a nie urządzenia wyjściowego dostosowującego się do ekranu, co powoduje zrywanie obrazu ekran.
Aby monitor był zgodny z G-Sync, musi zawierać moduł sprzętowy sprzedawany przez Nvidia. AMD (Advanced Micro Devices) wydało podobną technologię wyświetlaczy o nazwie FreeSync, która ma taką samą funkcję jak G-Sync, ale nie wymaga żadnego konkretnego sprzętu.
Nvidia stworzyła specjalną funkcję, aby uniknąć możliwości, że nowa ramka jest gotowa podczas rysowania duplikatu na ekranie, co może generować opóźnienie i / lub zacinanie się, moduł przewiduje aktualizację i czeka na zakończenie następnej ramki. Przeciążenie pikseli staje się również mylące w scenariuszu nieokreślonej aktualizacji, a rozwiązania przewidują, kiedy nastąpi kolejna aktualizacja, dlatego należy wprowadzić wartość przesterowania dla każdego panelu, aby uniknąć duchów.
Moduł oparty jest na rodzinie układów FPGA Altera Arria V GX z elementami logicznymi 156K, 396 blokami DSP i 67 kanałami LVDS. Jest produkowany w procesie TSMC 28LP i jest łączony z trzema układami scalonymi, co daje w sumie 768 MB pamięci DDR3L DRAM, aby osiągnąć określoną przepustowość. Używany układ FPGA posiada również interfejs LVDS do sterowania panelem monitora. Ten moduł ma zastąpić zwykłych wspinaczy i być łatwo zintegrowany przez producentów monitorów, którzy muszą tylko dbać o płytkę drukowaną zasilacza i połączenia wejściowe.
G-Sync spotkał się z pewną krytyką ze względu na swój zastrzeżony charakter oraz fakt, że nadal jest promowany, gdy istnieją bezpłatne alternatywy, takie jak standard VESA Adaptive-Sync, który jest opcjonalną funkcją DisplayPort 1.2a. Podczas gdy FreeSync AMD jest oparty na DisplayPort 1.2a, G-Sync wymaga modułu wykonanego przez Nvidia zamiast zwykłego skalera ekranowego, aby karty graficzne Nvidia GeForce działały poprawnie, będąc kompatybilnym z Kepler, Maxwell, Pascal i mikroarchitekturami. Volta
Kolejny krok został zrobiony z technologią G-Sync HDR, która jak sama nazwa wskazuje, dodaje możliwości HDR, aby znacznie poprawić jakość obrazu monitora. Aby było to możliwe, trzeba było dokonać znacznego skoku w sprzęcie. Ta nowa wersja G-Sync HDR wykorzystuje procesor Intel Altera Arria 10 GX 480 FPGA, wysoce zaawansowany i wysoce programowalny procesor, który można zakodować w szerokim zakresie aplikacji, któremu towarzyszy 3 GB pamięci DDR4 2400 MHz wyprodukowanej przez Micron. To sprawia, że cena tych monitorów jest droższa.
Tutaj kończy się nasz post na temat wszystkiego, co musisz wiedzieć o Nvidii. Pamiętaj, że możesz udostępnić go w sieciach społecznościowych, aby dotrzeć do większej liczby użytkowników. Możesz również zostawić komentarz, jeśli masz jakieś sugestie lub coś do dodania.
Wszystkie informacje na temat tabletu do jogi Lenovo

Wszystko o pierwszym tablecie z serii Lenovo Yoga: parametry techniczne, zdjęcia, bateria, aparat, dostępność i cena.
Nvidia rtx 【wszystkie informacje】

Mamy już przy sobie nowe karty graficzne NVIDIA RTX. Od flagowego modelu: NVIDIA RTX 2080 Ti, po model dla większości graczy w 4K:
▷ Nvidia quadro 【wszystkie informacje】?

Wszystkie informacje o profesjonalnych kartach graficznych Nvidia Quadro: charakterystyka, wygląd, wydajność, zalety i wady ✅