Karta graficzna - wszystko, co musisz wiedzieć

Spisu treści:
- Karta graficzna i epoka gier
- Po co rozdzielać procesor graficzny i procesor
- Co robi procesor
- A co robi GPU
- Co CPU i GPU robią razem
- Co to jest APU?
- Trochę historii
- Przejdź do kart z bogatą grafiką
- Nadchodzi gniazdo PCI, a wraz z nim rewolucja
- Magistrala PCI Express i aktualne karty graficzne
- Części i sprzęt karty graficznej
- Jak potężna jest karta graficzna
- Testy porównawcze dla karty graficznej
- Rozmiar ma znaczenie… i także radiator
- Spersonalizowane karty
- Jaka jest GPU lub karta graficzna laptopa do gier
- Jaki procesor zamontuję zgodnie z moją kartą graficzną
- Tanie urządzenia multimedialne i biurowe
- Sprzęt ogólnego zastosowania i gry z niższej półki
- Komputer z kartą graficzną do gier średnich i wysokich
- Entuzjastyczny zespół ds. Gier i projektowania
- Wniosek dotyczący karty graficznej i naszych zalecanych modeli
W dobie komputerów do gier karta graficzna zyskała na takim samym lub prawie większym znaczeniu niż procesor. W rzeczywistości wielu użytkowników unika kupowania wydajnych procesorów, aby zainwestować pieniądze w ten ważny komponent odpowiedzialny za przetwarzanie wszystkiego, co ma związek z teksturami i grafiką. Ale ile wiesz o tym sprzęcie? Cóż, tutaj wyjaśniamy wszystko lub mniej wszystko, co uważamy za najważniejsze.
Indeks treści
Karta graficzna i epoka gier
Bez wątpienia najczęściej używanym terminem odnoszącym się do GPU jest karta graficzna, chociaż nie jest dokładnie taka sama i wyjaśnimy to. Procesor graficzny lub procesor graficzny to w zasadzie procesor zbudowany do obsługi grafiki. Termin oczywiście brzmi bardzo podobnie do procesora, dlatego ważne jest, aby odróżnić oba elementy.
Kiedy mówimy o karcie graficznej, naprawdę mówimy o komponencie fizycznym. Zbudowany jest z płytki drukowanej niezależnej od płyty głównej i jest wyposażony w złącze, zwykle PCI-Express, za pomocą którego będzie podłączone do samej płyty głównej. Na tej płytce drukowanej mamy zainstalowany procesor graficzny, a także pamięć graficzną lub pamięć VRAM wraz z komponentami takimi jak VRM, porty połączeń i radiator z jego wentylatorami.
Gry nie istniałyby, gdyby nie karty graficzne, zwłaszcza jeśli mówimy o komputerach lub PC. Na początku wszyscy będą wiedzieć, że komputery nie miały interfejsu graficznego, mieliśmy tylko czarny ekran z możliwością wprowadzania poleceń. Te podstawowe funkcje są dalekie od bycia w erze gier, w której mamy sprzęt z doskonałym interfejsem graficznym i ogromnymi rozdzielczościami, które pozwalają nam radzić sobie z otoczeniem i postaciami tak, jakby to było prawdziwe życie.
Po co rozdzielać procesor graficzny i procesor
Aby porozmawiać o zastrzeżonych kartach graficznych, musimy najpierw wiedzieć, co nam przynoszą i dlaczego są tak ważne dzisiaj. Dzisiaj nie wyobrażamy sobie komputera do gier bez fizycznie oddzielnego procesora i karty graficznej.
Co robi procesor
Tutaj mamy to dość proste, ponieważ wszyscy możemy dowiedzieć się, co mikroprocesor robi w komputerze. Jest to centralna jednostka przetwarzająca, przez którą przechodzą wszystkie instrukcje generowane przez programy i duża część instrukcji wysyłanych przez urządzenia peryferyjne i samego użytkownika. Programy składają się z szeregu instrukcji, które zostaną wykonane w celu wygenerowania odpowiedzi na podstawie bodźca wejściowego, może to być zwykłe kliknięcie, polecenie lub sam system operacyjny.
Teraz pojawia się szczegół, o którym musimy pamiętać, kiedy widzimy, co to jest GPU. Procesor składa się z rdzeni, a duży rozmiar można powiedzieć. Każdy z nich jest w stanie wykonać jedną instrukcję po drugiej, tym więcej rdzeni, ponieważ więcej instrukcji może być wykonanych w tym samym czasie. Istnieje wiele rodzajów programów na PC i wiele rodzajów instrukcji, które są bardzo złożone i podzielone na kilka etapów. Ale prawda jest taka, że program nie generuje dużej liczby tych instrukcji równolegle. W jaki sposób upewniamy się, że procesor „rozumie” każdy zainstalowany program? Potrzebujemy tylko kilku jąder, bardzo złożonych i które są bardzo szybkie, aby szybko wykonać instrukcje, więc zauważymy, że program jest płynny i odpowiada na to, o co go poprosimy.
Te podstawowe instrukcje są zredukowane do operacji matematycznych z liczbami całkowitymi, operacji logicznych, a także niektórych operacji zmiennoprzecinkowych. Te ostatnie są najbardziej skomplikowane, ponieważ są to bardzo duże liczby rzeczywiste, które muszą być reprezentowane w bardziej zwartych elementach za pomocą notacji naukowej. Obsługą procesora jest pamięć RAM, szybka pamięć masowa, która oszczędza uruchomione programy i instrukcje wysyłania ich przez 64-bitową magistralę do procesora.
A co robi GPU
Właśnie GPU jest ściśle związana z operacjami zmiennoprzecinkowymi, o których mówiliśmy wcześniej. W rzeczywistości procesor graficzny praktycznie cały czas wykonuje te operacje, ponieważ mają one wiele wspólnego z instrukcjami graficznymi. Z tego powodu często nazywany jest koprocesorem matematycznym, w rzeczywistości w procesorze jest jeden, ale znacznie prostszy niż procesor graficzny.
Z czego wykonana jest gra? Zasadniczo ruch pikseli dzięki silnikowi graficznemu. To nic innego jak program koncentrujący się na emulacji środowiska cyfrowego lub świata, w którym poruszamy się tak, jakby to był nasz własny. W tych programach większość instrukcji dotyczy pikseli i ich ruchu w celu tworzenia tekstur. Z kolei tekstury te mają kolor, objętość 3D i właściwości fizyczne odbicia światła. Wszystko to w zasadzie operacje zmiennoprzecinkowe z macierzami i geometriami, które muszą być wykonywane jednocześnie.
Dlatego GPU nie ma 4 lub 6 rdzeni, ale tysiące z nich, aby wykonywać wszystkie te konkretne operacje równolegle w kółko. Oczywiście te rdzenie nie są tak „inteligentne” jak rdzenie procesora, ale mogą wykonywać o wiele więcej operacji tego typu jednocześnie. Karta graficzna ma również własną pamięć GRAM, która jest znacznie szybsza niż normalna pamięć RAM. Ma znacznie większą magistralę, od 128 do 256 bitów, aby przesyłać znacznie więcej instrukcji do GPU.
W filmie, który pozostawiamy połączonym, łowcy mitów naśladują działanie procesora i karty graficznej oraz liczbę rdzeni, jeśli chodzi o malowanie obrazu.
youtu.be/-P28LKWTzrI
Co CPU i GPU robią razem
W tym momencie mogłeś już myśleć, że w komputerach do gier procesor wpływa również na ostateczną wydajność gry i jej FPS. Oczywiście istnieje wiele instrukcji, za które odpowiedzialny jest procesor.
Procesor jest odpowiedzialny za wysyłanie danych w postaci wierzchołków do GPU, tak aby „rozumiał” jakie fizyczne transformacje (ruchy) musi zrobić z teksturami. Nazywa się to Shader Vertex lub fizyką ruchu. Następnie GPU uzyskuje informacje o tym, który z tych wierzchołków będzie widoczny, tworząc tzw. Obcinanie pikseli przez rasteryzację. Kiedy już znamy kształt i jego ruch, nadszedł czas na zastosowanie tekstur w Full HD, UHD lub dowolnej rozdzielczości oraz odpowiadających im efektów, byłby to proces Pixel Shader.
Z tego samego powodu, im więcej mocy ma procesor, tym więcej instrukcji wierzchołków może wysłać do GPU i tym lepiej go zablokuje. Tak więc kluczowa różnica między tymi dwoma elementami polega na poziomie specjalizacji i stopniu równoległości przetwarzania procesora graficznego.
Co to jest APU?
Widzieliśmy już, czym jest procesor graficzny i jego funkcje na komputerze oraz relacje z procesorem. Ale nie jest to jedyny istniejący element, który jest w stanie obsłużyć grafikę 3D i dlatego mamy APU lub Accelerated Processor Unit.
Termin ten został wymyślony przez AMD w celu nazwania jego procesorów GPU zintegrowanym w tym samym pakiecie. W rzeczywistości oznacza to, że w samym procesorze mamy układ scalony, a najlepiej układ scalony złożony z kilku rdzeni, który jest w stanie pracować z grafiką 3D w taki sam sposób, jak karta graficzna. W rzeczywistości wiele dzisiejszych procesorów ma w sobie ten typ procesora, zwany IGP (Integrated Graphics Processor).
Ale oczywiście z góry nie możemy porównać wydajności karty graficznej z tysiącami wewnętrznych rdzeni ze zintegrowanym procesorem IGP w samym procesorze. Zatem jego moc obliczeniowa jest wciąż znacznie niższa, pod względem mocy brutto. Do tego dodajemy fakt, że nie dysponujemy dedykowaną pamięcią tak szybką jak GDDR kart graficznych, ponieważ wystarcza ona z częścią pamięci RAM do zarządzania grafiką.
Nazywamy niezależne karty graficzne dedykowanymi kartami graficznymi, a wewnętrzne karty graficzne IGP. Procesory Intel Core ix mają prawie wszystkie zintegrowane karty graficzne o nazwie Intel HD / UHD Graphics, z wyjątkiem modeli z „F” na końcu. AMD robi to samo z niektórymi procesorami, szczególnie Ryzen z serii G i Athlon, z grafiką zwaną Radeon RX Vega 11 i Radeon Vega 8.
Trochę historii
Dalekie są stare komputery tekstowe, które mamy teraz, ale jeśli coś było obecne w każdym wieku, pragnienie tworzenia coraz bardziej szczegółowych wirtualnych światów, aby zanurzyć się w nich.
W pierwszym ogólnym sprzęcie konsumenckim z procesorami Intel 4004, 8008 i procesorami firmowymi mieliśmy już karty graficzne lub coś podobnego. Ograniczały się one tylko do interpretacji kodu i wyświetlenia go na ekranie w postaci zwykłego tekstu złożonego z około 40 lub 80 kolumn i oczywiście w trybie monochromatycznym. W rzeczywistości pierwsza karta graficzna nosiła nazwę MDA (Monocrome Data Adapter). Miał własną pamięć RAM nie mniejszą niż 4KB, aby renderować doskonałą grafikę w postaci zwykłego tekstu przy 80 x 25 kolumnach.
Potem pojawiły się karty graficzne CGA (Color Graphics Adapter), w 1981 r. IBM zaczął sprzedawać pierwszą kolorową kartę graficzną. Był w stanie renderować 4 kolory jednocześnie z wewnętrznej palety 16 przy rozdzielczości 320 × 200. W trybie tekstowym udało się zwiększyć rozdzielczość do 80 × 25 kolumn lub co równa się 640 × 200.
Idziemy naprzód, dzięki karcie graficznej HGC lub Hercules, nazwa obiecuje! Monochromatyczna karta, która podniosła rozdzielczość do 720 × 348 i była w stanie współpracować z CGA, aby mieć do dwóch różnych wyjść wideo.
Przejdź do kart z bogatą grafiką
A raczej EGA, Enharced Graphics Adapter, który został stworzony w 1984 roku. To była pierwsza karta graficzna, zdolna do pracy w 16 kolorach i rozdzielczościach do 720 × 540 dla modeli ATI Technologies, czy to brzmi znajomo, prawda?
W 1987 r. Produkowana jest nowa rozdzielczość, a złącze wideo ISA zostaje porzucone, aby przyjąć port VGA (Video Graphics Array), zwany także Sub15-D, analogowy port szeregowy, który do niedawna był używany do CRT, a nawet paneli TFT. Nowe karty graficzne podniosły paletę kolorów do 256, a pamięć VRAM do 256 KB. W tym czasie gry komputerowe zaczęły się rozwijać ze znacznie większą złożonością.
To było w 1989 roku, kiedy karty graficzne przestały używać palet kolorów i zaczęły używać głębi kolorów. Dzięki standardowi VESA jako połączeniu z płytą główną, magistrala została rozszerzona do 32 bitów, dzięki czemu mogły już pracować z kilkoma milionami kolorów i rozdzielczości do 1024 x 768p dzięki monitorom z portem SuperVGA. Karty tak kultowe jak ATI Match 32 lub Match 64 z interfejsem 64-bitowym były jednymi z najlepszych w tym czasie.
Nadchodzi gniazdo PCI, a wraz z nim rewolucja
Standard VESA był piekielnie dużym autobusem, więc w 1993 roku ewoluował do standardu PCI, tego, który mamy dzisiaj z różnymi generacjami. To pozwoliło nam na mniejsze karty, a wielu producentów dołączyło do partii, takich jak Creative, Matrox, 3dfx z ich Voodoo i Voodoo 2 oraz jedną Nvidia z jej pierwszymi modelami RIVA TNT i TNT2 wydanymi w 1998 roku. W tym czasie pojawiły się pierwsze określone biblioteki do akceleracji 3D, takie jak DirectX firmy Microsoft i OpenGL firmy Silicon Graphics.
Wkrótce szyna PCI stała się zbyt mała, z kartami zdolnymi do adresowania 16 bitów i grafiki 3D w rozdzielczości 800x600p, więc powstała szyna AGP (Advanced Graphics Port). Ta magistrala miała 32-bitowy interfejs podobny do PCI, ale zwiększając swoją magistralę o 8 dodatkowych kanałów, aby szybciej komunikować się z pamięcią RAM. Jego magistrala pracowała z przepustowością 66 MHz i 256 Mb / s, z maksymalnie 8 wersjami (AGP x8) sięgającymi do 2, 1 GB / s, które w 2004 r. Zostaną zastąpione magistralą PCIe.
Tutaj już bardzo dobrze ustaliliśmy dwie wielkie firmy kart graficznych 3D, takie jak Nvidia i ATI. Jedną z pierwszych kart, które zaznaczyły nową erę, była Nvidia GeForce 256, wdrażająca technologię T&L (obliczenia oświetlenia i geometrii). Następnie plasuje się powyżej swoich rywali za bycie pierwszym akceleratorem grafiki wielokątów 3D i zgodnym z Direct3D. Wkrótce potem ATI wyda swój pierwszy Radeon, kształtując w ten sposób nazwy obu producentów dla kart do gier, które przetrwają do dziś, nawet po zakupie ATI przez AMD.
Magistrala PCI Express i aktualne karty graficzne
I wreszcie doszliśmy do obecnej ery kart graficznych, kiedy w 2004 roku interfejs VGA przestał działać i został zastąpiony przez PCI-Express. Ta nowa magistrala umożliwiała transfer do 4 GB / s zarówno w górę, jak i w dół jednocześnie (250 MB x 16 linii). Początkowo byłby podłączony do północnego mostka płyty głównej i wykorzystywałby część pamięci RAM dla wideo o nazwie TurboCaché lub HyperMemory. Ale później, wraz z włączeniem mostka północnego w samym procesorze, te 16 linii PCIe przejdzie w bezpośrednią komunikację z procesorem.
Rozpoczęła się era ATI Radeon HD i Nvidia GeForce, stając się wiodącymi przedstawicielami kart graficznych do gier na komputerach na rynku. Nvidia wkrótce przejdzie na prowadzenie z GeForce 6800, który wspiera DirectX 9.0c w porównaniu z ATI Radeon X850 Pro, który był nieco w tyle. Następnie obie marki opracowały zunifikowaną architekturę shaderów wraz z Radeon HD 2000 i serią GeForce 8. W rzeczywistości potężna karta Nvidia GeForce 8800 GTX była jedną z najpotężniejszych kart swojej generacji, a nawet tymi, które pojawiły się po niej, będąc ostatecznym skokiem Nvidii do supremacji. W 2006 roku AMD kupiło ATI, a ich karty zmieniono na AMD Radeon.
Wreszcie stoimy na kartach zgodnych z DirectX 12, bibliotekami Open GL 4.5 / 4.6, z których pierwszą jest Nvidia GTX 680 i AMD Radeon HD 7000. Kolejne generacje pochodzą od dwóch producentów, w przypadku Nvidii mamy architekturę Maxwell (GeForce 900), Pascal (GeForce 10) i Turing (Geforce 20), podczas gdy AMD ma Polaris (Radeon RX), GCN (Radeon Vega), a teraz RDNA (Radeon RX 5000).
Części i sprzęt karty graficznej
Zobaczymy główne części karty graficznej, aby określić, jakie elementy i technologie musimy znać przy zakupie. Oczywiście technologia znacznie się rozwija, więc będziemy stopniowo aktualizować to, co tutaj widzimy.
Chipset lub GPU
Wiemy już dość dobrze, jaka jest funkcja procesora graficznego karty, ale ważne będzie, aby wiedzieć, co mamy w środku. Jest to jego rdzeń, aw środku znajduje się ogromna liczba rdzeni odpowiedzialnych za wykonywanie różnych funkcji, szczególnie w architekturze używanej obecnie przez Nvidię. Wewnątrz znajdziemy odpowiednie rdzenie i pamięć podręczną związaną z układem, który zwykle ma L1 i L2.
Wewnątrz procesora graficznego Nvidia znajdujemy rdzenie CUDA lub CUDA, które są, że tak powiem, odpowiedzialne za wykonywanie ogólnych obliczeń zmiennoprzecinkowych. Te rdzenie na kartach AMD nazywane są procesorami strumieniowymi. Ta sama liczba na kartach różnych producentów nie oznacza takiej samej pojemności, ponieważ będą one zależeć od architektury.
Ponadto Nvidia posiada również rdzenie Tensor i rdzenie RT. Rdzenie te są przeznaczone dla procesora z bardziej złożonymi instrukcjami dotyczącymi śledzenia promieni w czasie rzeczywistym, co jest jedną z najważniejszych możliwości karty nowej generacji producenta.
Pamięć GRAM
Pamięć GRAM pełni praktycznie taką samą funkcję jak pamięć RAM naszego komputera, przechowując tekstury i elementy, które będą przetwarzane w GPU. Ponadto znajdujemy bardzo duże pojemności, z ponad 6 GB obecnie w prawie wszystkich wysokiej klasy kartach graficznych.
Jest to pamięć typu DDR, podobnie jak pamięć RAM, więc jej efektywna częstotliwość zawsze będzie dwa razy większa niż częstotliwość zegara, o czym należy pamiętać, jeśli chodzi o podkręcanie i dane specyfikacji. Obecnie większość kart korzysta z technologii GDDR6, jeśli, jak słyszysz, DDR6, podczas gdy w normalnej pamięci RAM są to DDR4. Wspomnienia te są znacznie szybsze niż DDR4, skutecznie osiągając częstotliwości do 14 000 MHz (14 Gb / s) z zegarem przy 7 000 MHz Ponadto ich szerokość magistrali jest znacznie większa, czasami osiągając 384 bity na Nvidii najwyższy zakres.
Ale wciąż jest druga pamięć, której AMD używał do swojego Radeona VII, w przypadku HBM2. Ta pamięć nie ma prędkości tak dużych jak GDDR6, ale zamiast tego oferuje nam brutalną szerokość magistrali do 2048 bitów.
VRM i TDP
VRM jest elementem odpowiedzialnym za dostarczanie energii do wszystkich elementów karty graficznej, zwłaszcza GPU i jego pamięci GRAM. Składa się z tych samych elementów, co VRM płyty głównej, z MOSFETAMI działającymi jak prostowniki prądu DC-DC, dławiki i kondensatory. Podobnie, te fazy są podzielone na V_core i V-SoC, dla GPU i pamięci.
Po stronie TDP oznacza to również dokładnie to samo, co na procesorze. Nie chodzi o moc pobieraną przez procesor, ale o moc w postaci ciepła, która wytwarza maksymalne obciążenie robocze.
Do zasilania karty potrzebujemy złącza zasilania. Obecnie dla kart stosowane są konfiguracje 6 + 2-stykowe, ponieważ samo gniazdo PCIe jest w stanie dostarczyć maksymalnie 75 W, a procesor graficzny może zużywać więcej niż 200 W.
Interfejs połączenia
Interfejs połączenia to sposób na połączenie karty graficznej z płytą główną. Obecnie absolutnie wszystkie dedykowane karty graficzne działają za pośrednictwem magistrali PCI-Express 3.0, z wyjątkiem nowych kart AMD Radeon XR 5000, które zostały uaktualnione do magistrali PCIe 4.0.
Ze względów praktycznych nie zauważymy żadnej różnicy, ponieważ ilość danych wymienianych obecnie w tej 16-liniowej magistrali jest znacznie mniejsza niż jej pojemność. Z ciekawości PCIe 3.0 x16 jest w stanie przenosić 15, 8 GB / s jednocześnie w górę i w dół, podczas gdy PCIe 4.0 x16 podwaja wydajność do 31, 5 GB / s. Wkrótce wszystkie procesory graficzne będą PCIe 4.0, to oczywiste. Nie musimy się martwić o kartę PCIe 4.0 i kartę 3.0, ponieważ standard zawsze zapewnia zgodność wsteczną.
Porty wideo
Wreszcie, mamy złącza wideo, te, które musimy podłączyć do naszego monitora lub monitorów i uzyskać obraz. Na obecnym rynku mamy cztery rodzaje połączeń wideo:
- HDMI: High-Definition Multimedia Interface to standard komunikacji dla nieskompresowanych urządzeń multimedialnych z obrazem i dźwiękiem. Wersja HDMI wpłynie na pojemność obrazu, którą możemy uzyskać z karty graficznej. Najnowsza wersja to HDMI 2.1, która oferuje maksymalną rozdzielczość 10K, odtwarzając 4K przy 120Hz i 8K przy 60Hz. Podczas gdy wersja 2.0 oferuje 4K @ 60Hz w 8 bitach. DisplayPort: Jest to również interfejs szeregowy z nieskompresowanym dźwiękiem i obrazem. Tak jak poprzednio, wersja tego portu będzie bardzo ważna i będziemy musieli mieć co najmniej 1, 4, ponieważ ta wersja obsługuje odtwarzanie treści w 8K przy 60 Hz i 4K przy 120 Hz z nie mniej niż 30 bitami. oraz w HDR. Bez wątpienia najlepszy ze wszystkich dzisiaj. USB-C: USB Type-C dociera do coraz większej liczby urządzeń, ze względu na wysoką prędkość i integrację z interfejsami takimi jak DisplayPort i Thunderbolt 3 z prędkością 40 Gb / s. To złącze USB ma tryb alternatywny DisplayPort, czyli DisplayPort 1.3, z obsługą wyświetlania obrazów w rozdzielczości 4K przy częstotliwości 60 Hz. Podobnie Thunderbolt 3 jest zdolny do odtwarzania treści w UHD w tych samych warunkach. DVI: jest mało prawdopodobne, aby znaleźć go w obecnych monitorach, ponieważ jest ewolucją VGA w sygnał cyfrowy wysokiej rozdzielczości. Jeśli możemy tego uniknąć, lepiej niż lepiej, najbardziej rozpowszechnionym jest DVI-DL.
Jak potężna jest karta graficzna
Aby odwołać się do mocy karty graficznej, konieczne jest poznanie niektórych pojęć, które zwykle pojawiają się w jej specyfikacjach i testach porównawczych. Będzie to najlepszy sposób, aby poznać dogłębnie kartę graficzną, którą chcemy kupić, a także wiedzieć, jak porównać ją z konkurencją.
Szybkość FPS
FPS to liczba klatek na sekundę lub liczba klatek na sekundę. Mierzy częstotliwość, z jaką ekran pokazuje obrazy wideo, gry lub tego, co jest na niej reprezentowane. FPS ma wiele wspólnego z tym, jak postrzegamy ruch na obrazie. Im więcej FPS, tym bardziej płynne uczucie daje nam zdjęcie. Przy 60 klatkach na sekundę lub wyższych ludzkie oko w normalnych warunkach doceni w pełni płynny obraz, który symulowałby rzeczywistość.
Ale oczywiście wszystko nie zależy od karty graficznej, ponieważ częstotliwość odświeżania ekranu oznaczy FPS, który zobaczymy. Liczba klatek na sekundę jest taka sama jak Hz, a jeśli ekran ma częstotliwość 50 Hz, gra będzie wyświetlana z maksymalną szybkością 60 klatek na sekundę, nawet jeśli GPU jest w stanie grać w nią z prędkością 100 lub 200 klatek na sekundę. Aby wiedzieć, jaka byłaby maksymalna szybkość FPS, jaką GPU byłaby w stanie reprezentować, musimy wyłączyć synchronizację pionową w opcjach gry.
Architektura twojego GPU
Zanim się przekonamy, że procesory graficzne mają pewną liczbę rdzeni fizycznych, co może skłonić nas do myślenia, że im więcej, tym lepsza wydajność nam przyniesie. Ale nie jest tak dokładnie, ponieważ, podobnie jak w przypadku architektury CPU, wydajność będzie się różnić, nawet przy tej samej prędkości i tych samych rdzeniach. Nazywamy to IPC lub Instrukcjami na cykl.
Architektura kart graficznych ewoluowała wraz z upływem czasu, oferując po prostu spektakularne wyniki. Są w stanie obsługiwać rozdzielczości 4K powyżej 60 Hz, a nawet 8K. Ale co najważniejsze, jego świetna zdolność do animowania i renderowania tekstur za pomocą światła w czasie rzeczywistym, tak jak nasze oczy w prawdziwym życiu.
Obecnie mamy Nvidię z architekturą Turinga, wykorzystującą tranzystory FinFET 12 nm do budowy chipsetów nowego RTX. Ta architektura ma dwa elementy różnicowe, które do tej pory nie istniały w sprzęcie konsumenckim, funkcję Ray Tracing w czasie rzeczywistym i DLSS (Deep Learning Super Sampling). Pierwsza funkcja próbuje symulować to, co dzieje się w świecie rzeczywistym, obliczając wpływ światła na obiekty wirtualne w czasie rzeczywistym. Po drugie, jest to seria algorytmów sztucznej inteligencji, za pomocą których karta renderuje tekstury w niższej rozdzielczości w celu zoptymalizowania wydajności gry, jest to rodzaj antyaliasingu. Idealne jest połączenie DLSS i Ray Tracing.
Firma AMD wydała również architekturę, chociaż prawdą jest, że współistnieje z poprzednimi poprzednimi, aby mieć szeroką gamę kart, które - choć to prawda - nie są na poziomie najwyższej klasy Nvidii. Dzięki RDNA AMD zwiększyło IPC swoich GPU o 25% w porównaniu z architekturą CNG, osiągając w ten sposób o 50% większą prędkość na każdy zużyty wat.
Częstotliwość zegara i tryb turbo
Wraz z architekturą dwa parametry są bardzo ważne, aby zobaczyć wydajność procesora graficznego, czyli jego bazową częstotliwość taktowania i wzrost fabrycznego trybu turbo lub przetaktowywania. Podobnie jak w przypadku procesorów, procesory graficzne mogą również zmieniać częstotliwość przetwarzania grafiki w zależności od potrzeb w danym momencie.
Jeśli spojrzysz, częstotliwości kart graficznych są znacznie niższe niż procesorów, wynosząc około 1600-2000 MHz. Wynika to z faktu, że większa liczba rdzeni zaspokaja potrzebę wyższej częstotliwości, aby kontrolować TDP karty.
W tym momencie istotne będzie, aby wiedzieć, że na rynku mamy modele referencyjne i spersonalizowane karty. Pierwsze to modele wydane przez samych producentów, Nvidię i AMD. Po drugie, producenci w zasadzie wykorzystują procesory graficzne i pamięci do samodzielnego montażu z komponentami i radiatorami o wyższej wydajności. Chodzi o to, że zmienia się również częstotliwość taktowania, a modele te są zwykle szybsze niż modele referencyjne.
TFLOPS
Wraz z częstotliwością taktowania mamy FLOPS (operacje zmiennoprzecinkowe na sekundę). Ta wartość mierzy operacje zmiennoprzecinkowe, które procesor jest w stanie wykonać w ciągu jednej sekundy. Jest to liczba, która mierzy moc brutto GPU, a także procesorów. Obecnie nie możemy po prostu mówić o FLOSP, pochodzącym z TeraFLOPS lub TFLOPS.
Nie powinniśmy się mylić, myśląc, że więcej TFLOPS oznacza, że nasza karta graficzna jest lepsza. Zwykle tak jest, ponieważ powinieneś być w stanie swobodnie przenosić tekstury. Ale inne elementy, takie jak ilość pamięci, jej szybkość oraz architektura procesora graficznego i pamięci podręcznej, będą miały znaczenie.
TMU i ROP
Są to terminy, które pojawią się na wszystkich kartach graficznych i dają nam dobre wyobrażenie o szybkości działania tego samego.
TMU oznacza Unit Mapping Unit. Ten element jest odpowiedzialny za wymiarowanie, obracanie i zniekształcanie obrazu bitmapowego w celu umieszczenia go w modelu 3D, który będzie służył jako tekstura. Innymi słowy, stosuje mapę kolorów do obiektu 3D, który z góry będzie pusty. Im więcej TMU, tym wyższa wydajność teksturowania, tym szybciej piksele się wypełnią i tym więcej FPS otrzymamy. Obecne TMU obejmują jednostki kierunku tekstury (TA) i jednostki filtra tekstury (TF).
Teraz zwracamy się do ROP lub jednostek rastrowych. Jednostki te przetwarzają informacje tekstowe z pamięci VRAM i wykonują operacje macierzowe i wektorowe, aby nadać pikselowi końcową wartość, która będzie jego głębokością. Nazywa się to rasteryzacją i zasadniczo kontroluje wygładzanie krawędzi lub łączenie różnych wartości pikseli znajdujących się w pamięci. DLSS jest właśnie ewolucją tego procesu generowania
Ilość pamięci, przepustowość i szerokość magistrali
Wiemy, że istnieje kilka rodzajów technologii pamięci VRAM, z których obecnie najczęściej stosowanymi są GDDR5 i GDDR6, przy prędkościach do 14 Gb / s dla tej drugiej. Podobnie jak w przypadku pamięci RAM, im więcej pamięci, tym więcej pikseli, tekstu i danych tekstowych możemy przechowywać. Ma to duży wpływ na rozdzielczość, przy której gramy, poziom szczegółowości na świecie i odległość oglądania. Obecnie karta graficzna wymaga co najmniej 4 GB pamięci VRAM, aby móc pracować z grami nowej generacji w rozdzielczości Full HD i wyższych.
Szerokość szyny pamięci reprezentuje liczbę bitów, które można przesłać w słowie lub instrukcji. Są one znacznie dłuższe niż te używane przez procesory, o długości od 192 do 384 bitów, pamiętajmy o koncepcji równoległości przetwarzania.
Przepustowość pamięci to ilość informacji, które można przesłać w jednostce czasu i jest mierzona w GB / s. Im większa szerokość magistrali i większa częstotliwość pamięci, tym większa szerokość pasma, ponieważ większa ilość informacji, które mogą przez nią przepłynąć. To jest jak Internet.
Kompatybilność API
Interfejs API to w zasadzie zestaw bibliotek używanych do programowania i pracy z różnymi aplikacjami. Oznacza programowanie aplikacji i jest sposobem, w jaki różne aplikacje komunikują się ze sobą.
Jeśli przejdziemy do świata multimediów, mamy również interfejsy API, które umożliwiają obsługę i tworzenie gier i wideo. Najbardziej znanym ze wszystkich będzie DirectX, który jest w 12. wersji od 2014 roku, aw najnowszych aktualizacjach zaimplementował Ray Tracing, programowalny MSAA i funkcje wirtualnej rzeczywistości. Wersja open source to OpenGL, która jest wersją 4.5 i jest również używana w wielu grach. Wreszcie mamy Vulkan, API opracowane specjalnie dla AMD (jego kod źródłowy pochodzi z AMD i został przeniesiony do Khronos).
Możliwość podkręcania
Wcześniej mówiliśmy o częstotliwości turbo GPU, ale możliwe jest również zwiększenie jej powyżej jego limitów przez podkręcenie. Ta praktyka polega w zasadzie na znalezieniu większej liczby klatek na sekundę w grach, większej płynności, aby poprawić naszą reakcję.
Możliwości podkręcania procesorów wynoszą około 100 lub 150 MHz, chociaż niektóre są w stanie obsłużyć coś więcej lub mniej, w zależności od ich architektury i maksymalnej częstotliwości.
Ale możliwe jest również owerlokowanie pamięci GDDR, a także wiele. Przeciętna pamięć GDDR6 pracująca z częstotliwością 7000 MHz obsługuje przesyłanie danych do 900 i 1000 MHz, co pozwala osiągnąć efektywność do 16 Gb / s. W rzeczywistości jest to element, który najbardziej zwiększa liczbę klatek na sekundę w grze, ze wzrostem nawet o 15 klatek na sekundę.
Niektóre z najlepszych programów do podkręcania to Evga Precision X1, MSI AfterBurner i AMD WattMan for Radeons. Chociaż wielu producentów ma własne, takie jak AORUS, Colourful, Asus itp.
Testy porównawcze dla karty graficznej
Testy porównawcze to testy warunków skrajnych i wydajności, które przechodzą niektóre dodatki sprzętowe naszego komputera w celu oceny i porównania ich wydajności z innymi produktami na rynku. Oczywiście istnieją testy porównawcze do oceny wydajności kart graficznych, a nawet zestawu procesorów graficznych.
Testy te prawie zawsze pokazują wynik bezwymiarowy, to znaczy, że można go kupić tylko z tymi wygenerowanymi przez ten program. Po przeciwnej stronie byłby FPS i na przykład TFLOPS. Najczęściej używanymi programami do testów kart graficznych są 3DMark, który ma wiele różnych testów, PassMark, VRMark lub GeekBench. Wszystkie mają własną tabelę statystyk, aby kupić nasz układ GPU u konkurencji.
Rozmiar ma znaczenie… i także radiator
Oczywiście ma to znaczenie dla przyjaciół, więc zanim kupimy kartę graficzną, możemy przynajmniej przejść do jej specyfikacji i zobaczyć, co mierzy. Następnie przejdźmy do naszego podwozia i zmierzmy, ile miejsca na to mamy.
Dedykowane karty graficzne mają bardzo mocne karty graficzne o TDP ponad 100 W. Oznacza to, że będą dość gorące, w rzeczywistości nawet gorętsze niż procesory. Z tego powodu wszystkie mają duże radiatory, które zajmują prawie całą płytkę elektroniki.
Na rynku możemy znaleźć zasadniczo dwa rodzaje radiatorów.
- Dmuchawa: Ten typ radiatora to na przykład ten, który ma modele referencyjne AMD Radeon RX 5700 i 5700 XT lub poprzednią Nvidia GTX 1000. Pojedynczy wentylator zasysa pionowe powietrze i przepływa przez żebrowany radiator. Te radiatory są bardzo złe, ponieważ zajmuje niewiele powietrza, a prędkość przejścia przez radiator jest niska. Przepływ osiowy: są to wentylatory życia, umieszczone pionowo w radiatorze i popychające powietrze w kierunku żeber, które później wyjdą z boków. Jest stosowany we wszystkich niestandardowych modelach jako taki, który zapewnia najlepszą wydajność. Nawet chłodzenie cieczą: niektóre najlepsze modele mają radiatory z wbudowanym systemem chłodzenia cieczą, na przykład Asus Matrix RTX 2080 Ti.
Spersonalizowane karty
Nazywamy modele graficzne montowane przez producentów sprzętu ogólnego, takich jak Asus, MSI, Gigabyte itp. Kupują one bezpośrednio układy graficzne i pamięci od głównego producenta, AMD lub Nvidii, a następnie montują je na wykonanej przez nich płytce drukowanej wraz z utworzonym przez nich radiatorem.
Zaletą tej karty jest to, że są fabrycznie podkręcane z wyższą częstotliwością niż modele referencyjne, więc będą działać nieco więcej. Jego radiator jest również lepszy, a VRM, a nawet wiele ma RGB. Złe jest to, że są one zwykle droższe. Kolejnym pozytywnym aspektem jest to, że oferują wiele rodzajów rozmiarów, dla obudów ATX, Micro ATX, a nawet ITX, z bardzo małymi i kompaktowymi kartami.
Jaka jest GPU lub karta graficzna laptopa do gier
Z pewnością w tym momencie zastanawiamy się, czy laptop może mieć dedykowaną kartę graficzną, a prawda jest taka. W profesjonalnym przeglądzie analizujemy ogromną liczbę laptopów do gier z dedykowanym procesorem graficznym.
W takim przypadku nie zostanie on zainstalowany na karcie rozszerzeń, ale chipset zostanie przylutowany bezpośrednio na głównej płytce drukowanej laptopa i bardzo blisko procesora. Te konstrukcje są zwykle nazywane Max-Q, ponieważ nie mają żeberkowego radiatora i mają dla nich określony obszar w płycie podstawy.
W tym obszarze niekwestionowanym królem jest Nvidia z RTX i GTX Max-Q. Są to układy zoptymalizowane pod kątem laptopów, które zużywają 1/3 w porównaniu do modeli stacjonarnych i poświęcają tylko 30% swojej wydajności. Odbywa się to poprzez zmniejszenie częstotliwości taktowania, czasem przez usunięcie niektórych rdzeni i spowolnienie GRAM-a.
Jaki procesor zamontuję zgodnie z moją kartą graficzną
Aby grać, a także wykonywać wszelkiego rodzaju zadania na naszym komputerze, zawsze musimy znaleźć równowagę w naszych komponentach, aby uniknąć wąskich gardeł. Sprowadzając to do świata gier i naszych kart graficznych, musimy osiągnąć równowagę między GPU a procesorem, aby żadna z nich nie zawiodła, a inne niewłaściwie wykorzystywały. Stawką są nasze pieniądze i nie możemy kupić RTX 2080 i zainstalować go z Core i3-9300F.
Centralny procesor odgrywa ważną rolę w pracy z grafiką, jak widzieliśmy już w poprzednich sekcjach. Musimy więc upewnić się, że ma wystarczającą prędkość, liczbę rdzeni i wątków przetwarzania, aby współpracować z fizyką i ruchem gry lub wideo i przesłać je na kartę graficzną tak szybko, jak to możliwe.
W każdym razie zawsze będziemy mieli możliwość zmodyfikowania ustawień graficznych gry, aby zmniejszyć wpływ zbyt wolnego procesora. W przypadku GPU łatwo jest zrekompensować jego brak wydajności, po prostu obniżając rozdzielczość osiągniemy świetne wyniki. Z procesorem jest inaczej, ponieważ chociaż jest mniej pikseli, fizyka i ruch pozostaną prawie takie same, a obniżenie jakości tych opcji może znacznie wpłynąć na prawidłowe wrażenia z gry. Oto niektóre opcje wpływające na procesor i inne na GPU:
Wpływają na GPU | Wpływają na procesor |
Ogólnie rzecz biorąc, opcje renderowania | Ogólnie rzecz biorąc, opcje fizyczne |
Antyaliasing | Ruch postaci |
Ray Tracing | Elementy wyświetlane na ekranie |
Tekstury | Cząsteczki |
Tesselacja | |
Przetworzone | |
Rozdzielczość | |
Zatkanie środowiska |
Widząc to, możemy stworzyć mniej więcej ogólną równowagę, klasyfikując sprzęt według celu, dla którego został zbudowany. Ułatwi to osiągnięcie mniej lub bardziej zrównoważonych specyfikacji.
Tanie urządzenia multimedialne i biurowe
Zaczynamy od najbardziej podstawowego, a przynajmniej tego, co uważamy za bardziej podstawowe, oprócz mini PC z Celeronem. Podobno, gdybyśmy szukali czegoś taniego, najlepszą rzeczą byłoby pójście na procesory AMD Athlon lub Pentium Gold Intela. W obu przypadkach mamy zintegrowaną grafikę na dobrym poziomie, taką jak Radeon Vega w pierwszym przypadku lub UHD Graphics w przypadku Intela, które obsługują wysokie rozdzielczości i przyzwoitą wydajność w mało wymagających zadaniach.
W tej dziedzinie nie ma sensu kupowanie dedykowanej karty graficznej. Są to procesory z dwoma rdzeniami, które nie dają wystarczającej wydajności, aby zamortyzować koszt karty. Co więcej, zintegrowana grafika zapewni nam wydajność podobną do tej, jaką oferowałby dedykowany procesor graficzny w wysokości 80-100 euro.
Sprzęt ogólnego zastosowania i gry z niższej półki
Możemy uznać sprzęt ogólnego zastosowania za taki, który dobrze zareaguje w wielu różnych okolicznościach. Na przykład surfowanie, praca w biurze, robienie drobnych rzeczy w projektowaniu, a nawet edytowanie filmów na poziomie amatorskim i granie od czasu do czasu w Full HD (nie możemy tu przyjechać i prosić o wiele więcej).
W tym obszarze wyróżnia się 4-rdzeniowy i wysokiej częstotliwości Intel Core i3, a zwłaszcza AMD Ryzen 3 3200G i 5 3400G ze zintegrowaną kartą graficzną Radeon RX Vega 11 i bardzo skorygowaną ceną. Te Ryzen są w stanie przenieść grę ostatniej generacji z godnością w niskiej jakości i Full HD. Jeśli chcemy czegoś nieco lepszego, przejdźmy do następnego.
Komputer z kartą graficzną do gier średnich i wysokich
Ale oczywiście, jeśli chcemy więcej, musimy poświęcić się i to właśnie jest to, jeśli chcemy uzyskać optymalne wrażenia z gry w jakości Full HD lub 2K w wysokiej jakości. W tym przypadku komentowane procesory są nadal świetną opcją dla 6-rdzeniowego, ale moglibyśmy przejść do Ryzen 5 3600 i 3600X oraz Intel Core i5-9600K. Dzięki tym opłaca się uaktualnić do Nvidii RTX 2060/2070 Super i AMD RX 5700/5700 XT.
Entuzjastyczny zespół ds. Gier i projektowania
Tutaj będzie wiele zadań renderowania i gier z maksymalnie filtrami, więc będziemy potrzebować procesora o co najmniej 8 rdzeniach i potężnej karty graficznej. AMD Ryzen 2700X lub 3700X będzie świetną opcją lub Intel Core i7 8700K lub 9700F. Wraz z nimi zasługujemy na Nvidia RTX 2070 Super lub AMD Radeon RX 5700 XT.
A jeśli chcemy zazdrościć naszym przyjaciołom, chodźmy na RTX 2080 Super, poczekajmy trochę na Radeon 5800 i zdobądźmy AMD Ryzen 3900X lub Intel Core i9-9900K. Threadrippers nie są obecnie wykonalną opcją, chociaż Intel X i XE platformy LGA 2066 są i ich wysoki koszt.
Wniosek dotyczący karty graficznej i naszych zalecanych modeli
Do tej pory pojawia się ten post, w którym wyjaśniamy wystarczająco szczegółowo obecny stan kart graficznych, a także trochę ich historii od samego początku. Jest to jeden z najpopularniejszych produktów w świecie komputerów, ponieważ komputer do gier z pewnością będzie działał znacznie więcej niż konsola.
Prawdziwi gracze używają komputerów do grania, szczególnie w e-sporcie lub zawodach na całym świecie. W nich zawsze staraj się osiągnąć maksymalną możliwą wydajność, zwiększając liczbę klatek na sekundę, skracając czas reakcji i używając komponentów zaprojektowanych do grania. Ale nic nie byłoby możliwe bez kart graficznych.
- Jaką kartę graficzną kupuję? Najlepsze na rynku Najlepsze karty graficzne na rynku
Nowa karta GPU Pascala z kartą graficzną NVIDIA

Nowy procesor graficzny Pascala z kartą graficzną NVIDIA. Dowiedz się więcej o nowym GPU zaprojektowanym dla górnictwa opracowanym przez Pascala
Zintegrowana karta graficzna czy dedykowana karta graficzna?

Wyjaśniamy różnice między zintegrowaną a dedykowaną kartą graficzną. Ponadto pokazujemy jego wydajność w grach w rozdzielczości HD, Full HD i która jest tego warta.
Zewnętrzna karta graficzna czy wewnętrzna karta graficzna?

Wewnętrzna czy zewnętrzna karta graficzna? Istnieje wielka wątpliwość, że użytkownicy laptopów do gier mają zwykłe laptopy. W środku odpowiedź.