▷ Czym jest rasteryzacja i jaka jest jej różnica w przypadku ray tracingu
Spisu treści:
Po zbliżającej się premierze nowych kart graficznych Nvidia RTX. Chcieliśmy napisać artykuł o tym, czym jest rasteryzacja i jaka jest jej różnica w Ray Tracing. Chcesz wiedzieć wszystko, co musisz wiedzieć o tej technologii? Zacznijmy!
Czym są różnice w rasteryzacji i Ray Tracing
Grafika komputerowa w czasie rzeczywistym od dawna używa techniki zwanej „rasteryzacją” do wyświetlania trójwymiarowych obiektów na dwuwymiarowym ekranie. Jest to szybka technika, a wyniki stały się bardzo dobre w ciągu ostatnich kilku lat, chociaż nie jest tak dobra, jak może to zrobić ray tracing.
Dzięki technice rastrowej obiekty widoczne na ekranie są tworzone z siatki wirtualnych trójkątów lub wielokątów, które tworzą trójwymiarowe modele obiektów. W tej wirtualnej siatce rogi każdego trójkąta, zwane wierzchołkami, przecinają wierzchołki innych trójkątów o różnych rozmiarach i kształtach. Z tego powodu wiele informacji jest powiązanych z każdym wierzchołkiem, w tym jego pozycja w przestrzeni, a także informacje o kolorze, teksturze i jego „normalności”, które są używane do określania, w jaki sposób zwrócona jest powierzchnia obiektu..
Komputery następnie przekształcają trójkąty modeli 3D w piksele lub punkty na ekranie 2D. Każdemu pikselowi można przypisać początkową wartość koloru z danych przechowywanych w wierzchołkach trójkąta. Dodatkowe przetwarzanie pikseli lub „cieniowanie”, które obejmuje zmianę koloru pikseli w zależności od tego, w jaki sposób światła w scenie uderzają w piksel, oraz zastosowanie jednej lub więcej tekstur do piksela, łączą się w celu wygenerowania końcowego koloru zastosowanego do jeden piksel.
Podsumowujemy najlepsze przewodniki po sprzęcie, które powinny Cię zainteresować:
- Najlepsze procesory na rynku Najlepsze płyty główne na rynku Najlepsze pamięci RAM na rynku Najlepsze karty graficzne na rynku Najlepsze dyski SSD na rynku
Jest to intensywne obliczeniowo, ponieważ mogą występować miliony wielokątów dla wszystkich modeli obiektów w scenie i około 8 milionów pikseli na ekranie 4K. Do tego wszystkiego musimy dodać, że każdy obraz wyświetlany na ekranie zwykle aktualizuje się 30 do 90 razy na sekundę. Ponadto bufory pamięci, tymczasowe miejsce przeznaczone na przyspieszenie, są używane do renderowania klatek z wyprzedzeniem, zanim zostaną wyświetlone na ekranie.
Głębokość lub „bufor-z” służy również do przechowywania informacji o głębokości pikseli, aby zapewnić wyświetlanie przednich obiektów w xy ekranu piksela, a obiekty za najbardziej przednim obiektem pozostaną ukryte. To jest powód, dla którego nowoczesne i bogate graficznie gry komputerowe polegają na wydajnych procesorach graficznych, które są w stanie wykonać wiele milionów obliczeń na sekundę.
Ray Tracing działa w zupełnie inny sposób. W prawdziwym świecie obiekty 3D, które widzimy, są oświetlane przez źródła światła, a fotony tworzące światło mogą odbijać się od jednego obiektu do drugiego, zanim dotrą do oczu widza. Ponadto światło może być blokowane przez niektóre obiekty, tworząc cienie, lub światło może być odbijane od jednego obiektu do drugiego, tak jak gdy widzimy obrazy jednego obiektu odbijane na powierzchni innego. Mamy także załamania, które powodują zmianę prędkości i kierunku światła, gdy przechodzi ono przez obiekty przezroczyste lub półprzezroczyste, takie jak szkło lub woda.
Ray Tracing odtwarza te efekty, jest to technika, którą po raz pierwszy opisał Arthur Appel z IBM w 1969 roku. Ta technika śledzi ścieżkę światła przechodzącą przez każdy piksel na powierzchni oglądania 2D i zamienia go w trójwymiarowy model sceny. Kolejny znaczący przełom nastąpił dziesięć lat później w artykule z 1979 r. Zatytułowanym „Ulepszony model oświetlenia dla zacieniowanych ekranów”. Turner Whitted, obecnie członek Nvidia Research, pokazał, jak uchwycić odbicie, cień i załamanie światła za pomocą Ray Tracing.
Dzięki technice Whitted, gdy piorun uderza w obiekt na scenie, informacje o kolorze i oświetleniu w punkcie uderzenia o powierzchnię obiektu wpływają na kolor piksela i poziom oświetlenia. Jeśli wiązka odbije się lub przemieści powierzchnię różnych obiektów przed dotarciem do źródła światła, informacje o kolorze i oświetleniu ze wszystkich tych obiektów mogą przyczynić się do ostatecznego koloru piksela.
ZALECAMYJak zainstalować Ubuntu Tweak w Ubuntu 16.04Kolejna para dokumentów z lat 80. położyła resztę intelektualnego fundamentu rewolucji grafiki komputerowej, która obaliła sposób tworzenia filmów. W 1984 r. Robert Cook, Thomas Porter i Loren Carpenter z Lucasfilm opisali, w jaki sposób Ray Tracing może wykorzystywać różne popularne techniki filmowe, takie jak rozmycie ruchu, głębia ostrości, półmrok, półprzezroczystość i rozmyte odbicia, które do tej pory były tylko można je tworzyć za pomocą kamer. Dwa lata później praca profesora CalTech Jima Kajiya, „The Rendering Equation”, zakończyła pracę nad mapowaniem sposobu generowania grafiki komputerowej do fizyki, aby lepiej przedstawić sposób rozpraszania światła. w scenie.
Łącząc wszystkie te badania z nowoczesnymi procesorami graficznymi, wyniki są generowanymi komputerowo obrazami, które rejestrują cienie, odbicia i załamania w sposób, który może być nie do odróżnienia od rzeczywistych zdjęć lub filmów. Ten realizm jest powodem, dla którego Ray Tracing podbił współczesne kino. Poniższy obraz wygenerowany przez Enrico Cerica przy użyciu OctaneRender pokazuje zniekształcenie szklanych uderzeń w lampie, rozproszone oświetlenie w oknie i matowe szkło w latarni na podłodze odbite w obrazie na ramie.
Ray Tracing jest niezwykle wymagającą energią techniką, dlatego twórcy filmowi polegają na dużej liczbie serwerów lub farm, aby tworzyć sceny w procesie, który może zająć dni, a nawet tygodnie, aby wygenerować złożone efekty specjalne. Niewątpliwie wiele czynników wpływa na ogólną jakość grafiki i wydajność śledzenia promieni. W rzeczywistości, ponieważ śledzenie promieni jest tak intensywne obliczeniowo, często jest używane do przedstawienia tych obszarów lub obiektów w scenie, które najbardziej korzystają z jakości wizualnej i realizmu techniki, podczas gdy reszta sceny jest przetwarzany przy użyciu rasteryzacji.
Co sądzisz o naszym artykule na temat tego, czym jest rasteryzacja? Czy uważasz to za interesujące? Czekamy na Wasze komentarze!
Jaka jest różnica między sprzętem a oprogramowaniem?
W świecie technologii zarówno sprzęt, jak i oprogramowanie idą w parze, jedno nie może istnieć bez drugiego iw tym artykule to wyjaśniamy.
Jaka jest różnica między czyszczeniem danych a czyszczeniem pamięci podręcznej?
Jaka jest różnica między czyszczeniem danych a czyszczeniem pamięci podręcznej? Dowiedz się więcej o różnicy między czyszczeniem danych a czyszczeniem pamięci podręcznej w Androidzie.
Windows 32 lub 64-bitowy, jaka jest różnica i dlaczego powinieneś wiedzieć
32-bitowy system Windows czy 64-bitowy system Windows? Z jakiego systemu powinienem korzystać? Jaka jest różnica? Czy mogę przejść z systemu 32-bitowego na 64-bitowy?