Sprzęt komputerowy

Nvidia pogarsza jakość monitora SDR w porównaniu z HDR

Spisu treści:

Anonim

W celu wykazania, jak ważne jest wsparcie HDR (High Dynamic Range) dla jakości obrazu przyszłych monitorów i telewizorów, NVIDIA postanowiła stworzyć własne stoisko na Computex 2017, aby zaprezentować różnicę między SDR (Range Dynamic Standard) i HDR.

Computex 2017: NVIDIA modyfikuje ustawienia fabryczne monitora SDR, aby podkreślić jakość obrazu monitorów HDR

Wydaje się jednak, że firma poszła o krok dalej, aby podkreślić, jak niesamowita jest jakość obrazu HDR, i w tym celu postanowiła zmodyfikować ustawienia obrazu monitora SDR, aby wyglądało jeszcze gorzej.

Odkrycia dokonał kanał YouTube na kanale Hardware Canucks, który twierdzi, że miał dostęp do ustawień monitora używanych przez NVIDIA do uruchomienia wersji demonstracyjnej. Firma podobno zmieniła domyślne ustawienia fabryczne standardowego monitora, aby zmniejszyć jasność, kontrast, a nawet wartości gamma, co znacząco wpłynęło na jakość obrazu.

Zresetowanie ustawień monitora SDR do ustawień fabrycznych spowodowało mniej rozmycia i wyraźniejsze obrazy w porównaniu do monitora HDR, więc NVIDIA celowo próbowała obniżyć jakość obrazu efektu SDR w swojej prezentacji.

Z drugiej strony należy zauważyć, że postrzeganie różnic między efektami SDR i HDR zależy raczej od każdego z nich, ponieważ nie wszyscy zauważają ten sam wzrost jakości obrazu. Jednak modyfikując i pogarszając domyślne ustawienia jasności, kontrastu i gamma, jest to wyraźny znak, że NVIDIA zbytnio stara się wydobyć moc HDR.

Źródło: Techpowerup

Sprzęt komputerowy

Wybór redaktorów

Back to top button