W historii gier wideo nadchodzą epoki, gdy następuje fascynacja jakimś sprzętem wykraczającym poza ramy tego, co aktualnie podawane jest w menu. Mamy teraz do czynienia z graficznymi cudami, jakich wcześniej świat nie widział, a wszystko to zaczęło się zaledwie półtora roku temu…

Największe technologiczne nowinki, które mnie bezpośrednio dotyczyły w przeszłości, kojarzę dwie. Najpierw był dźwięk. W 1993 roku kupiłem sobie Sound Blastera 2.0 i całkiem byłem zadowolony z efektów burzy w Eye of the Beholder 2 czy szumu przelatujących TIE Fighterów w X-Wingu (na Pro brzmiało to lepiej!). Gdy jednak dwa lata później dowiedziałem się, że na rynek wchodzi AWE-32 dostarczające dźwięki, jakich uszy graczy nie słyszałem, wydałem całomiesięczną pensję z Secret Service i kupiłem sobie to wielkie, ledwo mieszczące się w obudowie cudo. I faktycznie okazało się, że w niektórych grach pojawiał się niesłyszalny na innych kartach podkład muzyczny, dzięki któremu miało się wrażenie, że gra cała orkiestra a nie pika sobie jakiś skromniutki MID. Po latach porównywalnym szokiem stały się wirtualne gogle, czyniąc przedstawioną rzeczywistość namacalną, bezpośrednią.

Graficzna rewolucja nie była aż tak zauważalna, przynajmniej dla mnie. Oczywiście, wchodziły nowe generacje kart, ale Doom czy Quake działały również na wolniejszych sprzętach i ci wszyscy członkowie rodziny 3dfx wydawali mi się jedynie przyspieszaczami akcji, a nie jej wzbogaceniem. Nie było jednak przełomu, czegoś, co spowodowałoby, że środowiska 3D zaczęłyby wyglądać zupełnie inaczej. Aż do teraz.

Ray tracing jako technologia polegająca na traktowaniu światła jako cząstek i obliczania pozycji każdej z nich z osobna jest zjawiskiem stosunkowo nowym. Dopiero od początku lat osiemdziesiątych, głównie na uczelniach, najpotężniejsze dostępne maszyny robiły próby i doświadczenia w tym zakresie. Do filmów ray tracing zaczął wdzierać się już po nadejściu nowego milenium, ale ciągle był technologią drogą, wymagającą po pierwsze kosztujących dziesiątki tysięcy dolarów stacji roboczych, a poza tym czasu na wyrenderowanie bosko oświetlonych scen. Budżety gier nie byłyby w stanie wytrzymać takiego kosztu, więc ciągle musieliśmy się obchodzić smakiem widząc taką choćby błyszczącą maskę Zygzaka McQueena w animacji „Cars”.

I nagle nadeszła wiosna 2018 roku, Game Developers Conference w San Francisco. Przed rozpoczęciem imprezy dostaliśmy zaproszenie NVIDII na tajny pokaz nie informujące nas, co będzie jego przedmiotem. Na zamkniętym dla publiczności stoisku dookoła mnie stanęło trzech ubranych w koszulki pracowników z centrali w Santa Clara i zaczęli wprowadzać Pixela w świat nowej technologii. Na początek puścili stworzony na Unrealu filmik pokazujący szturmowców Imperium w windzie, wówczas jeszcze niedostępny na YouTube i nieznany szerokiej publiczności. Posadzki i hełmy lśniły jak nigdy wcześniej. Czuć było, że baza zbudowana jest z metalu i szkła a nie z plastiku i tektury. NVIDIA zamierzała dokonać rewolucji w nieznany wcześniej sposób – otóż według zapowiedzi firmy owe efekty ray tracingu miały być liczone w czasie rzeczywistym! Nie jako prerenderowane filmiki, tylko na żywo, w trakcie chodzenia bohaterem po wirtualnych światach. Wówczas NVIDIA przedstawiała RTX Real-Time Ray Tracing jako nakładkę na najpopularniejsze silniki graficzne, umożliwiającą renderowanie światła w czasie rzeczywistym, co w praktyce miało przełożyć się na fotorealistyczną jakość obrazu. Mówiono o współpracy z różnymi producentami, umożliwianie im wdrażania takich efektów. Wówczas zapowiadało się na technologię jutra, możliwą do zaprezentowania szerokiej publiczności w nieokreślonym jeszcze terminie.

Sprawy przyspieszyły pół roku później na gamescomie. NVIDIA organizowała co prawda już wcześniej swoje własne konferencje przed rozpoczęciem właściwym targów, tyle że tym razem wynajęto duży obiekt i ogłoszono przybycie z Doliny Krzemowej szefa wszystkich szefów, założyciela i dyrektora generalnego firmy Jen-Hsuna Huanga. Wszedł na scenę i w trwającej prawie dwie godziny prezentacji objawił światu wypuszczenie kart nowej generacji, które sprzętowo będą w stanie pociągnąć wyśnioną grafikę. Po wyliczeniu technicznych parametrów nowych kart, Jen-Hsun zaczął prezentować efekty rozproszonego światła w Shadow of the Tomb Raider, po raz pierwszy robiąc słynny już podział na RTX ON i RTX OFF. Prawdę powiedziawszy, nie było tego aż tak bardzo widać. Publiczność nie była nadmiernie entuzjastyczna, więc mózg NVIDII zdjął skórzaną kurtkę, zatarł dłonie i zabrał się do prezentacji efektów w nadchodzącym wówczas Metro: Exodus. Tutaj wyglądało to bardziej zauważalnie – półcienie i rozproszone światło były tym, na czym ray tracing sprawdzał się najlepiej. Ciągle jeszcze nie było to jednak coś, co spowodowałoby opad szczęk i zachęciło ludzi do skosztowania nowej technologii, tak jak łapczywie pragnęło się niegdyś Gravisa Ultrasounda czy Sound Blastera AWE-32.

Ten kolejny przełom następuje właśnie teraz, gdy zaczynają się ukazywać się tytuły w pełni wykorzystujące możliwości RTX. Zauważmy, że zarówno Metro: Exodus, jak i Shadow of the Tomb Raider rozgrywały się w większości na łonie przyrody. A co, jeśliby powstała gra z akcją dziejącą się w jakiejś bazie lub korporacyjnym budynku pełnym szkła i lśniących posadzek? Jeszcze dodatkowo tajemniczym. wypełnionym świetlistymi bytami spoza tego świata. Mówię oczywiście o grze Control wypuszczonej w sierpniu przez fińskich speców od ponadnaturalnych historii z Remedy Entertainment. Wyposażony w kartę 2080 Ti z rodziny RTX mogłem ruszyć do wzniesionego w brutalistycznej manierze wieżowca w Nowym Jorku, żeby odkryć coś, czego jeszcze widziałem. Opiszę to w następnym artykule.