Tak wyglądał raytracing 7 lat…

Tak wyglądał raytracing 7 lat temu na GPU w czasie rzeczywistym, jak się miało około 1Tflopsa:

Lecz dzięki rdzeniom TPU, jak i ewolucji rdzeni CUDA oraz zaawansowanemu API udało się osiagnąć to w 32bitach kolorów, sporej ilości detali i filmowej rodzielczości FullHD ( ͡° ͜ʖ ͡°)

Mam nadzieję że za niedługo powstanie otwarte API do tego celu, które umożliwi to na każdej karcie graficznej, zaś tą moc będzie można czerpać z TPU na USB 3.0 lub PCIE x1 ( ͡° ͜ʖ ͡°)
https://www.wykop.pl/link/4601745/ai-core-x-szybkie-sieci-neuronowe-dla-kazdego/
Teraz tylko chwila nas dzieli od tego gdy zapomnimy o gigantycznych farmach GPU przy renderowaniu filmów animowanych, obecnie istnieje już otwarty silinik który potrafi mniej wiecej realizować takie oświetlenie, ale idzie to dość powoli i w nie tak wysokich rozdzielczościach:

Wymaga to ogromu zasobów obliczeniowych, z tego powodu pierwotnie obraz jest kompresowany, zaszumiony. Przekłada się to na niższy koszt wydajności po wygenerowaniu oświetlenia, cieni i wszystkich wodotrysków dzięki rdzeniom tensor obraz zostaje odszumiony, a detale poprawiane. Cały ten proces trwa raptem ułamki sekund.

Źródło: https://zalecane.pl/nvidia-rtx-jak-dziala-ray-tracing/

pokaż spoiler #machinelearning #gry #grajzwykopem #gruparatowaniapoziomu #programowanie #grafikakomputerowa #ciekawostki #opensource