Skrivet av kelthar:
Testade tech demot precis. Tog en sekvens i början där de zoomar in på pansarvagnarna.
Ultra på allt annat i 1440p
RT Off: 150-170 FPS.
RT High: 105-100 FPS
RT Maximum: 100 FPS
RT Ultra: 90 FPS
https://wotencore.net/en
Det kostar FPS ändå, minsann! (2080 + 3900X)
Allt är relativt. Jämför man med SoTR så ser det hyfsat imponerande ut, med tanke på att det inte finns någon fixed-function traversal eller intersection tests.
Tiden som allt tar på RT ultra är enligt dina tester ~5ms (1/RT Ultra FPS - 1/RT Off FPS). På dessa 5ms så:
Skapar de ett nytt träd
Överför trädet till GPU:n
Söker igenom trädet (traversal)
Genomför beskärningstest (intersection)
Och efter allt detta är klart så slänger de en denoiser på allt.
Och allt detta utan dedikerad hårdvara. Så även om det verkar inte så imponerande på pappret så förtjänar de cred för det. Jag hade förväntat mig åtminstone 3x tiden. Men vem vet, kanske Turing har exceptionellt hög RT prestanda i det här fallet? Behövs fler tester med olika arkitekturer för att avgöra det.
Computerbase har jämfört med 2070 och 5700XT (tråkigt nog ingen Vega eller Pascal ) Där 2070 förlorar 35% av prestandan vid Ultra och 5700XT 43% av prestandan. För att med formeln från ovan får vi att 2070 tar ~4,3ms för RT, medan 5700XT tar ~5,9ms för RT. Detta resultatet är tillräckligt för att säga att Turing > RDNA 1.0 för shader baserad RT med denna testscen, med de här algoritmerna. Behöver inte betyda att RDNA 1.0 ej skulle få bättre resultat om de valt att implementera i DXR (då kan AMD även justera vilket execution mode de har, vilka algoritmer som ska användas för traversal och intersection, etc).
(Det här betyder inte att jag trashtalkar fixed-function hårdvara för RT, tvärtom gillar jag det. Snarare berömmer jag den förhållandevis grymma shaderprestandan hos Turing! Om de använt RT cores hade tiden säkerligen gått ner en del. RDNA och Turing är dock skapt för att INTE köra shader baserad RT, så det är lite onödigt att lägga stor vikt på det här)
Skrivet av Dinoman:
Aha! Det blåser upp till storm. Vi kan ju alla tacka Nvidia för att de satt Ray tracing-bollen i rullning. Tycka vad man vill om deras RTX-implementation så har det sporrat spelutvecklare att titta på tekniken och i detta fallet välja att använda en annan implementation.
Jag ser ingen anledning att tacka NVIDIA för det här. Ska jag tacka NVIDIA för att Intel har ett grymt open source RT ramverk som embree (sedan 2012 verkar det som)? Vilken inverkan hade Turing 2018 på Embree 2012?
Kanske de bör tackas för DXR som bestämdes av NVIDIA + åtminstone Microsoft, AMD + möjligtvis Intel?
Kanske de bör tackas för all research AMD och Intel har lagt ner på RT i åratal?
Nej, det enda NVIDIA har gjort är att släppa en produkt till desktop först med hårdvaruaccelererad RT. Men de beslut som AMD och Intel fattat har inte berott på NVIDIA. Ingen har visat något som helst bevis på det, och om ni har det skulle jag gärna vilja se det.
De enda som vill att vi ska tro det är NVIDIA själva, och jag kan säga att det fungerar riktigt bra. Ta t.ex följande kommentar:
Skrivet av DJ-SAAB:
Jag trodde ja skulle ligga runt 30 fps med RTX On med mitt GTX 1070 men de sköte sig väldigt fint. På Ultra i 1920x1080 med RTX On. Låg omkring 79 fps som mest något lite dippade ner men aldrig under 60 fps, kunde komma upp till 90+ fps.
Spelet använder Intels oneAPI, inte DXR. DXR finns inte ens till DX11.
RTX är egentligen ett samlingsnamn för hårdvara och tekniker i Turing såsom:
Ray tracing m.h.a RT cores
AI m.h.a Tensor cores
Mesh shaders
Variable Rate Shading
Texture Space Shading
Multi-View Rendering
etc.
Men ändå tillskrivs all ray tracing i hela universum RTX (trots att det bara är en delmängd). Intel och AMD hade nog offrat ena armen för all denna PR.
(Btw, klandrar inte dig för att få det här fel. NVIDIA har varit aningen förvirrande när det kommer till vad RTX är, och jag skulle nog säga att fler har missförstått än förstått vad det betyder).