Ray tracing och Nvidia DLSS i Metro Exodus

Mja, DLSS lämnade ju en del att önska. Förhoppningsvis får de ordning på det bättre med tiden. För detta var ju inget att hänga i granen direkt.

Skrivet av Sveklockarn:

Om man gillar att bilden ser ut som att den är blurrad i Photoshop, absolut, men annars inte.

Bilden blir inte blurrad med SSAA, testa så får du se. Däremot måste du ha ett par grafikkort till...

Ser inte meningen med DLSS. Utvecklarna skulle kunna implementera resolution scaling och få samma effekt. Det skulle funka på alla kort också.

Skrivet av Dalton Sleeper:

Helt rätt, personligen tycker jag att 27" är så fjuttigt litet att det inte hör hemma 2019, men så har man suttit på 135" projektor de senaste 7 åren, och där vill man ha äkta 4k alla dagar i veckan men får nöja sig med lägre upplösning och supersamplad/DSR:ad eller multisamplad bild så långt grafikkorten pallar.

Pixlar är inte heller allt, det är ofta renderingen som ställer till att upplösningen känns låg och att det blir pixligt eller jaggigt. Kör man 8-16x SSAA så ser det ändå riktigt bra ut, bättre än ett eller två steg högre upplösning utan SSAA.

Kom igen. Majoriteten sitter garanterat fortfarande på 24". Personligen föredrar jag mindre format och högre uppdateringsfrekvens.

Skrivet av Xeno88:

Ser inte meningen med DLSS. Utvecklarna skulle kunna implementera resolution scaling och få samma effekt. Det skulle funka på alla kort också.

Jag är inte grafikprogrammerare. Men DLSS verkar innebära flera begränsningar (i alla fall i dagsläget) som t.ex. checkerboarding eller andra reconstruction metoder inte delar.

Jag citerar en annans sammanfattning av läget, som verkar korrekt försåvitt jag har förstått det hela.

Citat:

For devs, it's an obvious dead-end. Why bother working on DLSS support for a tiny subset of the market, that'll never grow to be a major part of it? Use checkerboarding, and open ML solutions when they're possible. For gamers, DLSS was a selling point of the hardware but if it gains little use and is to be superseded by in-game reconstruction, it was a poor feature to be sold on. It's, again, a pointer to me of a solution looking for a problem. RTX cards were going to have AI cores for their AI markets. nVidia then went looking for a way to use them to sell the cards to gamers. They'd have been better off creating reconstruction methods in compute as part of their libraries (which you hint should be quite straight forward and undemanding to implement ML models on compute anyway).

Skrivet av Dinoman:

Kom igen. Majoriteten sitter garanterat fortfarande på 24". Personligen föredrar jag mindre format och högre uppdateringsfrekvens.

Majoriteten av vad? De enda jag känner med 24" monitor är folk med väldigt gammal hårdvara, måttligt intresserade av datorer på det hela taget. Nu när det äntligen gå att få högre upplösning utan att behöva göra några större avkall på prestandan så borde det snarare tilltala fler att lämna 1080p (eller lägre) där det här hemma -- i historien.

Jag håller helt med er. Fler borde få bättre ekonomi. Att folk inte har råd att byta ut sina nuvarande skärmar då pengarna knappt går att betala hyran för är illa.

Så mer pengar åt folket

Skrivet av emilakered:

Jag är ärligt talat mer intresserad av DLSS-bitarna än ray tracing. DLSS framhålls av både Nvidia själva och en hel armé av vurmande påhejare som det bästa sedan skivat bröd. Äntligen får vi både prestanda OCH perfekt upplösning/kvalitet! Det är ju liksom kaka+äta!

..och sedan kom verkligenheten. I Metro Exodus ser det ut som skit, det är enda jag kan säga att jag tycker. Såklart Nvidia kan träna sin AI att få det (lite?) bättre, men svagheterna med tekniken är imho smärtsamt uppenbara.

Likadant med Battlefield V. Nu har vi inte hunnit kika på det något speciellt, men första rapporterna från både @JonasT och andra medlemmar pekar mot en tveksam (och suddig) upplevelse även där. Är det verkligen värt det? Speciellt när man som i BF V inte kan välja DLSS utan DXR, utan får båda i paket..

Jag ska väl lugna ned min rant lite! Är mest trött på PR-cirkusen runt just DLSS, hur fantastisk teknik för """kantutjämning""" det är i princip helt utan nackdelar – något som plockas upp och sväljs lite varstans. Men såklart.. kolla bara på 3DMark Port Royal, som råkar vara en fast sekvens helt perfekt för AI-träning! Oh, wait..

Jag tycker att de behövs startas en tråd om just detta med hur bra skivat bröd verkligen är i relation till andra "uppfinningar". Det kan kräva lite grävande journalistik tror jag.

On topic:
Känns det ändå inte lite som att det krävs mycket mer AI för att just DLSS verkligen skall kunna börja bli en riktigt gångbar funktion?
Det är lite som 20 serien generellt. Strålspårning i hårdvaran har framtiden framför sig det är helt klart. Dock har den eran precis bara börjat.

Skrivet av emilakered:

Jag är ärligt talat mer intresserad av DLSS-bitarna än ray tracing. DLSS framhålls av både Nvidia själva och en hel armé av vurmande påhejare som det bästa sedan skivat bröd.

Risken är att du träffat väl rätt här i din liknelse... Skivat bröd är ju trots allt en rätt dålig idé, brödet håller sig färskt och fräscht längre om man skapar "just-in-time" skivor från limpan 🍞🍞🍞

Skrivet av Lordsqueak:

DLSS - Det ser verkligen ut som att något blivit uppskalat med gaussian blur.
hmmm, inte precis vad jag förväntat mig.
Då såg det nog bättre ut i FF(vaddenuärförnummer), där det iallafall ser ut som att det försökt att använda sharpen efteråt. (ser dock inte så snyggt ut heller)
Känns ju rent spontant som att DLSS inte riktigt levererar, utan man kan lika gärna lägga på lite blur för att uppnå samma resultat.

Är det meningen att DLSS ska tränas på användarnas maskiner eller? (typ är den otränad nu?)

Ja, alltså DLSS är just precis det. Extrapolera pixlar som inte är där egentligen för att fylla ut bilden. Ser inte riktigt grejen. Man kan lika gärna bara skruva ner inställningarna och faktiskt köra på 4K istället.

Såg ett klipp där de jämförde, och 4K + DLSS ger ungefär samma som att köra 1800p + TAA eller så.

Så basically kan man få samma resultat av att manuellt sänka inställningar i spelet.

Antingen så är det PR-snack, eller så är DLSS inte riktigt moget ännu. Tiden får väl utvisa vilket som stämmer.

Skrivet av Sveklockarn:

Majoriteten av vad? De enda jag känner med 24" monitor är folk med väldigt gammal hårdvara, måttligt intresserade av datorer på det hela taget. Nu när det äntligen gå att få högre upplösning utan att behöva göra några större avkall på prestandan så borde det snarare tilltala fler att lämna 1080p (eller lägre) där det här hemma -- i historien.

Vi sitter och diskuterar ett spel så jag trodde det var ganska uppenbart.

Enligt Steam Survey så ligger 1080p fortfarande på 60%. Majoriteten av bildskärmar med upplösningen 1080p är på 24". Ett plus ett blir två, connect the dots, etc.

Som du ser så sitter jag själv på 34" 3440x1440p@100Hz men jag har nog självinsikt att inse att jag tillhör en försvinnande liten elit i sammanhanget.

Skrivet av Dalton Sleeper:

Förutom att raytracing i realtid mer eller mindre är lika stort steg som när spelen gick över i 3D, kanske tillåmed lika stort steg som när man började lira spel på dator. Att köra full raytracing innebär att du kommer att få den grafiken du vill, till den realistiska nivå du vill. Nu har det säkert sagts samma många gånger tidigare, men raytracing känns som slutstationen. Dock kommer prestandan och hårdvaran alltid att behöva optimeras för att skicka fler strålar. Första målet är väll ren raytracing i 1080p, sedan 4k, 8k, 16k och till sist raytracing som klarar LCD-"väggar" som när man går på stan. AR/VR behöver all detaljrikedom de kan få.

Sedan lär det väll mer å mer användas inom ljud, positionering i 3D 'r viktigt om man någonsin ska känna sig "hemma" i den virtuella världen.

Mer avancerade material är väll också att vänta.

Jag minns knappt att jag kört någon lägre än 8x AF någonsin, när det väl introducerades dvs. Det var inte speciellt stor prestandahit på den tiden heller.

Beror på vilket kort man hade, vet inte vad jag hade men det hade problem med AF så jag brukade köra trilnear eller till och bilnear filtering.
Ja ray tracing är framtiden men den kommer såsmåningom standardiseras och sen kommer nått nytt spännande ska du se och alla har glömt ray tracing som så många andra "dolda" tekniker som bara finns där och funkar.

Skickades från m.sweclockers.com

Skrivet av emilakered:

Speciellt när man som i BF V inte kan välja DLSS utan DXR, utan får båda i paket..

Vänta, är du seriös? Så de måste träna två separata modeller för med och utan DXR? Oh god... Så deras plan är verkligen att "Först måste man implementera DXR, därefter så kör vi den genom en superdator i några månader och tränar på den. Därefter får du kanske en bild som ser bra ut i DXR med hyfsat flyt. Vill du ha DLSS vanligt så tar det dubbla tiden". Jag tycker det inte känns som en säker investering just nu.

Skrivet av Yoshman:

DLSS ser inte bra ut här...

Givet hur maskininlärning fungerar och hur det är relaterat till vår egen förmåga att inse hur något borde se ut i lägen där det saknas detaljer borde det inte vara omöjligt att få något som DLSS att fungera.

Problemet här är "borde". Är ju full möjligt att det krävs långt mer träning och väsentligt mer avancerade neutralt nätverk för att det ska gå att nå dit, i värsta fall mer träning än vad som är ekonomiskt försvarbart

Uppenbara risken här är att Nvidia valde att stoppa in tensor-cores i RTX-korten och utfallet nu blivit: om det enda man har är en hammare blir lätt alla problem en spik... D.v.s risken finns att man skapar lösningar som använder tensor-cores, men har dessa lösningar verkligen ett relevant problem att lösa? (Det var en helt ärlig fråga, kan definitivt inte själv svara).

Att man stoppat in tensor-cores är inte så svårt att förstå, man vill försöka återanvända samma design för datacenter (där tensor-cores är extremt viktiga!) och konsumentprodukter (där tensor-cores är rätt mycket en nisch om man inte får till saker som DLSS).

Här kan man ju faktisk ta ett steg tillbaka och fundera på vad man egentligen försöker uppnå med DLSS. Börjar allt mer undra om inte checkerboard rendering, i alla fall just nu innan DLSS mognat, vore en långt bättre lösning både för de som vill köra ray-tracing i "normal" upplösning samt för de som vill kunna köra 4k (eller ännu högre) på dagens GPUer med vettig FPS.

Checkboard rendering skulle ju precis som DLSS minska trycket på RT-kärnorna (som verkar vara flaskhalsen med "RTX-on") då det är färre pixels per scen som man måste köra ray-tracing (backwards ray-tracing utgår ju från en tänkt kamera/öga genom ett 2D-plan som utgör de pixels man ska visa på skärmen).

För tillfället är checkboard rendering en mer mogen teknik jämfört med DLSS, men är problemet i Nvidias ögon att tensor-cores har inte så mycket att tillföra vid checkboard rendering?

Tittar man igenom GNs video ser man ändå att ray-tracing "automagiskt" fixar effekter som man hjälpligt kan simulera med tekniker som ambient occlusion och andra "hack". Så potential för DXR (och motsvarande i Vulkan) finns definitivt, frågan är bara när/om speltillverkarna lurar ut hur det effektivast används.

Risken finns självklart att dagens RTX-kort blir likt rätt många andra produkter som varit först med ny teknik, v1.0 blir nästan aldrig perfekt. Som exempel, de som köpte GeForce256 fick aldrig någon större glädje av HW-T&L, men bara ett par år senare var den finessen ett krav för många spel.

Kan inget annat än att hålla med. Ett av de stora problemen som jag ser är att tensor kärnorna kör i switched mode och blockerar alltså vanliga shaders. Det är därför NVIDIA ser det mer som en post process effekt när det kommer till DLSS. Att byta mode under flera tillfällen under en frame känns inte som en bra idé.

Ser man på GTX 16xx serien så verkar tensor kärnorna vara kvar medan RT kärnorna tagits bort. Så de verkar se något värde i att ha kvar dem?

Ett sidospår. AMD har en rätt så intressant patent att integrera inferens i videocodecen. Funktionen verkar ha att göra med att försöka interpolera med en framtida frame (Motion Prediction Engine)? (Här är NVIDIA med interpolering mellan redan existerande frames). Har inte läst igenom det så noga, men känns som det vi kallar för FPS kan bli allt mer diffust med saker såsom DLSS, inferens och allt möjligt.

Testade dlss+raytracing i 4k hdr med allt på ultra i battlefield 5 (2080ti OC, 6700k@4.5Ghz, PG27UQ), de släppte ju också precis stöd för detta.
Höll generellt 60-70 fps, ibland drops/spikes under/över men såg aldrig något drop under 52 fps.
Med RTX/DLSS av höll man runt 78 fps med samma settings. (testade war stories, nordlys/last tiger).
Det är ju trevligt att man får såpass bra fps i 4k raytracing med dlss, personligen tweakar jag dock alltid fps tills jag ligger närmare max refresh och offrar lite kvalitet, men det kändes aldrig laggigt att spela storymode med sådan fps.
Såg rent subjektivt väldigt bra ut, kanske det snyggaste jag sett i ett spel. Samtidigt ser det otroligt bra ut med dlss/rtx avaktiverat med, så..

Helt ärligt, kunde inte se någon skillnad mellan RTX on eller OFf?

@Swec:
Snälla lägg upp era youtube klipp i 4K format också.

Om DLSS är suddigare än vad det egentligen ska vara, hur är DLSS för Battlefield V?

Skrivet av Sebastian V:

Om DLSS är suddigare än vad det egentligen ska vara, hur är DLSS för Battlefield V?

Suddigare än vad det egentligen ska vara där också.

#17785613

Nu vet vi i all fall varför DLSS dröjde så länge, det ser ut som skit.

DLSS Off:

DLSS On:

DLSS är ett skämt. För att inte nämna att om man använder ett RTX 2080 Ti kan man bara nyttja DLSS i BF:V om man spelar i 2160p...

Raytracing tror jag på, och på sikt kommer det nog bli riktigt bra. DLSS däremot är definitionen av gimmick, och kommer nog bara bli en liten parentes i grafikens historia.

Senast redigerat 2019-02-14 06:42
Skrivet av Trigger:

Jag vet inte riktigt om jag tror på detta...

Hade varit kul att höra vad spelutvecklare siar om användning av ”ai” i spelgrafik

Jag tycker inte att det är så relevant att höra vad dom säger om AI (eftersom jag anser att det är en bluff) däremot vore det intressant att höra vad dom tycker om RayTracing.

Det kan ju vara så att spelutvecklare, av ekonomiska skäl eller andra, börjar använda sig av RayTracing eftersom det är mycket enklare, slut på bakade texturer osv. gör spelutvecklandet mycket mycket enklare (på bekostnad av prestanda (FPS) då.

Skickades från m.sweclockers.com

Raytracing är nog endå framtiden, men framtiden är inte här ännu. DLSS däremot? Njae... kanske i väldigt "statiska" spel?

@Yoshman (eller någon annan) skulle det vara tekniskt möjligt att bara använda DLSS på vissa objekt i en scen? Tänkt till exempel att man renderar just marken/miljön i ett RTS spel i lägre upplösning och sen skalar upp den med DLSS. Eftersom marken inte förändras borde det vara mycket lättare att lära sig för AIn?

Alla karaktärer/figurer som rör sig renderas däremot på vanligt vis.

Skickades från m.sweclockers.com

Hmm, hade jag fått ett blindtest hade jag nog inte kunnat avgöra vilket som var med raytracing off/on i första videon. Jag såg ingen förbättring överhuvudtaget, bara lite mer urblekta färger med raytracing på.
I motsvarande videos för Battlefield så såg jag iallafall en klar skillnad genom att studera reflektioner i olika ytor.

Skrivet av Radolov:

Vänta, är du seriös? Så de måste träna två separata modeller för med och utan DXR? Oh god... Så deras plan är verkligen att "Först måste man implementera DXR, därefter så kör vi den genom en superdator i några månader och tränar på den. Därefter får du kanske en bild som ser bra ut i DXR med hyfsat flyt. Vill du ha DLSS vanligt så tar det dubbla tiden". Jag tycker det inte känns som en säker investering just nu.
---Text--

But...
It just Works!
Visar ytterligare en svaghet med tekniken, att det skall krävas dessa vansiniga resurser, förutom en massa kretsyta på varje GPU för att få en uppskalning
Finns ju andra uppskalningtekniker som i praktiken "just works".

Skrivet av JonasT:

Jag har kört några testrundor med den nya drivrutinen och prestandaresultaten är oförändrade mot de som presenteras i artikeln.

Att jämföra faktiska prestandamätningar som görs på samma slinga mot en video där någon springer runt slumpmässigt på en bana med en fps-mätare skulle jag avråda från, då dessa har en tendens att inte vara jämförbara.

Tänkte mest på att ni nämde att ni körde Volga testet ingame för att testa DLSS.
Och eftersom det var en så markant skillnad kändes det nämnbart. För jag antar att både hairworks och PhysX är rätt prestandatunga settings.

Skrivet av Neroth:

Man kan lika gärna bara skruva ner inställningarna och faktiskt köra på 4K istället.

Såg ett klipp där de jämförde, och 4K + DLSS ger ungefär samma som att köra 1800p + TAA eller så.

Så basically kan man få samma resultat av att manuellt sänka inställningar i spelet.

Vad du vill säga är att man lika gärna kan skruva ner upplösningen, dvs inte köra 4K.

Skickades från m.sweclockers.com

Kan inte vänta tills denna nivå av grafik är möjlig i VR, mumma

Skrivet av Sveklockarn:

Majoriteten av vad? De enda jag känner med 24" monitor är folk med väldigt gammal hårdvara, måttligt intresserade av datorer på det hela taget. Nu när det äntligen gå att få högre upplösning utan att behöva göra några större avkall på prestandan så borde det snarare tilltala fler att lämna 1080p (eller lägre) där det här hemma -- i historien.

Jag har 6700k och 1070 vilket jag inte skulle räkna som väldigt gammal hårdvara och jag är fortfarande intresserad av datorer och spelar på den, och jag kör 24" 1080p och önskar ändå att jag hade mer prestanda ibland. Vill ha en 27" 1440p men då behöver jag även köpa ny dator vilket jag inte har prio på/råd med redan.

Skickades från m.sweclockers.com

OK, nu får man se hur DLSS faktiskt ser ut i ett spel. Och det är fan inte angenämt. Det är ju helt suddigt? Varför skulle jag någonsin vilja ha det så? Det ser för jävligt ut. Detta känns som någon riktigt meme-tech som de bara hittat på för att lura konsumenterna.

DXR ger i alla fall en förbättring på något sätt, även om det drar ner på FPS rejält. DLSS förstör ju bilden. Och så ska man betala premium för det.

Gör om, gör rätt.

Skrivet av Sveklockarn:

Majoriteten av vad? De enda jag känner med 24" monitor är folk med väldigt gammal hårdvara, måttligt intresserade av datorer på det hela taget. Nu när det äntligen gå att få högre upplösning utan att behöva göra några större avkall på prestandan så borde det snarare tilltala fler att lämna 1080p (eller lägre) där det här hemma -- i historien.

Högre upplösning, men det ser ut som man behöver tvätta bort fettet från sina glasögon. Suddigt som fan.

Senast redigerat 2019-02-14 10:08

Ray tracing är en cool teknik. Men ärligt talat så ser man knappt skillnad i många fall. Om man endast implementerar RT där det syns mest (t.ex. mörka miljöer) och med fokus på prestanda så kan det säkert bli riktigt bra! Men med dagens hårdvara måste utvecklarna vara betydligt mer återhållsamma med vad som ska vara reflekterande.

Skrivet av Xyborg:

Raytracing är nog endå framtiden, men framtiden är inte här ännu. DLSS däremot? Njae... kanske i väldigt "statiska" spel?

@Yoshman (eller någon annan) skulle det vara tekniskt möjligt att bara använda DLSS på vissa objekt i en scen? Tänkt till exempel att man renderar just marken/miljön i ett RTS spel i lägre upplösning och sen skalar upp den med DLSS. Eftersom marken inte förändras borde det vara mycket lättare att lära sig för AIn?

Alla karaktärer/figurer som rör sig renderas däremot på vanligt vis.

Som @Radolov nämner är tensor-kärnorna egentligen inte "kärnor" i bemärkelsen "kan köras parallellt med CUDA-kärnorna". Vad det i praktiken handlar om är att CUDA-kärnorna är utökade med beräkningsresurser (ALUs) för att hantera multiplikation av 4x4 matriser (FP16xFP16 -> FP32) på en enda cykel.

Att multiplicera matriser som har relativ låg precision är grunden för de flesta neuralanätverk nätverks som används i s.k. "supervised learning". DLSS är en form av "supervised learning". Så DLSS är inte "gratis", i alla fall inte om det körs i ett läge där CUDA-kärnorna behövs för andra uppgifter.

Detta är i kontrast till RT-kärnorna, de är verkligen fristående "kärnor" som kan köras (mestadels) parallellt med CUDA-kärnorna. (Mestadels då det i slutändan behövs någon form av beräkning när man hittat den triangel en stråle träffat, det hanteras med att köra en shader associerad med objektet triangeln tillhör).

Nvidia pushar DLSS som en Lego-block man kan slänga in som ett post-processing steg i existerande spelmotorer. Ett av huvudbudskapen är därför att det är tekniskt enkelt att addera DLSS. Av allt att döma är det nog också så i verkligheten.

Ignorerar man saker som att vissa rasteringsoperationer varken är kommutativa eller associativa (d.v.s. ordningen man processar data påverkar slutresultatet, i kontrast till t.ex. addition av heltal när det inte spelar någon roll vilken ordning man adderar termer) så borde det vara fullt möjligt att göra det du beskriver.

Men i det läget känns DLSS som ett ännu sämre val jämfört med checkerboard rendering! Nackdelen med checkerboard rendering ställt mot DLSS är att den förra inte bara är ett enkelt post-processing steg, i alla fall inte om man vill få lika bra resultat som PS4Pro.

I PS4Pro tar man hänsyn till hastighetsvektorer av objekt på skärmen för att avgöra hur man ska kombinera föregående scen med aktuell scen, något som löser en del uppenbara potentiella problem med checkerboard rendering i kombination med snabba rörelser (TAA har liknande problem med snabba rörelser, men å andra sidan fixar TAA saker som "pixel shimmering" så man får välja sitt gift här...).

Tycker checkerboard ger ett fantastiskt resultat i många lägen

Om man ändå lägger tiden på att addera "smart" uppskalning som en integrerad del spelmotorn har jag lite svårt att se varför man skulle välja DLSS över checkerboard rendering. I alla fall givet vad DLSS gett för resultat så här långt, checkerboard rendering fungerar ju oavsett RTX-on/off samt oavsett 4:3, 16:9, 21:9 eller vad man nu kör med.