Vill du vara del av diskussionerna i forumet, ställa frågor eller hjälpa andra? Registrera dig här!

Nvidia berättar hur bolaget förbättrar uppskalningstekniken DLSS

Nvidia berättar hur bolaget förbättrar uppskalningstekniken DLSS

Uppskalningstekniken DLSS har släppts för Metro Exodus och Battlefield V, med blandade resultat. Nvidia avslöjar nu hur bolaget ska förbättra teknikens bildkvalitet framöver.

Läs hela artikeln här

Anpassad för 4K... Vi vet ju hur "hög" fps man har med DLSS samt raytracing i den upplösningen.

Undrar lite lätt hur stora "källfilerna" för DLSS blir.

"För en optimal spelupplevelse med de senaste kvalitetsförbättringarna rekommenderas det således att hålla drivrutinerna uppdaterade."

Om man inte vill spela Apex Legends då som kraschar konstant om man har drivrutiner nyare än 417.71 på RTX kort. Nvidia måste verkligen höja kvalitén på sina drivare, de är i nuläget värre än vad AMD var när de var som sämst.

Fungerar det alltså så, att om man spelar i säg 1080p och slår på DLSS. Då sänkes upplösningen till något ännu lägre (fps ökar då),men sedan skalas bilden upp igen till 1080p med information i bildrutorna som kommer från Nvidias datacenter, som i sin tur baseras på väldigt högupplösta snapshots tagna ur spelet.
Eller har jag missat något?

Om inte nedskalningen sker ser jag ingen anledning till att man kan få högre fps med dlss på än att köra ren upplösning utan någon form av AA.

Skickades från m.sweclockers.com

@Beinerfelt: Normalt så kör du lägre upplösning än det du valt, DLSS skalar sedan upp den till det du har inställt. Dock lär det komma ytterligare en funktion där du exempelvis kör 4K och får detaljrikedom av 16K-32K.

Jag har iaf för stunden valt bort mitt RTX 2080 och kommer helt enkelt köra på GTX 1070 Ti istället fram tills RTX 20 serien får en ersättare om inte de händer något mirakulöst under 2019!

DLSS = Double Loaded Screen Softness

Lanserades först som Blur 2000 men det kändes som ett oklart budskap att ge för en teknik som ska sälja.

Dagens budget-tip aka "DLSS on a budget". Sänk upplösningen och peta inte bort ögonbajset på morgonen när ni vaknar. Låt skiten sitta kvar.

DLSS and ray tracing, it just works!

Skrivet av Lordsqueak:

Undrar lite lätt hur stora "källfilerna" för DLSS blir.

Inte så stora. De innehåller beskrivande data, inte bildfiler eller liknande i sig.

Skickades från m.sweclockers.com

Citat:

Bildfrekvensen å sin sida måste vara så pass låg att beräkningen för DLSS-bilden går snabbare än spelets rendering, annars slås funktionen automatiskt av.

#sistaspiken

Skickades från m.sweclockers.com

Skrivet av Dalton Sleeper:

@Beinerfelt: Normalt så kör du lägre upplösning än det du valt, DLSS skalar sedan upp den till det du har inställt. Dock lär det komma ytterligare en funktion där du exempelvis kör 4K och får detaljrikedom av 16K-32K.

Hur tänker du att det skulle fungera?

Skickades från m.sweclockers.com

nVidia: Det är inte vårt fel. Det är spelmotorns fel. Spelarna använder den fel.
Det är spelutvecklarnas fel att de implementerar det dåligt.

@sweisdapro: Det har nVidia pratat om redan, det blir mer som supersampling då deras träning jobbar på referensbilder med mycket högre upplösning än den man normalt spelar på, dvs mer detaljer. I princip är det ju vad DLSS gör nu, bara att dom först sänker upplösningen.

Flesta 4K tv kan ju skala upp input från lägre upplösningar, utan att belasta datorns eller en konsols hårdvara. Så varför inte bygga in den tekniken i datorskärmarna direkt istället.🤔

Skickades från m.sweclockers.com

Det jag är mest intresserad av när det kommer till DLSS är om det kan användas som ett billigare alternativ till MSAA, men med jämförbar bildkvalite. Som jag förstått det används det enbart för uppskalning än sålänge. Det jag skulle vilja är att bilden renderas i den upplösning den visas i, sedan skalas relevanta delar av bilden upp för att användas som input till en vanlig anti aliasing algoritm.

Det är ett häftigt koncept med DLSS, synd att resultatet är ganska uselt för tillfället. En del av mig undrar: har de inte testat detta innan de implementerade det i GPUer??

@Playboy_1338: Detta är en helt annan typ av uppskalningsteknik. DLSS använder maskininlärning för att gissa sig till detaljer som saknas i bilden, och har implementerats så att den använder ett unikt dataset för varje spel. TVn använder enkel interpolering eller liknande för att jämna ut bilden och undvika taggiga kanter. Din datorskärm klarar också av att göra detta, bara gå in och ändra upplösningen som datorn matar skärmen med.

Är det bara jag som tycker det är lite obehagligt att Nvidias serverparker ska lägga sig i när jag spelar? /foliehatt on

Får ju verkligen hoppas att det förbättras en hel del. Aja, hur eller hur så finns ju RT om inte annat och det är ju framtiden helt klart.

Det som dock är konstigt är att de ens släppte funktionen (DLSS) till dessa kort när det nu ett halvår efter RTX-launch fortfarande knappt finns och när det finns inte fungerar bra alls. Mycket märkligt tycker jag. Bättre de hade testat det internt en längre tid och sen kommer det med RTX 3000-serien eller något istället. Väl fungerade och värt det mervärde de tar ut i pengar för korten.

Skrivet av superapan:

Är det bara jag som tycker det är lite obehagligt att Nvidias serverparker ska lägga sig i när jag spelar? /foliehatt on

Hmm. Kan det röra sig om ett missförstånd här kanske? Nvidias servrar är inte inblandade när kör något på din dator. Det man använder serverparkerna till är att i förtid ta fram bildmaterial som kan stoppas in för att förbättra bildkvalitén för lägre upplösningar. Nvidia kör alltså sina servrar på högvarv innan spelet ens släpps och det är inte kopplat till vad du gör på datorn.
Det du sedan gör är att hämta hem det här paketet med servergenererat innehåll och med nvidiakortet i datorn kan man sedan generera effekter i from av DLSS. Det här fungerar hur bra som helst offline

Skrivet av Söderbäck:

Nvidia kör alltså sina servrar på högvarv innan spelet ens släpps och det är inte kopplat till vad du gör på datorn.

Det var det vi såg effekten av i Metro Exodus?

IT JUST WORKS

Finns utrymme för förbättringar av DLSS helt klart. Jag provade att slå på det men om man kollar noga så försvinner det en hel del skärpa i texturer och så.

Skämt åsido så blir jag inte riktigt klok på hur bra DLSS egentligen potentiellt är, om det implementeras "perfekt". Infon från Nvidia är till stor del en massa PR-mumbojumbo, såklart, alla texter passerar PR-avdelningen som har betalt för att försöka skapa en hype.

Men jag tänker att rent tekniskt så borde det nuvarande resultatet vara långt från det som deras (icke-PR) ingenjörer har tänkt sig och lagt ner åratal av utveckling på? Jag menar allt jobb med dedikerad hårdvara, drivrutiner och hela köret, varför är det inte betydligt bättre än vad vi sett? Känns som nånting saknas. Är det helt enkelt släppt ofärdigt?

Senast redigerat 2019-02-17 22:27

Nvidia: Bla bla it just works bla bla soon works bla bla nåja vi fick er att köpa våra övehypade kort ändå så.

Skrivet av Playboy_1338:

Flesta 4K tv kan ju skala upp input från lägre upplösningar, utan att belasta datorns eller en konsols hårdvara. Så varför inte bygga in den tekniken i datorskärmarna direkt istället.🤔

Skickades från m.sweclockers.com

Uppskalning finns inte bara i 4KTVs utan i alla TVapparater från de senaste 15 åren. Samma sak gäller alla datorskärmar sedan väldigt länge.
Sätter du igång ett spel och ställer inte lägre upplösning i spelet än skärmens upplösning så skickar du vanligen ut en lägre upplöst bild till skärmen som måste skalas upp efteråt. Det här kan alla skärmar så den funktionen finns redan ;).

Det man försöker uppnå med DLSS är att ta fram en metod som ger mycket bättre bild i uppskalningen än vad en färdig generellt uppskalningsalgoritm kan klara av att leverara. Man kan bara göra "så mycket" när man skalar upp en bild i skärmens hårdvara.
DLSS innebär både anpassad uppskalning per spel och till detta kommer även ett massivt dataset med information om hur saker kan se ut i högre upplösningar och efter uppskalningen tillförs bildförbättringar baserade på datasetet som är unikt för varje spel.

Man vill alltså ta fram en mycket vassare metod för uppskalning.
Sedan är väl frågan hur mycket bättre det egentligen är än så länge ;). Vi får väl se vad det kan innebära närmsta året.

Positivt att Nvidia svarat så snabbt på kritiken och att dom faktiskt jobbar på att lösa problemen. Det hade dock varit bra om dom hade beskrivit hur det fungerar med fördelning av lasten mellan CUDA-cores vs Tensor-cores tidigare med avseende på beslastning.

Det politisk korrekta här på SWEC har varit att såga både RT och DLSS innan man ens har gett den chansen att visa vad det kan ge. Det är ny teknik och den är aldrig perfekt från day one, ny teknik tar tid att mogna ungefär som AMD's grafikdrivrutiner.

Senast redigerat 2019-02-17 23:19

Bra i alla fall att Nvidia jobbar på att förbättra DLSS, bra teknik på pappret får hoppas det presterar i praktiken också längre fram. Ray tracing är jag dock redan imponerad av, riktigt snyggt blev det i BF V.

Vem med vettet i behåll har AA över huvud taget när dom spelar i 4k? Det behövs ju inte. I alla fall på upp till 32" skärmar. Kanske 40" och uppåt, men då sitter man väl längre undan så det jämnar ut sig (nu pun intended)

Och 4K med raytracing på..jo tjena. Nästa bild tack.

Skrivet av marcusOCZ:

Vem med vettet i behåll har AA över huvud taget när dom spelar i 4k? Det behövs ju inte. I alla fall på upp till 32" skärmar. Kanske 40" och uppåt, men då sitter man väl längre undan så det jämnar ut sig (nu pun intended)

Och 4K med raytracing på..jo tjena. Nästa bild tack.

Många som gör det faktiskt. Jag är inte en av dom.
Jag är tack o lov inte så känslig så att jag behöver just AA på om jag kan få behövliga fps med det av oavsett upplösning.
Tycker det är viktigare med skarpa texturer.