Nvidia DLSS kan ge 50 procent högre prestanda i Monster Hunter: World

Nvidia DLSS kan ge 50 procent högre prestanda i Monster Hunter: World

Efter att ha malts en tid i Nvidias datacenter är det nu dags för Monster Hunter: World att få stöd för uppskalningstekniken DLSS, som ska ge över 50 procent högre bildfrekvens.

Läs hela artikeln här

Ah, här kommer spiken i kistan för Maxwell och Pascal..en feature som nerfar de äldre generationerna..

Fast nej! NvIdia gör ej detta!

Tycker det är fel att säga att 1440p med dålig uppskalning till hög kostnad är detsamma som 4K till låg kostnad. De är i princip motsatser.

Skrivet av VadSaDu:

Ah, här kommer spiken i kistan för Maxwell och Pascal..en feature som nerfar de äldre generationerna..

Fast nej! NvIdia gör ej detta!

På vilket sätt skulle det här "nerfa" äldre generationer?

Skickades från m.sweclockers.com

Men lägg ner DLSS, att de ens försöker. Lika bra att krypa till korset och bara köra ett enkelt uppskärpningsfilter som AMD gör (eller som man kunnat göra med tex SweetFX etc i många år).

Skrivet av ClintBeastwood:

På vilket sätt skulle det här "nerfa" äldre generationer?

Skickades från m.sweclockers.com

Men Nvidia gör ju inte detta.

Fast, när DLSS blir standard i spel som bär Nvidiatitlar så blir ju äldre gen Nvidiakort nerfade pga nya features.

Men igen, de gör ju ej detta.

Jag vet att du personligen tar illa upp av detta.

Kan tipsa om en intressant jämförelse från TechSpot / Hardware Unboxed mellan DLSS och Radeon Image Sharpening.

Citat:

For example, if you have a 4K display but want better performance, you can run games at 1800p or an 80% resolution scale. This will inevitably make the image softer as it’s not being rendered at the native resolution. Radeon Image Sharpening could post process that image, add a bit of sharpness back and get close to the native image for virtually no performance loss. In a sense it’s similar to what Nvidia is attempting with DLSS, and we’ll compare the two later on.

För de som gillar att läsa: https://www.techspot.com/article/1873-radeon-image-sharpening...
För de som gillar att kolla YouTube: https://www.youtube.com/watch?v=7MLr1nijHIo

För att sammanfatta:

Det DLSS försöker göra är att rendera en scen i t.ex. 1440p och sedan använda DLSS för att skala upp bilden till 4K och på så sätt få kvalitet som är bättre än bara uppskalad. Problemet med DLSS är att det inte är gratis, det ger en prestanda-effekt.

Hardware Unboxed gjorde då en jämförelse, vad händer om vi renderar i en upplösning någonstans mellan 1440p och 4K (tror de använde 1800p) och sedan använder Radeon Image Sharpening för att skala upp bilden till 4K? Resultatet blev faktiskt bra.

Eftersom Radeon Image Sharpening till skillnad från DLSS inte har någon performance impact alls kan man rendera i en högre upplösning för att få samma framerate, och samtidigt få ut en bild i klass med vad DLSS kan leverera, kanske t.o.m. något bättre på detaljrikedom.

Fördelen med RIS framför DLSS är också att det funkar i många fler spel. RIS funkar i allt som inte är DX11 i princip (d.v.s. allt som klarar DX9, DX12 eller Vulkan). (Visst, många spel är DX11-only, men det är ändå klart fler spel som funkar med RIS än DLSS.)

Det blir jag undrar är om DLSS-implementationen i Monster Hunter: World kommer att leverera ett bättre resultat än att bara rendera i en lite högre upplösning och lägga på ett filter som ger bättre skärpa. D.v.s. är det bara så att vi sett dåliga implementationer av DLSS hittills, eller går det att få det bättre än att bara lägga på ett sharpening-filter på en bild som är renderad i lite lägre upplösning?

Senast redigerat 2019-07-15 17:08
Skrivet av VadSaDu:

Men Nvidia gör ju inte detta.

Fast, när DLSS blir standard i spel som bär Nvidiatitlar så blir ju äldre gen Nvidiakort nerfade pga nya features.

Men igen, de gör ju ej detta.

Jag vet att du personligen tar illa upp av detta.

Men om dlss är en funktion som helt enkelt inte funkar på äldre kort så ska dom skita i det även på nya? Jag tar inte illa upp personligen men jag vet att jag bett dig om källa flera gånger men aldrig fått det. Att nerfa något är att göra det medvetet sämre..

Skickades från m.sweclockers.com

Skrivet av VadSaDu:

Men Nvidia gör ju inte detta.

Fast, när DLSS blir standard i spel som bär Nvidiatitlar så blir ju äldre gen Nvidiakort nerfade pga nya features.

Men igen, de gör ju ej detta.

Jag vet att du personligen tar illa upp av detta.

Hur kan DLSS bli en standard när ingen konsol förutom Nintendo använder Nvidia hårdvara? samt att det kräver tensor cores och att utvecklare specifikt utvecklar för det.

Hur många grafik”lull-lull”-reglage måste man dra ner för att motsvara samma fps i 4K, är det hela brädet eller de mest krävande bara? Om det är det senare så förstår jag inte vem som skulle välja DLSS.

Skickades från m.sweclockers.com

Jag vet inte vad jag ska tro om DLSS eller Nvidias optimeringar i drivrutinerna för specifika spel dock verkar det ju fungera men det känns lite som "fusk".

Helst skulle åtminstone jag vilja att grafikkretsarna har tillräcklig prestanda från början och de optimeringar som görs är generella för totala prestandan i kretsen dvs fungerar för alla spel.

Men vi är i början av Ray Tracing teknologin och om 1 eller 2 eller max 3 gpu generationer kanske Ray Tracing är vad DX10/11/12 är idag så kudos till Nvidia för införandet av en helt ny grafikteknologi i spel samt att det fungerar ganska ok ändå

Äh, ge mig skarpa högupplösta texturer i alla spel istället. Att det ska behövas modda spel för att få det är skit.
Sten ska se ut som sten, trä ska se ut som trä, ett blad ska se ut som ett blad - inte en bit plast, det ska synas hur ful Luke Skywalkers frissa är.

Dlss är värdelöst.
Fungerar bra med de upplösningar som Nvidia tycker är viktiga... har ingen användning av Dlss på en 32:9 skärm.

Skickades från m.sweclockers.com

Skrivet av _Merc_:

Hur kan DLSS bli en standard när ingen konsol förutom Nintendo använder Nvidia hårdvara? samt att det kräver tensor cores och att utvecklare specifikt utvecklar för det.

Samma anledning CUDA är de-facto standard för GPGPU? D.v.s. mervärdet kontra kostnaden är, eller i alla fall upplevs, som så fördelaktigt att många väljer den vägen.

@mill:
Inte för att vara spiken i ditt argument men 2018 lanserade Nvidia, Nvidia Freestyle. En del av Geforce Experience som har drivrutins-nivå post-process filter. https://www.geforce.com/en_GB/gfecnt/whats-new/articles/nvidi...

Mycket mer refinerat än AMDs implementation som är ett sent svar på Nvidias initiativ.

DLSS är ändå ett spännande koncept. Om nVidia nu bara kunde få tummen ur och ordna ett generellt stöd för alla upplösningar. Det är ju fascinerande tveksamt rent moraliskt att slå på stora trumman och sen bara supportera 4k och eventuellt 2560x1440. #nvidiagetyourshittogether

Har pastat innan, men https://www.youtube.com/watch?v=vIlo-zO1Lh4&feature=youtu.be
Anthem är väl enda spelet (som jag testat iaf) som stöttade enbart dlss (utan raytracing).
Jag spelade det och upplevde det som väldigt väl fungerande... video i 4k60 så man faktiskt ser hyfsat bra.

Skrivet av leadc4ge:

DLSS är ändå ett spännande koncept. Om nVidia nu bara kunde få tummen ur och ordna ett generellt stöd för alla upplösningar. Det är ju fascinerande tveksamt rent moraliskt att slå på stora trumman och sen bara supportera 4k och eventuellt 2560x1440. #nvidiagetyourshittogether

Tror det är ett koncept som bara är bra i 4k+, uppskalning generellt ser ju för jävligt ut i lägre upplösning så det finns inte så mycket att jobba med då. Spelade i en period i 1440p skalat till 4k innan 2080ti släpptes och gamla 1080-kortet bara inte orkade driva 4k.
Man kunde ju leva med det, såg ok men lite halvfult ut - det är en duglig grund spela på 1440p skalat till 4k så dlss måste inte fylla i såå mycket.

Att skala 1080p bra till 1440p och få det snyggt kräver nog magi, och då 1440p är relativt lättdrivet ändå kommer det nog inte prioriteras om det alls är möjligt.

Om/när 8k eller annu högre upplösningar slår igenom på bred front så kommer säkert det mesta spelas med någon sorts dlss eller andra liknande smarta uppskalningar. Jag tror dlss kan vara en halv-bra tidig version av en framtida standard.

Skrivet av str8forthakill:

@mill:
Inte för att vara spiken i ditt argument men 2018 lanserade Nvidia, Nvidia Freestyle. En del av Geforce Experience som har drivrutins-nivå post-process filter. https://www.geforce.com/en_GB/gfecnt/whats-new/articles/nvidi...

Mycket mer refinerat än AMDs implementation som är ett sent svar på Nvidias initiativ.

Menade inte på något sätt att AMD var först med post-process-filter för uppskärpning, tvärtom, det har ju funnits i flera år via program som SweetFX etc. Dock helt missat att det redan fanns stödför detta i drivrutinerna, så tack för den infon! Ska testas redan ikväll.

Dock är det ännu konstigare då att de ens gav sig på DLSS om de nu hade en bättre (?) lösning med uppskärpning redan färdigt.

@mill:
DLSS handlar om något helt annat, det är närmare att streama spel över internet, avlasta GPU belastning till för-rendrerade bilder som streamas in från internet. Istället för att hela spelet rendreras på servrar (dyrt i drift).

Skrivet av pv2b:

För att sammanfatta:

Det DLSS försöker göra är att rendera en scen i t.ex. 1440p och sedan använda DLSS för att skala upp bilden till 4K och på så sätt få kvalitet som är bättre än bara uppskalad. Problemet med DLSS är att det inte är gratis, det ger en prestanda-effekt.

Vill bara påpeka att prestanda-effekten är ju på rtx-cores, som annars bara idlar, därför kallar väl vissa det gratis. (se även videon någon gjort i anthem ovan, spelade det mycket och det gjorde mig positiv till dlss i 4k - såg väldigt mycket bätte ut än skalad 1440p till bättre fps än 4k).

Skrivet av str8forthakill:

@mill:
DLSS handlar om något helt annat, det är närmare att streama spel över internet, avlasta GPU belastning till för-rendrerade bilder som streamas in från internet. Istället för att hela spelet rendreras på servrar (dyrt i drift).

Nej DLSS är uppskalning baserat på data från machine learning.

Vart är denna värld på väg?

Jag fattar inte varför min dator skall göra ett jobb som utvecklaren borde gjort.
DLSS verkar för mig som ett sätt för olika mjukvaruföretag att få tillgång till min hårdvara för deras syften.
Om nu DLSS är så bra så varför kan inte spelutvecklaren se till att "AI träningen" redan är klar när spelet släpps ?

@Mordekai: Att applicera för-rendrerat material som är framtaget genom machine learning väl?

Skrivet av Svensktiger:

Jag fattar inte varför min dator skall göra ett jobb som utvecklaren borde gjort.
DLSS verkar för mig som ett sätt för olika mjukvaruföretag att få tillgång till min hårdvara för deras syften.
Om nu DLSS är så bra så varför kan inte spelutvecklaren se till att "AI träningen" redan är klar när spelet släpps ?

Är väl svårt att få utvecklarna att lägga för mycket resurser på en teknik som bara ett subsegment av användarna kan dra nytta av (de med RTX-kärnor). Jag gissar dock att det kommer någon nVidia sponsrad titel som gör detta och det bör ge ett betydligt bättre resultat. Dock är jag skeptisk till uppskalning generellt, känns som det är bättre att lägga energi och resurser på en äkta hög upplösning och snarare skala ner än upp.

@str8forthakill: Det känns mer som marknadsföringsspråk från nVidia för vad jag sade. Tror bara det handlar om specialanpassade uppskalningsalgoritmer baserat på data från spelet.

Skrivet av Svensktiger:

Jag fattar inte varför min dator skall göra ett jobb som utvecklaren borde gjort.
DLSS verkar för mig som ett sätt för olika mjukvaruföretag att få tillgång till min hårdvara för deras syften.
Om nu DLSS är så bra så varför kan inte spelutvecklaren se till att "AI träningen" redan är klar när spelet släpps ?

Ai träningen görs inte på din dator utan i nVidias datacenter. Tensor-cores på ditt grafikkort använder sedan det data som tagits fram i datacentret för att återskapa bilden så att den ska motsvara en 4K bild t.ex. Själv tror jag inte på DLSS, jag var rätt hypad ett tag över idéen men har insett att det troligtvis aldrig blir något vettigt av det hela.

Senast redigerat 2019-07-15 21:40
Skrivet av JBE:

Vill bara påpeka att prestanda-effekten är ju på rtx-cores, som annars bara idlar, därför kallar väl vissa det gratis. (se även videon någon gjort i anthem ovan, spelade det mycket och det gjorde mig positiv till dlss i 4k - såg väldigt mycket bätte ut än skalad 1440p till bättre fps än 4k).

DLSS körs dock på Tensor kärnorna och inte Ray Tracing kärnorna.

I all sin ära ska Nvidia veta att de har den bästa 1440p till 4k uppskalaren, frågan är hur bra detta kommer stå sig i längden mot 70-80% scaling med typ radeon image sharpening som kommer användas av många utvecklare för nästa generationens konsoller (förutom nintendo som sitter på nvidia hårdvara utan tensor kärnor).

Kommer inte röra DLSS tills jag sett ett spel där det funkar. Som det är nu så tar den bort/suddar detaljer.