Nvidia DLSS kan ge 50 procent högre prestanda i Monster Hunter: World

Permalänk
Melding Plague

Nvidia DLSS kan ge 50 procent högre prestanda i Monster Hunter: World

Efter att ha malts en tid i Nvidias datacenter är det nu dags för Monster Hunter: World att få stöd för uppskalningstekniken DLSS, som ska ge över 50 procent högre bildfrekvens.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

Ah, här kommer spiken i kistan för Maxwell och Pascal..en feature som nerfar de äldre generationerna..

Fast nej! NvIdia gör ej detta!

Visa signatur

-Stäng av snabbstart i ditt Windows.

Permalänk
Medlem

Tycker det är fel att säga att 1440p med dålig uppskalning till hög kostnad är detsamma som 4K till låg kostnad. De är i princip motsatser.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Medlem
Skrivet av VadSaDu:

Ah, här kommer spiken i kistan för Maxwell och Pascal..en feature som nerfar de äldre generationerna..

Fast nej! NvIdia gör ej detta!

På vilket sätt skulle det här "nerfa" äldre generationer?

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Men lägg ner DLSS, att de ens försöker. Lika bra att krypa till korset och bara köra ett enkelt uppskärpningsfilter som AMD gör (eller som man kunnat göra med tex SweetFX etc i många år).

Permalänk
Avstängd
Skrivet av ClintBeastwood:

På vilket sätt skulle det här "nerfa" äldre generationer?

Skickades från m.sweclockers.com

Men Nvidia gör ju inte detta.

Fast, när DLSS blir standard i spel som bär Nvidiatitlar så blir ju äldre gen Nvidiakort nerfade pga nya features.

Men igen, de gör ju ej detta.

Jag vet att du personligen tar illa upp av detta.

Visa signatur

-Stäng av snabbstart i ditt Windows.

Permalänk
Hedersmedlem

Kan tipsa om en intressant jämförelse från TechSpot / Hardware Unboxed mellan DLSS och Radeon Image Sharpening.

Citat:

For example, if you have a 4K display but want better performance, you can run games at 1800p or an 80% resolution scale. This will inevitably make the image softer as it’s not being rendered at the native resolution. Radeon Image Sharpening could post process that image, add a bit of sharpness back and get close to the native image for virtually no performance loss. In a sense it’s similar to what Nvidia is attempting with DLSS, and we’ll compare the two later on.

För de som gillar att läsa: https://www.techspot.com/article/1873-radeon-image-sharpening...
För de som gillar att kolla YouTube: https://www.youtube.com/watch?v=7MLr1nijHIo

För att sammanfatta:

Det DLSS försöker göra är att rendera en scen i t.ex. 1440p och sedan använda DLSS för att skala upp bilden till 4K och på så sätt få kvalitet som är bättre än bara uppskalad. Problemet med DLSS är att det inte är gratis, det ger en prestanda-effekt.

Hardware Unboxed gjorde då en jämförelse, vad händer om vi renderar i en upplösning någonstans mellan 1440p och 4K (tror de använde 1800p) och sedan använder Radeon Image Sharpening för att skala upp bilden till 4K? Resultatet blev faktiskt bra.

Eftersom Radeon Image Sharpening till skillnad från DLSS inte har någon performance impact alls kan man rendera i en högre upplösning för att få samma framerate, och samtidigt få ut en bild i klass med vad DLSS kan leverera, kanske t.o.m. något bättre på detaljrikedom.

Fördelen med RIS framför DLSS är också att det funkar i många fler spel. RIS funkar i allt som inte är DX11 i princip (d.v.s. allt som klarar DX9, DX12 eller Vulkan). (Visst, många spel är DX11-only, men det är ändå klart fler spel som funkar med RIS än DLSS.)

Det blir jag undrar är om DLSS-implementationen i Monster Hunter: World kommer att leverera ett bättre resultat än att bara rendera i en lite högre upplösning och lägga på ett filter som ger bättre skärpa. D.v.s. är det bara så att vi sett dåliga implementationer av DLSS hittills, eller går det att få det bättre än att bara lägga på ett sharpening-filter på en bild som är renderad i lite lägre upplösning?

Permalänk
Medlem
Skrivet av VadSaDu:

Men Nvidia gör ju inte detta.

Fast, när DLSS blir standard i spel som bär Nvidiatitlar så blir ju äldre gen Nvidiakort nerfade pga nya features.

Men igen, de gör ju ej detta.

Jag vet att du personligen tar illa upp av detta.

Men om dlss är en funktion som helt enkelt inte funkar på äldre kort så ska dom skita i det även på nya? Jag tar inte illa upp personligen men jag vet att jag bett dig om källa flera gånger men aldrig fått det. Att nerfa något är att göra det medvetet sämre..

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Avstängd
Skrivet av VadSaDu:

Men Nvidia gör ju inte detta.

Fast, när DLSS blir standard i spel som bär Nvidiatitlar så blir ju äldre gen Nvidiakort nerfade pga nya features.

Men igen, de gör ju ej detta.

Jag vet att du personligen tar illa upp av detta.

Hur kan DLSS bli en standard när ingen konsol förutom Nintendo använder Nvidia hårdvara? samt att det kräver tensor cores och att utvecklare specifikt utvecklar för det.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem

Hur många grafik”lull-lull”-reglage måste man dra ner för att motsvara samma fps i 4K, är det hela brädet eller de mest krävande bara? Om det är det senare så förstår jag inte vem som skulle välja DLSS.

Skickades från m.sweclockers.com

Visa signatur

Dell S2721DGFA ■ 5800X3D (Noctua NH-U12P) ■ RTX 3070 AORUS Master ■ 16x2 3200 CL16 ■ MSI B450M Mortar Max ■ Samsung EVO 970 1 TB ■ Fractal Design North + Switch OLED

Old: Pentium 4 -> Core 2 Duo E6750 -> i7 2600k -> R7 3700X

Permalänk

Jag vet inte vad jag ska tro om DLSS eller Nvidias optimeringar i drivrutinerna för specifika spel dock verkar det ju fungera men det känns lite som "fusk".

Helst skulle åtminstone jag vilja att grafikkretsarna har tillräcklig prestanda från början och de optimeringar som görs är generella för totala prestandan i kretsen dvs fungerar för alla spel.

Men vi är i början av Ray Tracing teknologin och om 1 eller 2 eller max 3 gpu generationer kanske Ray Tracing är vad DX10/11/12 är idag så kudos till Nvidia för införandet av en helt ny grafikteknologi i spel samt att det fungerar ganska ok ändå

Visa signatur

Bärbar: Dell G7 17-7790, i7-9750H, RTX2060, 144Hz ips
Mobil: Samsung Galaxy A71
Mediaspelare: Apple TV 4K 32GB

Permalänk
Medlem

Äh, ge mig skarpa högupplösta texturer i alla spel istället. Att det ska behövas modda spel för att få det är skit.
Sten ska se ut som sten, trä ska se ut som trä, ett blad ska se ut som ett blad - inte en bit plast, det ska synas hur ful Luke Skywalkers frissa är.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Dlss är värdelöst.
Fungerar bra med de upplösningar som Nvidia tycker är viktiga... har ingen användning av Dlss på en 32:9 skärm.

Skickades från m.sweclockers.com

Permalänk
Datavetare
Skrivet av _Merc_:

Hur kan DLSS bli en standard när ingen konsol förutom Nintendo använder Nvidia hårdvara? samt att det kräver tensor cores och att utvecklare specifikt utvecklar för det.

Samma anledning CUDA är de-facto standard för GPGPU? D.v.s. mervärdet kontra kostnaden är, eller i alla fall upplevs, som så fördelaktigt att många väljer den vägen.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@mill:
Inte för att vara spiken i ditt argument men 2018 lanserade Nvidia, Nvidia Freestyle. En del av Geforce Experience som har drivrutins-nivå post-process filter. https://www.geforce.com/en_GB/gfecnt/whats-new/articles/nvidi...

Mycket mer refinerat än AMDs implementation som är ett sent svar på Nvidias initiativ.

Permalänk
Medlem

DLSS är ändå ett spännande koncept. Om nVidia nu bara kunde få tummen ur och ordna ett generellt stöd för alla upplösningar. Det är ju fascinerande tveksamt rent moraliskt att slå på stora trumman och sen bara supportera 4k och eventuellt 2560x1440. #nvidiagetyourshittogether

Visa signatur

There are two kinds of people. People you drink with and people who make you want to drink.

Permalänk
Medlem

Har pastat innan, men https://www.youtube.com/watch?v=vIlo-zO1Lh4&feature=youtu.be
Anthem är väl enda spelet (som jag testat iaf) som stöttade enbart dlss (utan raytracing).
Jag spelade det och upplevde det som väldigt väl fungerande... video i 4k60 så man faktiskt ser hyfsat bra.

Permalänk
Medlem
Skrivet av leadc4ge:

DLSS är ändå ett spännande koncept. Om nVidia nu bara kunde få tummen ur och ordna ett generellt stöd för alla upplösningar. Det är ju fascinerande tveksamt rent moraliskt att slå på stora trumman och sen bara supportera 4k och eventuellt 2560x1440. #nvidiagetyourshittogether

Tror det är ett koncept som bara är bra i 4k+, uppskalning generellt ser ju för jävligt ut i lägre upplösning så det finns inte så mycket att jobba med då. Spelade i en period i 1440p skalat till 4k innan 2080ti släpptes och gamla 1080-kortet bara inte orkade driva 4k.
Man kunde ju leva med det, såg ok men lite halvfult ut - det är en duglig grund spela på 1440p skalat till 4k så dlss måste inte fylla i såå mycket.

Att skala 1080p bra till 1440p och få det snyggt kräver nog magi, och då 1440p är relativt lättdrivet ändå kommer det nog inte prioriteras om det alls är möjligt.

Om/när 8k eller annu högre upplösningar slår igenom på bred front så kommer säkert det mesta spelas med någon sorts dlss eller andra liknande smarta uppskalningar. Jag tror dlss kan vara en halv-bra tidig version av en framtida standard.

Permalänk
Medlem
Skrivet av str8forthakill:

@mill:
Inte för att vara spiken i ditt argument men 2018 lanserade Nvidia, Nvidia Freestyle. En del av Geforce Experience som har drivrutins-nivå post-process filter. https://www.geforce.com/en_GB/gfecnt/whats-new/articles/nvidi...

Mycket mer refinerat än AMDs implementation som är ett sent svar på Nvidias initiativ.

Menade inte på något sätt att AMD var först med post-process-filter för uppskärpning, tvärtom, det har ju funnits i flera år via program som SweetFX etc. Dock helt missat att det redan fanns stödför detta i drivrutinerna, så tack för den infon! Ska testas redan ikväll.

Dock är det ännu konstigare då att de ens gav sig på DLSS om de nu hade en bättre (?) lösning med uppskärpning redan färdigt.

Permalänk
Medlem

@mill:
DLSS handlar om något helt annat, det är närmare att streama spel över internet, avlasta GPU belastning till för-rendrerade bilder som streamas in från internet. Istället för att hela spelet rendreras på servrar (dyrt i drift).

Permalänk
Medlem
Skrivet av pv2b:

För att sammanfatta:

Det DLSS försöker göra är att rendera en scen i t.ex. 1440p och sedan använda DLSS för att skala upp bilden till 4K och på så sätt få kvalitet som är bättre än bara uppskalad. Problemet med DLSS är att det inte är gratis, det ger en prestanda-effekt.

Vill bara påpeka att prestanda-effekten är ju på rtx-cores, som annars bara idlar, därför kallar väl vissa det gratis. (se även videon någon gjort i anthem ovan, spelade det mycket och det gjorde mig positiv till dlss i 4k - såg väldigt mycket bätte ut än skalad 1440p till bättre fps än 4k).

Permalänk
Medlem
Skrivet av str8forthakill:

@mill:
DLSS handlar om något helt annat, det är närmare att streama spel över internet, avlasta GPU belastning till för-rendrerade bilder som streamas in från internet. Istället för att hela spelet rendreras på servrar (dyrt i drift).

Nej DLSS är uppskalning baserat på data från machine learning.

Permalänk
Medlem

Vart är denna värld på väg?

Permalänk
Medlem

Jag fattar inte varför min dator skall göra ett jobb som utvecklaren borde gjort.
DLSS verkar för mig som ett sätt för olika mjukvaruföretag att få tillgång till min hårdvara för deras syften.
Om nu DLSS är så bra så varför kan inte spelutvecklaren se till att "AI träningen" redan är klar när spelet släpps ?

Permalänk
Medlem

@Mordekai: Att applicera för-rendrerat material som är framtaget genom machine learning väl?

Permalänk
Medlem
Skrivet av Svensktiger:

Jag fattar inte varför min dator skall göra ett jobb som utvecklaren borde gjort.
DLSS verkar för mig som ett sätt för olika mjukvaruföretag att få tillgång till min hårdvara för deras syften.
Om nu DLSS är så bra så varför kan inte spelutvecklaren se till att "AI träningen" redan är klar när spelet släpps ?

Är väl svårt att få utvecklarna att lägga för mycket resurser på en teknik som bara ett subsegment av användarna kan dra nytta av (de med RTX-kärnor). Jag gissar dock att det kommer någon nVidia sponsrad titel som gör detta och det bör ge ett betydligt bättre resultat. Dock är jag skeptisk till uppskalning generellt, känns som det är bättre att lägga energi och resurser på en äkta hög upplösning och snarare skala ner än upp.

Permalänk
Medlem

@str8forthakill: Det känns mer som marknadsföringsspråk från nVidia för vad jag sade. Tror bara det handlar om specialanpassade uppskalningsalgoritmer baserat på data från spelet.

Permalänk
Medlem
Skrivet av Svensktiger:

Jag fattar inte varför min dator skall göra ett jobb som utvecklaren borde gjort.
DLSS verkar för mig som ett sätt för olika mjukvaruföretag att få tillgång till min hårdvara för deras syften.
Om nu DLSS är så bra så varför kan inte spelutvecklaren se till att "AI träningen" redan är klar när spelet släpps ?

Ai träningen görs inte på din dator utan i nVidias datacenter. Tensor-cores på ditt grafikkort använder sedan det data som tagits fram i datacentret för att återskapa bilden så att den ska motsvara en 4K bild t.ex. Själv tror jag inte på DLSS, jag var rätt hypad ett tag över idéen men har insett att det troligtvis aldrig blir något vettigt av det hela.

Permalänk
Medlem
Skrivet av JBE:

Vill bara påpeka att prestanda-effekten är ju på rtx-cores, som annars bara idlar, därför kallar väl vissa det gratis. (se även videon någon gjort i anthem ovan, spelade det mycket och det gjorde mig positiv till dlss i 4k - såg väldigt mycket bätte ut än skalad 1440p till bättre fps än 4k).

DLSS körs dock på Tensor kärnorna och inte Ray Tracing kärnorna.

I all sin ära ska Nvidia veta att de har den bästa 1440p till 4k uppskalaren, frågan är hur bra detta kommer stå sig i längden mot 70-80% scaling med typ radeon image sharpening som kommer användas av många utvecklare för nästa generationens konsoller (förutom nintendo som sitter på nvidia hårdvara utan tensor kärnor).

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem

Kommer inte röra DLSS tills jag sett ett spel där det funkar. Som det är nu så tar den bort/suddar detaljer.

Visa signatur

PG279Q | 6XX | X-Fi Titanium HD | RTX 2080 | 5800X3D
G.Skill 3200 CL14 | B450-F | 970 EVO | Seasonic 750W | Fractal R5