Nvidia DLSS kan ge 50 procent högre prestanda i Monster Hunter: World

Permalänk
Medlem

Jag tror att DLSS kommer bli bra till nästa generation rtx 3000 serien. Tanken med ML är god men verkar vara så att tensor hårdvaran inte klarar av att göra den den behöver för att avlasta de andra kärnorna.

Permalänk
Medlem
Skrivet av ChaosClocker:

Kommer inte röra DLSS tills jag sett ett spel där det funkar. Som det är nu så tar den bort/suddar detaljer.

vill minas att olika youtube kanaler tycker att Shadow of the tomb raider ser bättre ut med
DLSS en med TAA.

Visa signatur

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Permalänk
Medlem
Skrivet av wowsers:

DLSS körs dock på Tensor kärnorna och inte Ray Tracing kärnorna.

I all sin ära ska Nvidia veta att de har den bästa 1440p till 4k uppskalaren, frågan är hur bra detta kommer stå sig i längden mot 70-80% scaling med typ radeon image sharpening som kommer användas av många utvecklare för nästa generationens konsoller (förutom nintendo som sitter på nvidia hårdvara utan tensor kärnor).

Ja, jag blandade ihop det, poängen var iaf "cores som annars idlar i spel".

Permalänk
Medlem
Skrivet av JBE:

Tror det är ett koncept som bara är bra i 4k+, uppskalning generellt ser ju för jävligt ut i lägre upplösning så det finns inte så mycket att jobba med då. Spelade i en period i 1440p skalat till 4k innan 2080ti släpptes och gamla 1080-kortet bara inte orkade driva 4k.
Man kunde ju leva med det, såg ok men lite halvfult ut - det är en duglig grund spela på 1440p skalat till 4k så dlss måste inte fylla i såå mycket.

Att skala 1080p bra till 1440p och få det snyggt kräver nog magi, och då 1440p är relativt lättdrivet ändå kommer det nog inte prioriteras om det alls är möjligt.

Om/när 8k eller annu högre upplösningar slår igenom på bred front så kommer säkert det mesta spelas med någon sorts dlss eller andra liknande smarta uppskalningar. Jag tror dlss kan vara en halv-bra tidig version av en framtida standard.

Jo det är min upplevelse också, med förtydligandet att det är väl pixeltäteheten som spelar mest roll för upplevelsen. I min kommentar tänkte jag främst på andra aspect ratios typ 32:9 och 21:9. Finns ju en hel del där som har potentiellt hög pixeltätehet också och där DLSS skulle kunna lira. Typ 5120x1440.

Visa signatur

There are two kinds of people. People you drink with and people who make you want to drink.

Permalänk
Inaktiv
Skrivet av Nyhet:

går från ospelbara 23,6 FPS

Konsolfolket känner sig kränkta och lämnar in en anmälan mot Sweclockers för ofredande.

Permalänk
Hedersmedlem
Skrivet av ChaosClocker:

Kommer inte röra DLSS tills jag sett ett spel där det funkar. Som det är nu så tar den bort/suddar detaljer.

DLSS bygger på att rendera spelet i en lägre upplösning och sedan skala upp det. Det innebär att du alltid kommer förlora detaljer såvida inte DLSS kan fylla i detaljer som aldrig ritades upp i första fallet. Något som i bästa fall kan funka ibland. Så du kommer i så fall aldrig röra det.

Det hela känns ju jättedumt eftersom alternativet som är att rendera i en högre upplösning och lägga på ett filter som ökar skärpan både ger en skarpare bild och innehåller fler detaljer eftersom renderingsupplösningen är högre.

Dessutom kräver inte detta en massa servertid för att träna en maskininlärningsmodell och kan appliceras på i teorin alla spel.

Skickades från m.sweclockers.com

Permalänk
Medlem

Jisses med de där prestanda siffrorna borde de fokusera på NVlink optimering istället, rätt kul att köpa en GPU för 11k och sen ligga i 47 fps. Spel i 4K ligger verkligen långt bort i framtiden för mig.

Visa signatur

i7-7700K @5GHz | Corsair H115i | MSI Z270 SLI PLUS | GTX 1060 6GB | G.Skill 16GB @3200MHz | Samsung 960 EVO 250GB | Intel 600p Series 512GB | be quiet! Dark Power Pro 850W | iiyama Red Eagle G-Master 24" 144HZ

Permalänk
Rekordmedlem

Det här är väl mest trams för att dölja att korten helt enkelt inte klarar att rendera bilder ttill normala skärmar (4K) ännu.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Hedersmedlem
Skrivet av aToria:

Jisses med de där prestanda siffrorna borde de fokusera på NVlink optimering istället, rätt kul att köpa en GPU för 11k och sen ligga i 47 fps. Spel i 4K ligger verkligen långt bort i framtiden för mig.

Det är iofs värt att komma ihåg att detta är testat i max inställningar. Många spel kan man ställa ner grafikinställningar som ger nästan ingen märkbar skillnad på bilden men som är dyra prestandamässigt. Därför är det ibland missvisande att titta på FPS-värden vid maxinställningar och tänka "det här är vad jag får".

Permalänk
Medlem
Skrivet av pv2b:

Det är iofs värt att komma ihåg att detta är testat i max inställningar. Många spel kan man ställa ner grafikinställningar som ger nästan ingen märkbar skillnad på bilden men som är dyra prestandamässigt. Därför är det ibland missvisande att titta på FPS-värden vid maxinställningar och tänka "det här är vad jag får".

Ja det har du ju iofs rätt i, och värt att poängtera. Lite surt är det dock att man inte bekvämt kan maxa nya spel i 4k oavsett hur mycket pengar man sänker i en spelmaskin. Om man börjar tumma på grafikinställningar så känns det som att man frångår hur spelskaparna såg sig spelet när de gjorde det, men det är kanske är en orimlig rädsla, och problematiken är sannerligen inget nytt under solen.

Visa signatur

i7-7700K @5GHz | Corsair H115i | MSI Z270 SLI PLUS | GTX 1060 6GB | G.Skill 16GB @3200MHz | Samsung 960 EVO 250GB | Intel 600p Series 512GB | be quiet! Dark Power Pro 850W | iiyama Red Eagle G-Master 24" 144HZ

Permalänk
Medlem
Skrivet av aToria:

Ja det har du ju iofs rätt i, och värt att poängtera. Lite surt är det dock att man inte bekvämt kan maxa nya spel i 4k oavsett hur mycket pengar man sänker i en spelmaskin. Om man börjar tumma på grafikinställningar så känns det som att man frångår hur spelskaparna såg sig spelet när de gjorde det, men det är kanske är en orimlig rädsla, och problematiken är sannerligen inget nytt under solen.

Jag kör inte lika mycket AA sedan jag bytte från 1080p till 1440p. Har man en 4k skärm behöver man t.om ännu mindre om jag förstått det rätt och just AA är en inställning som kan ge rätt många fps.

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Men om dlss är en funktion som helt enkelt inte funkar på äldre kort så ska dom skita i det även på nya? Jag tar inte illa upp personligen men jag vet att jag bett dig om källa flera gånger men aldrig fått det. Att nerfa något är att göra det medvetet sämre..

Skickades från m.sweclockers.com

Personen antingen trollar eller förstår inte vad "nerf" innebär.

Visa signatur

Ryzen 5600x (Noctua NH-D15) || Kingston Fury 32GB 3600MHz
ASUS Prime X470 PRO || ASUS GeForce RTX 3080 Tuf OC
Fractal Design Define S (6x chassifläktar) || Corsair RM750X v2
FURY Renegade 2TB || WD Blue 1TB M.2 || LG C2 42" + XB271HUA

Permalänk
Medlem
Skrivet av str8forthakill:

@Mordekai: Att applicera för-rendrerat material som är framtaget genom machine learning väl?

Nej, inget förrenderat alls. DLSS innebär att nVidia låtit en AI testa massor av efterbehandlingsalgoritmer på låt säga 1440P uppskalattill 4K, jämfört dessa med äkta 4K för att se vilka algoritmer som var effektivast på att få 1440P att likna 4K i vilka spel. Resultatet på algoritmer som valts ut sparas. När spelet sedan spelas så kan drivrutinen köra de efterbehandlingsalgoritmer som nVidias analys vid tidigare tillfälle bestämt är bäst lämpade för spelet.

Permalänk
Medlem
Skrivet av JBE:

Tror det är ett koncept som bara är bra i 4k+, uppskalning generellt ser ju för jävligt ut i lägre upplösning så det finns inte så mycket att jobba med då. Spelade i en period i 1440p skalat till 4k innan 2080ti släpptes och gamla 1080-kortet bara inte orkade driva 4k.
Man kunde ju leva med det, såg ok men lite halvfult ut - det är en duglig grund spela på 1440p skalat till 4k så dlss måste inte fylla i såå mycket.

Att skala 1080p bra till 1440p och få det snyggt kräver nog magi, och då 1440p är relativt lättdrivet ändå kommer det nog inte prioriteras om det alls är möjligt.

Om/när 8k eller annu högre upplösningar slår igenom på bred front så kommer säkert det mesta spelas med någon sorts dlss eller andra liknande smarta uppskalningar. Jag tror dlss kan vara en halv-bra tidig version av en framtida standard.

Off
Testade du att ändra smothness till 15% verkar vara sweet spot. Fungerar för mig i äldre spel och 1080p.

On
dlss tror jag har en framtid inom streaming för att få ner bandbredden. Nu blir det and på nästa konsol generation. Om Må väljer annat i sinna servrar. Vad Google väljer vet jag inte eller Amazon för den delen. Men att skicka en bild samt algoritm borde dra mindre bandbredd än en komprimerad bild. Bara mina tankar.

Skickades från m.sweclockers.com

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Jag kör inte lika mycket AA sedan jag bytte från 1080p till 1440p. Har man en 4k skärm behöver man t.om ännu mindre om jag förstått det rätt och just AA är en inställning som kan ge rätt många fps.

Skickades från m.sweclockers.com

Det låter rimligt, att man behöver mindre AA på högre upplösningar, men tror du att test som det här maxar AA också som en del av "all grafik på max"? Det vore ju otympligt.

Visa signatur

i7-7700K @5GHz | Corsair H115i | MSI Z270 SLI PLUS | GTX 1060 6GB | G.Skill 16GB @3200MHz | Samsung 960 EVO 250GB | Intel 600p Series 512GB | be quiet! Dark Power Pro 850W | iiyama Red Eagle G-Master 24" 144HZ

Permalänk
Hedersmedlem
Skrivet av Svensktiger:

Jag fattar inte varför min dator skall göra ett jobb som utvecklaren borde gjort.
DLSS verkar för mig som ett sätt för olika mjukvaruföretag att få tillgång till min hårdvara för deras syften.
Om nu DLSS är så bra så varför kan inte spelutvecklaren se till att "AI träningen" redan är klar när spelet släpps ?

Det här har du fått svar på redan när du undrat över liknande saker kring DLSS
#17800353

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Yoshman:

Samma anledning CUDA är de-facto standard för GPGPU? D.v.s. mervärdet kontra kostnaden är, eller i alla fall upplevs, som så fördelaktigt att många väljer den vägen.

Vem har sagt det? Visst att CUDA används men att det skulle vara en sorts de facto standard är helt fel.

Skickades från m.sweclockers.com

Permalänk
Medlem

Hur står sig 4k med dlss mot 2k utan? Är bildkvaliten bättre? Annars känns det ganska meninglöst.

Visa signatur

CachyOs. MSI MPG Z490 GAMING PLUS// Intel Core i5-10600K@4800Mhz// Radeon rx 6800 16gb // Corsair VENGEANCE LPX 32GB.

Permalänk
Medlem
Skrivet av hACmAn:

Off
Testade du att ändra smothness till 15% verkar vara sweet spot. Fungerar för mig i äldre spel och 1080p.

Skickades från m.sweclockers.com

Tror att jag inte förstår vad du menar. (menar du kanske DSR supersampling? jag spelade tvärtom, dvs spelade i 1440p på en 4k monitor).
Eller finns det en generell setting jag inte vet om med smoothness för skalning?

Permalänk
Medlem

@Scirocco: I anthem är det det, enda spel jag sett med ren dlss. Saker nära dig ser ut som 4k, medan gissningsvis algoritmen fuskar med saker längre bort för där kan det se ut som 1440p. Vet inte säkert, men såg ut så. Inte spelat det nyligen.. otroligt bra grund-spel och gameplay, men nästan inget att göra efter ett par veckor.

Pastade en video tidigare i tråden där någon i 4k60 jämför on/off sida vid sida.

Permalänk
Medlem

Med dlss så blir det sämre kvalitet, där av fps ökning. Greedvidia skämt

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av frong:

Personen antingen trollar eller förstår inte vad "nerf" innebär.

Oavsett blev det inga bevis. Inte den här gången heller. Jag får testa igen nästa gång

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Off:
@JBE:
Ja det är DSR. Jag har 1080p så kör 4x för att få det till 4K

I nVidias kontrollpanel så har du precis under där du slår DSR.
DSR smothening. Den är som standard på 33%. Sweet spot värkar vara 15%.
Här ser du var den inställningen är.
http://i.imgur.com/sFeYEOA.png

Hittade dessvärre inte guiden jag använde och testade runt med. Då de testade ett helt gäng med varianter på texturer i Skyrim.

Edit:
Nu skrev jag iofs om att rendera i högre och sedan sänka. I dit fall så var det ju tvärt om.
Kan tyvärr inte den biten.
Tror att de ända man kunde göra var att gå in på "Adjust desktop size and position" och sätta "Pefrom scaling on: till GPU istället för Display. Men där finns som du påpekade ingen Smotness faktor. Nu är jag ute på rickigt tunn is.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Datavetare
Skrivet av thomas_skane:

Vem har sagt det? Visst att CUDA används men att det skulle vara en sorts de facto standard är helt fel.

Skickades från m.sweclockers.com

Är rätt många GPGPU fall som enbart stödjer CUDA. T.ex. Tensorflow, PyTorch och Matlab GPU-computing (finns betydligt fler exempel).

Orsak? Testa att utveckla i CUDA resp. OpenCL. Om din tid inte är värdelös borde det vara uppenbart varför många kommersiella applikationer enbart erbjuder CUDA stöd.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Är rätt många GPGPU fall som enbart stödjer CUDA. T.ex. Tensorflow, PyTorch och Matlab GPU-computing (finns betydligt fler exempel).

Orsak? Testa att utveckla i CUDA resp. OpenCL. Om din tid inte är värdelös borde det vara uppenbart varför många kommersiella applikationer enbart erbjuder CUDA stöd.

Och de som bara stöder OpenCL? Irrelevant?

Skickades från m.sweclockers.com