Vill du vara del av diskussionerna i forumet, ställa frågor eller hjälpa andra? Registrera dig här!

Nvidia skalar upp grafik-AI med DLSS 2.0

Nvidia skalar upp grafik-AI med DLSS 2.0

Den nya versionen av Nvidias AI-nätverk erbjuder uppskalad upplösning med prestanda som är dubbelt så bra som föregångaren.

Läs hela artikeln här

vi får se hur bildkvaliteten blir, men det blir nog en tredje gången gillt för Nvidia. jag tror för mycket detalj kommer gå förlorat fortfarande i uppskalningen (något som redan händer).

Många har kritiserat tekniken men jag tror att det är framtiden helt klart. Om några år lär till och med inbyggd grafik kunna köra DLSS och man kommer nog kunna spela 4k och kanske 8k med relativt billiga komponenter. Men å andra sidan var det mycket snack om molnet när XBOX One kom och det känns inte som det varit till så stor nytta så får se

Skrivet av _Merc_:

vi får se hur bildkvaliteten blir, men det blir nog en tredje gången gillt för Nvidia. jag tror för mycket detalj kommer gå förlorat fortfarande i uppskalningen (något som redan händer).

Har du kollat stillbildsjämförelserna?
Det ser ofta lika bra ut som native, och i flera fall ser det bättre ut.

Återigen så måste alla spel stöda detta, sen är frågan hur länge stödet finns kvar då spel blir snabbt gamla.

1.0

2.0 = "jpg-artefakt-konturer" DELUXE.
SKÄMTAR nvidia?

Senast redigerat 2020-03-24 09:50

Alla verkar ju tycka olika angående dlss, men jag tycker att dlss 2 ser riktigt lovande ut 🙂
Blir intressant att se ”riktiga jämförelser” längre fram från oberoende källor

Skrivet av superegg:

Återigen så måste alla spel stöda detta, sen är frågan hur länge stödet finns kvar då spel blir snabbt gamla.

I youtube-klippet som Nvidia släppte igår så säger de att DLSS 2.0 inte längre behöver stöd från spelet, utan det klarar sig själv på alla spel direkt tydligen. Om jag inte missförstod helt.

Skrivet av Thomas:

Har du kollat stillbildsjämförelserna?
Det ser ofta lika bra ut som native, och i flera fall ser det bättre ut.

Det ser ju bra ut i vad de visar och om det är faktum i verkligheten så blir det ju nice.

De höll inte vad de lovade eller visade sist, så ser ingen anledning alls att lite på dem denna gång innan jag ser det själv.

Skrivet av qwertylol1:

I youtube-klippet som Nvidia släppte igår så säger de att DLSS 2.0 inte längre behöver stöd från spelet, utan det klarar sig själv på alla spel direkt tydligen. Om jag inte missförstod helt.

Låter skumt, om man är beroende av deras serverkraft och jag spelar ett okänt spel hur ska den veta hur den kan förbättra bilden då måste den skicka mycket mellan dator och server.

Citat:

I samband med avtäckandet presenterar Nvidia också spel som får stöd för DLSS 2.0. Ett av de stora namnen är fjolårets Control från finska spelstudion Remedy Entertainment. Även Mechwarrior V får DLSS 2.0, och enligt utvecklaren Piranha Games ger detta spelet en gratis prestandaförbättring utan att offra bildkvalitet.

DLSS=BLURR ON

Bra teknik för att försöka fejka rendering i hög upplösning.
Duger dock bra om man inte har så skarp syn.

Skrivet av qwertylol1:

I youtube-klippet som Nvidia släppte igår så säger de att DLSS 2.0 inte längre behöver stöd från spelet, utan det klarar sig själv på alla spel direkt tydligen. Om jag inte missförstod helt.

DLSS behöver fortfarande implementeras per speltitel, men det är mindre tidskrävande att göra det då maskininlärningen för uppskalning nu är mer generell och inte specifik per spel. Förut behövde utvecklaren skicka in samples för Nvidias datacenter att träna fram en modell på, vilket kunde ta åtskilliga månader. Detta ska inte längre behövas.

SweClockers kryllar verkligen av experter som älskar å hata saker man aldrig testat... Efter att ha sett DLSS i Youngblood så är jag helt övertygad om att de är rätt väg å gå för å tillåta hög fps i kombination med RT eller för att göra mer komplexa spel tillgängliga för svagare hårdvara. Att gnälla på en sådan utveckling har jag ingen förståelse för.

Skrivet av superegg:

Återigen så måste alla spel stöda detta,

Finns det någon anledning till att du påstår att alla spel måste stödja detta?
Jag är inte helt med på varför det måste vara så.

Skrivet av superegg:

Låter skumt, om man är beroende av deras serverkraft och jag spelar ett okänt spel hur ska den veta hur den kan förbättra bilden då måste den skicka mycket mellan dator och server.

DLSS 2.0 är verkligen en "2.0" enligt vad som framkommit. När Nvidia började få feedback från skarp användning av första inkarnationen av DLSS insåg man rätt snabbt att det fanns en del fundamentala designmissar. Grundtanken var rätt, men det visade sig vara lite svårare att integrera i existerande spelmotorer än man önskade, att kontinuerligt träna för varje spel skalade inte etc.

AnandTech skriver

"Responding to both competitive pressure and the realization of their own technology limitations, the latest iteration of NVIDIA’s upscaling technology is a rather significant overhaul of the technique. While NVIDIA is still doing AI upscaling at a basic level, DLSS 2.0 is no longer a pure upscaler; NVIDIA is now essentially combining it with temporal anti-aliasing."

Läser man t.ex. vad TechSpot/HardwareUnboxed säger om DLSS 2.0 är det nu verkligen det som Nvidia siktade på och lovade initialt.

"After analyzing DLSS in Youngblood, there's no doubt that the technology works. The first version of DLSS was unimpressive, but it’s almost the opposite with DLSS 2.0: the upscaling power of this new AI-driven algorithm is remarkable and gives Nvidia a real weapon for improving performance with virtually no impact to visuals."

"The visual quality is impressive enough that we’d have to start benchmarking games with DLSS enabled"

Om man ska ta på sig Nvidias PR-hatt: DLSS 2.0 är inte bara "fine-wine", det är mer likt ett inbytesprogram där ditt OK-ish vin nu är ersatt mot en rejält mycket mer exklusive serie utan extra kostnad (det är inte något man associerar med "Nvidia" ).

Skrivet av hejsann:

2.0 = fula jpg-artefakt-konturer DELUXE... ok ..ugh.
https://i.postimg.cc/QtG9PNFB/1-copy.png

SKÄMTAR nvidia?
https://i.postimg.cc/tT3ZH06B/2.png

Ser riktigt bra ut.

Skrivet av Thomas:

Har du kollat stillbildsjämförelserna?
Det ser ofta lika bra ut som native, och i flera fall ser det bättre ut.

senaste hardware-unboxed gjorde test så var DLSS ganska dåligt i jämförelse med annat på marknaden.

Skrivet av _Merc_:

senaste hardware-unboxed gjorde test så var DLSS ganska dåligt i jämförelse med annat på marknaden.

Senaste testet från HardwareUnboxed/TechSpot är ju denna, där mer eller mindre helgonförklarar man tekniken (DLSS 2.0). Man nämner också flera gånger just hur man sågade DLSS 1.0

"Early DLSS implementations looked bad, producing a blurry image with artifacts. Battlefield V was a particularly egregious case, but even Metro Exodus failed to impress."

Skrivet av _Merc_:

senaste hardware-unboxed gjorde test så var DLSS ganska dåligt i jämförelse med annat på marknaden.

Tim på HU släppte ganska nyligen en video baserad på senaste Wolfenstein och DLSS 2.0. Han var mycket imponerad och öste beröm över det.

Som @Yoshman skriver längre upp så beskrev han det som i princip "gratis" prestanda.

Ser jävligt intressant ut, men eftersom det inte kommer från AMD så dissar vid det

synd att det inte funkar på 1080 TI

Är detta ute eller när kommer det ut?

Skrivet av Spawnbadboy:

Är detta ute eller när kommer det ut?

Det är ute nu. Både Wolfenstein: Youngblood och Deliver Us the Moon har haft det ett par månader medan stöd patchas in i Mechwarrior 5 och Control (26 mars).

Måste man ha tensor-kärnor för att det ska fungera? Har länge sneglat på ett 1660TI kort till min nya laptop, men om DLSS2 kommer fungera bra så vill jag ju ha ett 2060 istället.

Har bara testat Shadow of the tomb raider som hade DLSS igång som default-setting när jag testade det.
Kändes som man hade fått gråstarr, så om nu DLSS 2.0 är bättre, så kanske det känns som innan läsglasögonen åker på.

Skrivet av Oneone:

synd att det inte funkar på 1080 TI

Väntan på ersättare tycks bli lång med. :/

Skrivet av hejsann:

1.0

2.0 = "jpg-artefakt-konturer" DELUXE.

Det ser ut som typiska artefakter av för hårt applicerat skärpefilter. Jag tycker mig se samma sak i flera av Nvidias exempel.

Det vore ju tämligen pinsamt om den största förändringen bara beror på ett simpelt skärpefilter (alltså DLSS 1.0 + skärpefilter = DLSS 2.0), så jag hoppas jag har fel.

Gallerexemplet kan dock inte enbart bero på skärpefilter, för då skulle resultatet omöjligen bli så pass bra.

Skrivet av Goldfinger:

DLSS=BLURR ON

Bra teknik för att försöka fejka rendering i hög upplösning.
Duger dock bra om man inte har så skarp syn.

Hm.
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/ne...
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/ne...
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/ne... (visar utan, med gamla DLSS och med nya DLSS)

Tycker du verkligen att det är suddigare med DLSS på där? Eller går du på förra implementationen som var ganska hemsk?

Skrivet av talonmas:

Måste man ha tensor-kärnor för att det ska fungera? Har länge sneglat på ett 1660TI kort till min nya laptop, men om DLSS2 kommer fungera bra så vill jag ju ha ett 2060 istället.

Ja, du behöver ett RTX kort.

Tycker att det verkar lovande och det kommer ju likande i RDNA2 till konsolerna!

Skrivet av Goldfinger:

DLSS=BLURR ON

Bra teknik för att försöka fejka rendering i hög upplösning.
Duger dock bra om man inte har så skarp syn.

Fast om skiten redan är pixlig och man kisar så är effekten i princip samma sak.