AMD:s DLSS-utmanare FidelityFX Super Resolution kan lanseras i vår

Permalänk
Medlem

Jag kan tänka mig att det kommer i en drivrutinsuppdatering i samband med lanseringen av ett ev RX 6700 XT. Det kan ju faktiskt vara en av orsakerna till att vi inte sett några nya mellanklasskort från AMD än, dvs att man inväntar att det ska bli klart. Ett långsammare kort som 6700 XT kan förmodligen behöva draghjälp av den här tekniken vid raytracing för att bättre stå sig mot Nvidias kort vid lanseringen. Så jag tror det blir ett paket; nytt kort med ny funktion i ny drivrutin.

Dessutom kan det ju inte heta Radeon Software 2020 Edition så mycket längre.

En del tror fortfarande att DLSS tränas specifikt på varje spel. Så var det i den första versionen, men det lade Nvidia ner eftersom det inte funkade så bra. Nu är det en mer generell algoritm. Inte för att jag vet hur den funkar, men att det kan ge så bra resultat nu beror på att det också ingår att plocka information ur flera tidigare bildrutor i kombination med rörelsevektorer istf att bara försöka "gissa". Informationen finns till stor del redan i tidigare bildrutor, den måste bara extraheras. Därför kan DLSS 2.0 ge fler detaljer än native när det funkar optimalt.

Jag hoppas att AMD tänker sig något liknande, eftersom det är en så framgångsrik teknik. Vore dumt att inte använda de matematiska verktyg för matriser som funnits sedan länge.

Permalänk
Medlem
Skrivet av hypermode:

Fast det här låter spontant som en hyffsat tveksam idé. De som kollat på hockey med variable bitrate hatar detta. Inget sport-fan själv men en god vän sa att han initialt inte förstod varför man inte kunde se pucken när det väl började hända grejer, fastän bilden var pristine vid andra tillfällen. "Nä, när det händer mycket på skärmen kan du ändå inte uppfatta ett smack så vi skiter fullständigt i allt istället!"

Vad menar du? Variabel bitrate är ju till för att motverka detta, inte tvärtom (spara bandbredd när det är låg komplexitet för att kunna spendera mer när det behövs). Sen att den ändå är för låg för mycket rörelse må hända (streamingtjänsternas vbr är generellt väldigt snäv) men det är ju en annan sak.

Permalänk
Medlem

Jag är fortfarande inte övertygad om att skivat bröd är bättre än att skiva själv.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem

Tror det är ett enormt misstag av AMD att inte satsa stenhårt på ML-baserad uppsampling. Nvidia har redan ett stadigt försprång som bara kommer öka om AMD inte kommer med i matchen.

Permalänk
Medlem
Skrivet av hypermode:

Fast det här låter spontant som en hyffsat tveksam idé. De som kollat på hockey med variable bitrate hatar detta. Inget sport-fan själv men en god vän sa att han initialt inte förstod varför man inte kunde se pucken när det väl började hända grejer, fastän bilden var pristine vid andra tillfällen. "Nä, när det händer mycket på skärmen kan du ändå inte uppfatta ett smack så vi skiter fullständigt i allt istället!"

Nvidia har en bra lösning på detta sedan RTX-korten kom och det är att bilden renderas i full kvalitet där spelaren tittar, medans det som händer runtom renderas i lägre kvalitet.
Används även i VR-spel där det som är runtomkring fokus renderas i lägre kvalitet för att öka prestandan.

Något sådant borde AMD satsa på istället.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Nvidia har en bra lösning på detta sedan RTX-korten kom och det är att bilden renderas i full kvalitet där spelaren tittar, medans det som händer runtom renderas i lägre kvalitet.
Används även i VR-spel där det som är runtomkring fokus renderas i lägre kvalitet för att öka prestandan.

Något sådant borde AMD satsa på istället.

Variable-rate shading är även en del av DirectX12, och stöds av RDNA2 (en del av FidelityFX, och tekniken syns även på bilden i artikeln).

Permalänk
Medlem
Skrivet av CubaCola:

Nvidia har en bra lösning på detta sedan RTX-korten kom och det är att bilden renderas i full kvalitet där spelaren tittar, medans det som händer runtom renderas i lägre kvalitet.
Används även i VR-spel där det som är runtomkring fokus renderas i lägre kvalitet för att öka prestandan.

Något sådant borde AMD satsa på istället.

Det är ju typ exakt det som denna artikeln handlar om Att AMD kommer få det du skriver.

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Medlem

AMD kommer med en lösning som är öppen för alla medan NVIDIA användare kommer att sitta med DLSS som är låst. Om några år så kommer NVIDIA att införa samma lösning som AMD och de med NVIDIA kort från denna generation kommer att stå utan den nya lösningen.

Ni hörde det här först.

Permalänk
Hedersmedlem
Skrivet av Svantesson666:

Bra namn. Kort och koncist. 👍

Jodå, AMD är nog en bokstav kortare ändå.

FFSR = FidelityFX Super Resolution DLSS = Deep Learning Super Sampling

Fast vem som är bäst beror ju som vanligt på hur man mäter eller vad som är viktigt för en själv:

Permalänk
Medlem
Skrivet av pv2b:

Jodå, AMD är nog en bokstav kortare ändå.

FFSR = FidelityFX Super Resolution DLSS = Deep Learning Super Sampling

Fast vem som är bäst beror ju som vanligt på hur man mäter eller vad som är viktigt för en själv:

https://i.imgur.com/j54gYUa.png8

Haha det där skulle kunna hända här på jobbet arbetar som projektledare och använder Six Sigma metodiken och Minitab Man känner sig helt yrkesskadad när man direkt sitter och börjar kolla på diagrammet helt seriöst

Jag känner mig förövrigt väldigt glad över detta. När jag valde mellan Radeon eller Nvidia denna gången gick jag på rå rastering kraft. Alla lull lull effekter osv tänkte jag att det säkert skulle komma med nya uppdateringar och optimeringar av mjukvaran. Och se där! Nu kommer det
Jag gissar precis som flera andra att första generationen av AMDs försök inte kommer vara perfekt, men om ett par generationer borde detta vara lika bra (bättre?) som Nvidias motsvarighet.

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Medlem
Skrivet av KorvMos:

Nästa switch typ, pro eller vad den kan tänkas heta kan nog faktiskt få det, annars kan man glömma 4k med switch.

Har beställt nya röd o blå mario switchen. Pallade inte att vänta.

Permalänk
Medlem
Skrivet av Xelfeir:

Har beställt nya röd o blå mario switchen. Pallade inte att vänta.

Gjorde du rätt i, den bästa switch är den man har och kan spela på

Visa signatur

Dell S2721DGFA ■ 5800X3D (Noctua NH-U12P) ■ RTX 3070 AORUS Master ■ 16x2 3200 CL16 ■ MSI B450M Mortar Max ■ Samsung EVO 970 1 TB ■ Fractal Design North + Switch OLED

Old: Pentium 4 -> Core 2 Duo E6750 -> i7 2600k -> R7 3700X

Permalänk
Medlem
Skrivet av DasIch:

Tror det är ett enormt misstag av AMD att inte satsa stenhårt på ML-baserad uppsampling. Nvidia har redan ett stadigt försprång som bara kommer öka om AMD inte kommer med i matchen.

Du menar att de ska lägga tid, energi och pengar på att skapa någonting som RTX-kort i slutändan kommer att vara mycket bättre på?

Eller ska de fortsätta på samma bana som nu få en metod som fungerar hyfsat för alla grafikkort, inklusive pascal och 1600-serien, en grupp kort som är större än RTX t.o.m , kan användas på konsoler och på så sätt få en spridning till PC också för att genom större tillgänglighet för grafikkort (inklusive RTX-kort) och tillräckliga resultat (de behöver inte ens vara bättre än DLSS) skapa ett försök att få spelutvecklare att omvärdera om de ens behöver lägga en massa tid på att implementera någonting som endast en bråkdel av deras användarbas kommer att använda?

Om de gör något med ML så gör de det bakom stängda dörrar eller till professionella marknaden. Imagefilters har t.ex en maskininlärd uppskalare och maskininlärd denoiser, där kraven är lägre för exekveringstiden.

Don't get me wrong. DLSS är bra och så (dock inte den felfria algoritmen som NVIDIA vill ge sken av) och de kommer att lägga många gånger resurserna på det här nu när AMD svarar. AMDs marknadsföring kommer säkert också överdriva super resolutions signifikans och ignorera fel, och jag kommer att peka ut dem på samma sätt som jag pekat ut fel med DLSS.

AMD kan satsa implementera ML-uppskalare när de har hårdvara som underlättar exekveringen.

Skrivet av KingCobra:

Det är ju typ exakt det som denna artikeln handlar om Att AMD kommer få det du skriver.

Det är inte samma sak. Boost drar idag ner upplösningen PÅ HELA BILDEN beroende på HUR SNABBT DU RÖR MUSEN , medan artikeln talar om att SHADING RATE (du kan kan se det som en "delupplösning" på en statisk output resolution) på de DELAR (dvs inte hela skärmen) som RÖR på sig. Det spelar ingen roll om du tittar på det som rör på sig eller inte.

Så för att ta några exempel på vad du ser på bilden och vad en rimligt resultat blir.
1. Du rör inte musen och kollar på en motorväg där en massa bilar åker förbi.
Nuvarande boost: Upplösningen är 100%, ingen prestandafördel.
Nya boost: Upplösningen är samma på de delar som inte rör på sig. Men på de bilar som åker förbi i snabb fart renderas med lägre upplösning. Du får mer prestanda.

2. Du drar ett 360 no-scope i ett FPS spel.
Nuvarande boost: Upplösningen går tilll 50%, ditt vapen blir suddigt.
Nya boost: Upplösningen går till 50% av på de delar som rör på sig, men ditt vapen är i full upplösning. Prestandan är visserligen lite lägre än föregående metod, men det bör inte märkas lika mycket att upplösningen dragits ner.
Experiment: Ställ dig upp och lägg handen framför dig och snurra runt ett varv. Vad observerar du? Din hand ser ut som den vanligtvis gör , men miljön omkring dig blir suddig. Det är samma princip som nya boost bygger på.

Hur kan det möjligtvis implementeras? Det går att använda sig av variable rate shading för att sänka shading rate på bara vissa delar av bilden. Om det inte är så att rörelsevektorer kan tas från spelmotorn, så kan de möjligtvis använda sig av hårdvaruaccelererad rörelsestimering.

Det finns ett patent på det här. Roligt nog så nämner det att maskininlärning kan användas för att extrahera rörelsevektorer.

In some embodiments, the motion vector field generator 255 uses a neural network to estimate the motion vector field for the current frame based on the motion vector field for the previous frame.

Kanske är det en väg framåt, som nämns i följande patent.

Permalänk
Medlem
Skrivet av KingCobra:

Det är ju typ exakt det som denna artikeln handlar om Att AMD kommer få det du skriver.

Ser inget om att AMD skulle ha speciell hårdvara för detta? Kansle de använder en del beräkningsprocessorer eller i drivarrutiner?

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Nvidia har en bra lösning på detta sedan RTX-korten kom och det är att bilden renderas i full kvalitet där spelaren tittar, medans det som händer runtom renderas i lägre kvalitet.
Används även i VR-spel där det som är runtomkring fokus renderas i lägre kvalitet för att öka prestandan.

Något sådant borde AMD satsa på istället.

Skrivet av KingCobra:

Det är ju typ exakt det som denna artikeln handlar om Att AMD kommer få det du skriver.

Skrivet av CubaCola:

Ser inget om att AMD skulle ha speciell hårdvara för detta? Kansle de använder en del beräkningsprocessorer eller i drivarrutiner?

Var i första posten sa du nånting om hårdvara?

Visa signatur

“There will be people that are burdened by only having the capacity to see what has always been instead of what can be.
But don’t you let that burden you.”

Permalänk
Medlem
Skrivet av FatherOfThree:

Var i första posten sa du nånting om hårdvara?

Jag svarade i fel tråd ser jag nu (eller? förvirrad just nu). Får skylla på mobil och dålig syn

Men oavsett så är det hårdvarustöd för detta om du har ett Nvidia turingkort eller nyare, heter Nvidia Adaptive Shading,

Går att testa idag i spel som tex Wolfenstein Youngblood.

Detta är dock inte samma sak som DLSS, och ger inte samma boost.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Ser inget om att AMD skulle ha speciell hårdvara för detta? Kansle de använder en del beräkningsprocessorer eller i drivarrutiner?

"Förbättringarna ska istället fokusera på förbättrad prestanda genom att dynamiskt justera upplösningen på specifika delar av bilden, företrädesvis partier med snabba rörelser, istället för bilden i sin helhet."
Precis det du frågade efter. Men du frågade inte om AMD skulle ha någon hårdvara, bara funktionen?

Edit: såg ditt svar nu 😁

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Medlem
Skrivet av Radolov:

Du menar att de ska lägga tid, energi och pengar på att skapa någonting som RTX-kort i slutändan kommer att vara mycket bättre på?

Eller ska de fortsätta på samma bana som nu få en metod som fungerar hyfsat för alla grafikkort, inklusive pascal och 1600-serien, en grupp kort som är större än RTX t.o.m , kan användas på konsoler och på så sätt få en spridning till PC också för att genom större tillgänglighet för grafikkort (inklusive RTX-kort) och tillräckliga resultat (de behöver inte ens vara bättre än DLSS) skapa ett försök att få spelutvecklare att omvärdera om de ens behöver lägga en massa tid på att implementera någonting som endast en bråkdel av deras användarbas kommer att använda?

Om de gör något med ML så gör de det bakom stängda dörrar eller till professionella marknaden. Imagefilters har t.ex en maskininlärd uppskalare och maskininlärd denoiser, där kraven är lägre för exekveringstiden.

Don't get me wrong. DLSS är bra och så (dock inte den felfria algoritmen som NVIDIA vill ge sken av) och de kommer att lägga många gånger resurserna på det här nu när AMD svarar. AMDs marknadsföring kommer säkert också överdriva super resolutions signifikans och ignorera fel, och jag kommer att peka ut dem på samma sätt som jag pekat ut fel med DLSS.

AMD kan satsa implementera ML-uppskalare när de har hårdvara som underlättar exekveringen.

Problemet för AMD är att de kommer endast vara relevanta för konsoler. Tekniken de utvecklar är utdaterad innan den lanseras, medan Nvidia kan fortsätta att öka ledningen. Även om DLSS inte är perfekt så är den teknologiskt överlägsen och har stor utvecklingspotential.
Vad AMD hade kunnat göra är att introducera något motsvarande DLSS 1.0, för att komma med i matchen och sedan utveckla det därifrån med specialiserad hårdvara. Nu är risken istället att när det kommer bredare stöd för DLSS och tekniken förfinas kommer AMD vara helt ute ur matchen på PC-marknaden.
Grejen är också att de inte riktigt har råd att vänta. Det tar tid att utveckla algoritmerna och träna dem, medan Nvidia redan ligger två steg före.

Permalänk
Medlem
Skrivet av CubaCola:

Jag svarade i fel tråd ser jag nu (eller? förvirrad just nu). Får skylla på mobil och dålig syn

Men oavsett så är det hårdvarustöd för detta om du har ett Nvidia turingkort eller nyare, heter Nvidia Adaptive Shading,

Går att testa idag i spel som tex Wolfenstein Youngblood.

Detta är dock inte samma sak som DLSS, och ger inte samma boost.

Vad jag vet så är wolfenstein youngblood det enda som har NAS. Rätta mig gärna om jag har fel. Det känns inte bara som det var år sedan det släpptes, utan det var bokstavligt talat över 2 år sedan. NVIDIA ville nog hellre satsa på DLSS och Variable rate super sampling, vilket var rätt väg att gå.

Men motion-adaptive shading är ett jättebra exempel och det som AMD avser att implementera i Boost 2.0.

Skrivet av DasIch:

Problemet för AMD är att de kommer endast vara relevanta för konsoler. Tekniken de utvecklar är utdaterad innan den lanseras, medan Nvidia kan fortsätta att öka ledningen. Även om DLSS inte är perfekt så är den teknologiskt överlägsen och har stor utvecklingspotential.

Nej... AMD kommer inte bara att vara relevanta för konsoler. Du vet inte ens vilken teknik de lanserar, men du påstår att den är utdaterad baserat på att den inte använder sig av maskininlärning? NVIDIA kommer att öka ledningen i maskininlärning oavsett om AMD väljer att lansera en algoritm där de förlorar eller inte. Du ger inga argument varför en maskininlärd sample-plockare skulle vara bättre än en mer avancerad heuristik.

Skrivet av DasIch:

Vad AMD hade kunnat göra är att introducera något motsvarande DLSS 1.0, för att komma med i matchen och sedan utveckla det därifrån med specialiserad hårdvara.

Jag tror inte du förstår vad DLSS 1.0 var för något. Jag kör föregångaren på min dator just nu (den enda publika DLSS implementationen som existerar, skriven av NVIDIA i DirectML) på en RX 6800. Jag spelar upp en video i 540p, i ca 5800 FPS med ett bilinjärt filter till 1080p, när jag aktiverar "DLSS" uppskalar jag till 1080p och får 50FPS. Imagefilters AI-uppskalare borde få något liknande resultat, I guess. Så vad du snackar om finns redan, bara inte till spel. Utöver det hade det tagit ofantligt mycket resurser (mest tid och pengar i en superdator) att få ut något som fungerar mediokert.

Det som tar längst tid är inte maskininlärningen, utan att hitta rätt algoritm att integrera det i. För NVIDIA var det DLSS 1.9 , som kom upp ~1 år efter DLSS 1.0 . Att träna och göra färdigt ML-delen tog 7 månader. Så med FXSR är de mer än halvvägs redan, om de vill göra på samma sätt som NVIDIA dvs.

Skrivet av DasIch:

Nu är risken istället att när det kommer bredare stöd för DLSS och tekniken förfinas kommer AMD vara helt ute ur matchen på PC-marknaden.
Grejen är också att de inte riktigt har råd att vänta. Det tar tid att utveckla algoritmerna och träna dem, medan Nvidia redan ligger två steg före.

Jag har redan gått igenom vad AMD avser att göra: försöka sakta ner spridningen av DLSS genom att introducera en egen algoritm som funkar för alla, i hopp om att utvecklare struntar i att implementera DLSS. Det kan potentiellt fungera.

Om de lanserat en egen AI algoritm så hade de förlorat (de utvecklar redan egna AI-algoritmer). Om de inte gjort någonting hade de förlorat.

DLSS kommer att utvecklas så att de inte behöver implementeras av utvecklarna, utan kan extrahera rörelsevektorer av sig självt, kanske som AMD föreslog med ett neuralt nätverk. Det kommer hända oavsett vad AMD gör. När det kommer till själva algoritmen så skulle jag kollat mer på reweighting för att få bort occlusion artefakter (se den extremt ohederliga facebook rapporten om DLSS, men figur 10 har en bra poäng... dock dyrt som kan ses i table 2).