Skrivet av DasIch:
Tror det är ett enormt misstag av AMD att inte satsa stenhårt på ML-baserad uppsampling. Nvidia har redan ett stadigt försprång som bara kommer öka om AMD inte kommer med i matchen.
Du menar att de ska lägga tid, energi och pengar på att skapa någonting som RTX-kort i slutändan kommer att vara mycket bättre på?
Eller ska de fortsätta på samma bana som nu få en metod som fungerar hyfsat för alla grafikkort, inklusive pascal och 1600-serien, en grupp kort som är större än RTX t.o.m , kan användas på konsoler och på så sätt få en spridning till PC också för att genom större tillgänglighet för grafikkort (inklusive RTX-kort) och tillräckliga resultat (de behöver inte ens vara bättre än DLSS) skapa ett försök att få spelutvecklare att omvärdera om de ens behöver lägga en massa tid på att implementera någonting som endast en bråkdel av deras användarbas kommer att använda?
Om de gör något med ML så gör de det bakom stängda dörrar eller till professionella marknaden. Imagefilters har t.ex en maskininlärd uppskalare och maskininlärd denoiser, där kraven är lägre för exekveringstiden.
Don't get me wrong. DLSS är bra och så (dock inte den felfria algoritmen som NVIDIA vill ge sken av) och de kommer att lägga många gånger resurserna på det här nu när AMD svarar. AMDs marknadsföring kommer säkert också överdriva super resolutions signifikans och ignorera fel, och jag kommer att peka ut dem på samma sätt som jag pekat ut fel med DLSS.
AMD kan satsa implementera ML-uppskalare när de har hårdvara som underlättar exekveringen.
Skrivet av KingCobra:
Det är ju typ exakt det som denna artikeln handlar om Att AMD kommer få det du skriver.
Det är inte samma sak. Boost drar idag ner upplösningen PÅ HELA BILDEN beroende på HUR SNABBT DU RÖR MUSEN , medan artikeln talar om att SHADING RATE (du kan kan se det som en "delupplösning" på en statisk output resolution) på de DELAR (dvs inte hela skärmen) som RÖR på sig. Det spelar ingen roll om du tittar på det som rör på sig eller inte.
Så för att ta några exempel på vad du ser på bilden och vad en rimligt resultat blir.
1. Du rör inte musen och kollar på en motorväg där en massa bilar åker förbi.
Nuvarande boost: Upplösningen är 100%, ingen prestandafördel.
Nya boost: Upplösningen är samma på de delar som inte rör på sig. Men på de bilar som åker förbi i snabb fart renderas med lägre upplösning. Du får mer prestanda.
2. Du drar ett 360 no-scope i ett FPS spel.
Nuvarande boost: Upplösningen går tilll 50%, ditt vapen blir suddigt.
Nya boost: Upplösningen går till 50% av på de delar som rör på sig, men ditt vapen är i full upplösning. Prestandan är visserligen lite lägre än föregående metod, men det bör inte märkas lika mycket att upplösningen dragits ner.
Experiment: Ställ dig upp och lägg handen framför dig och snurra runt ett varv. Vad observerar du? Din hand ser ut som den vanligtvis gör , men miljön omkring dig blir suddig. Det är samma princip som nya boost bygger på.
Hur kan det möjligtvis implementeras? Det går att använda sig av variable rate shading för att sänka shading rate på bara vissa delar av bilden. Om det inte är så att rörelsevektorer kan tas från spelmotorn, så kan de möjligtvis använda sig av hårdvaruaccelererad rörelsestimering.
Det finns ett patent på det här. Roligt nog så nämner det att maskininlärning kan användas för att extrahera rörelsevektorer.
In some embodiments, the motion vector field generator 255 uses a neural network to estimate the motion vector field for the current frame based on the motion vector field for the previous frame.
Kanske är det en väg framåt, som nämns i följande patent.