Nvidia DLSS – vad är det egentligen?

Permalänk
Melding Plague

Nvidia DLSS – vad är det egentligen?

Kantutjämning, bättre bildkvalitet och ökad prestanda i samma paket låter onekligen för bra för att vara sant. Vi gräver ned oss i och förklarar Nvidias uppskalningsteknik DLSS.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

En väldigt avslappnad och bra förklaring. Tack!

Permalänk
Medlem

Tack så mycket. Har undrat hur tekniken faktiskt fungerar.

En sak jag tänker på med DLSS överlag är: Ser DLSS och 4k bättre ut än ingen DLSS och till exempel 2560x1440? För snacket är hela tiden att "4k DLSS ser sämre ut än vanlig 4K utan DLSS". Men poängen är ju, precis som Jonas säger i videon, att DLSS gör att jag kanske kan köra 4k när jag annars inte hade haft möjligheten att göra det över huvud taget innan?

För om en 4k med DLSS ger en bättre upplevelse än 2560x1440 utan DLSS, och det dessutom kan förbättras med tiden så ja, varför inte?

Intressant i alla fall. Jag ser DLSS-tekniken som ett sätt att förlänga livslängden på min GPU. Använder jag det så gör jag antagligen det när prestandan inte räcker till längre.

Visa signatur

Gaming: RTX 2070 & 3770k
Studier: MacBook pro retina 13
Ljud: QH-1339 & ett par rackans smidiga AirPods
Telefon: iPhone 6s plus
Skärm: ASUS 27" ROG Swift PG279Q med sån där g-sync

Permalänk
Medlem

gött ska fixa frukost och kika på två goa killar och bli uppskolad ...

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Medlem

DLSS snacka om onödig teknik. Man kan köra 1800K istället på en 4K skärm och få ungefär likvärdig bild eller bättre bild med ungefär likvärdig prestanda så vad ska man med DLSS till?

Visa signatur

Nuvarande dator: CPU: Core i5 2500K @ 3.7GHz, CPU kylare: Zalman CNPS12X, GPU: Zotac GTX560Ti 2048MB, Moderkort: ASRock Z68 Extreme 3 Gen3, Minne: Corsair Vengeance LP 1600MHz (4X4GB)16GB Kit, Lagring: Samsung 840 EVO 250GB SSD, Western Digital Caviar Black 64MB Cache 1TB, Seagate Barracuda 256MB cache 2TB, Seagate Barrracuda 256MB cache 4TB Optisk läsare: DVD Brännare Sony Optiarc AD-7280S, Ljudkort: Asus Xonar DG, Chassi: HafX 942 Nvidia Edition, Nätaggregat: Corsair TX650 v1 650 Watt, OS Windows 10 Pro Svensk Version

Permalänk
Medlem
Skrivet av Jygge:

gött ska fixa frukost och kika på två goa killar och bli uppskolad ...

Frukost kl 13:24 😁 Du är en rolig prick du.

Skrivet av Joakim Ågren:

DLSS snacka om onödig teknik. Man kan köra 1800K istället på en 4K skärm och få ungefär likvärdig bild eller bättre bild med ungefär likvärdig prestanda så vad ska man med DLSS till?

Mycket tveksam till 1800K 😉

Förlår för of topic.

Permalänk
Medlem

Tycker att det är konstigt att de har super sampling i namnet då tekniken liknar mer sub sampling + "ai upscaling".

Visa signatur

R7-3700X, B450M Mortar MAX, 32GB DDR4 @ 3200, RTX 2080, Corsair CX650M Rev2

Permalänk
Medlem

Nostalginerven går på högvarv med Emil och Jonas i rutan!

Skickades från m.sweclockers.com

Visa signatur

ASUS ROG Strix G15 G513QM | Pixel 7

Permalänk
Medlem

SLSS

Slow Learning Super Sampling.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem

Kan ni benchmarka world war Z?

Permalänk
Inofficiell ambassadör

Perfekt nivå och balans mellan djuplodande information och förenklingar! Mycket bra video!

@JonasT Som jag förstår DLSS på er så:
1. Man renderar spelet i 1080p och
2. skalar sedan upp bilden till skärmens native upplösning - säg 1440p.

För att därmed kunna spela i "1440p" men i samma prestanda som i 1080p.
D.v.s. man försöker sänka prestandakostnaden för likvärdig bildkvalitet.

Skulle man inte kunna göra "åt andra hållet" för att ersätta Super sampling?

T.ex
1. Rendera spelet i 1440p (samma som skärmens Native)
2. Använda DLSS för att skala upp spelet till 4K
3. Sampla det producerade "4K" materialet till 1440p som är min skärms native upplösning?

D.v.s. man försöker höja bildkvaliteten men till samma prestandakostnad?

Eller ställer det här till det på sätt som jag inte förstår mig på?

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Medlem
Skrivet av Xyborg:

Skulle man inte kunna göra "åt andra hållet" för att ersätta Super sampling?

T.ex
1. Rendera spelet i 1440p (samma som skärmens Native)
2. Använda DLSS för att skala upp spelet till 4K
3. Sampla det producerade "4K" materialet till 1440p som är min skärms native upplösning?

D.v.s. man försöker höja bildkvaliteten men till samma prestandakostnad?

Eller ställer det här till det på sätt som jag inte förstår mig på?

Man skulle absolut kunna göra det i teorin men frågan är om det skulle ge så mycket, eller om det skulle vara bättre att bara köra på någon lika billig AA. Som nämns i videon beror det nog väldigt mycket på. Är resultatet från DLSS-uppskalningen ganska suddigt kommer det inte tillföra speciellt mycket att supersampla från den.

Permalänk
Redaktion
Praktikant ✨
Skrivet av Xyborg:

Perfekt nivå och balans mellan djuplodande information och förenklingar! Mycket bra video!

@JonasT Som jag förstår DLSS på er så:
1. Man renderar spelet i 1080p och
2. skalar sedan upp bilden till skärmens native upplösning - säg 1440p.

För att därmed kunna spela i "1440p" men i samma prestanda som i 1080p.
D.v.s. man försöker sänka prestandakostnaden för likvärdig bildkvalitet.

Skulle man inte kunna göra "åt andra hållet" för att ersätta Super sampling?

T.ex
1. Rendera spelet i 1440p (samma som skärmens Native)
2. Använda DLSS för att skala upp spelet till 4K
3. Sampla det producerade "4K" materialet till 1440p som är min skärms native upplösning?

D.v.s. man försöker höja bildkvaliteten men till samma prestandakostnad?

Eller ställer det här till det på sätt som jag inte förstår mig på?

Kul att du gillade genomgången!

Faktum är att Nvidia har ett läge som heter DLSS 2x vilket gör exakt det du efterfrågar, det vill säga renderar i samma upplösning som skärmen och försöker fylla i information ovanpå det för högre bildkvalitet. Än så länge har jag dock inte sett den implementationen i något spel.

Permalänk
Relik 📜

Är det nu vi ska avslöja att videon är andra tagningen? Första gången blev ljudet helt kass, så jag och @JonasT fick bita i det sura och göra om allt några dagar senare..

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Avstängd

Jag är inget fan av AI rendering. Hade det inte varit bättre utan DLSS? mer Cuda Cores hade och RT cores hade ju gett bättre prestanda än med DLSS? just nu sitter dem där och tar upp 1/3 av chippets storlek för ingenting?

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem

@emilakered: @JonasT

Kommer det någon benchmark på World War Z?

Permalänk
Relik 📜
Skrivet av Jonathanknet:

@emilakered: @JonasT

Kommer det någon benchmark på World War Z?

Är inte helt säker på vad det har i just den här tråden att göra, men vad jag vet är det inget på gång. Är väl om @Kenneth smyger med test som ingen vet i så fall.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem
Skrivet av emilakered:

Är det nu vi ska avslöja att videon är andra tagningen? Första gången blev ljudet helt kass, så jag och @JonasT fick bita i det sura och göra om allt några dagar senare..

Det tackar vi för!

Skickades från m.sweclockers.com

Visa signatur

ASUS ROG Strix G15 G513QM | Pixel 7

Permalänk
Medlem
Skrivet av Xyborg:

Perfekt nivå och balans mellan djuplodande information och förenklingar! Mycket bra video!

@JonasT Som jag förstår DLSS på er så:
1. Man renderar spelet i 1080p och
2. skalar sedan upp bilden till skärmens native upplösning - säg 1440p.

För att därmed kunna spela i "1440p" men i samma prestanda som i 1080p.
D.v.s. man försöker sänka prestandakostnaden för likvärdig bildkvalitet.

Skulle man inte kunna göra "åt andra hållet" för att ersätta Super sampling?

T.ex
1. Rendera spelet i 1440p (samma som skärmens Native)
2. Använda DLSS för att skala upp spelet till 4K
3. Sampla det producerade "4K" materialet till 1440p som är min skärms native upplösning?

D.v.s. man försöker höja bildkvaliteten men till samma prestandakostnad?

Eller ställer det här till det på sätt som jag inte förstår mig på?

Det borde vara möjligt att testa detta med nvidia DSR; slå på DSR i en faktor som ger dig en upplösning som tillåter DLSS (tex. x4 med 0% smoothness i 1080p ger dig 4k, eller 2.25 faktor i 1440p), enabla DLSS, se hur det går..

Permalänk
Datavetare

Helt sant att DLSS inte är någon form av kantutjämning, men det är en form av "anti-aliasing"! Ordet "kantutjämning" är en rätt dålig översättning av "anti-aliasing", det förra löser bara en väldigt specifik variant av "aliasing"!

Att man jämför med TAA gissar jag beror på att DLSS råkar utföra den typ av "anti-aliasing" som är största mervärdet med TAA (det nr DLSS är rätt implementerat, såg inte så bra ut i FFXV...).

Man får ju alltid olika former av kvantiserings-artifakter i 3D-motorer. Dels ska ju allt passa in i det rutnät pixels utgörs på skärmen. Dels finns ju andra problem som detaljnivåer i texturer som ska läggas ut på en transformerad yta som i slutändan ska skohornas in pixlar.

Ytor med texturer som har skarpa kontraster får ofta rätt irriterande "krypningar" (syns väldigt väl i Neverwininter videon här), just den artefakten går inte att lösa med högre upplösning utan det krävs TAA (som hanterar problemet genom att öka "samplingsfrekvensen" i bilden genom att ta hänsyn till tidigare scener, gissningsvis har även DLSS något sådant element. TAA har "super-sampling" på tidsaxeln, inte på X/Y-pixel-axeln).

Slutligen "tränas" väl modellen som används av DLSS på referensscener som är renderande med FSAA x64? Namnet "Deep Learning Super Sampling" blir då i någon mån tekniskt korrekt, man tränar ett "deep learning" nätverk på kraftigt (upplösningsmässigt) super-samplade referensbilder.

Den bild som renderas på din dator är dock inte upplösningsmässigt super-samplad, den har däremot en annan form "super-sampling" från det neurala nätverket och dess associerade data. "Super-samplingen" möjliggör att man renderar i t.ex. 1920x1080, men visar en bild i t.ex. 2560x1440 som är mer korrekt jämfört med ren uppskalning. Så super-samplingen är i relation till 1920x1080 bilden!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman: Jag tror man jämför med TAA för att DLSS är designat att köras ihop med TAA.
I tex bfv kan du inte slå av TAA om du slår på DLSS.
I anthem, som är det enda spel jag vet som stödjer enbart DLSS utan raytracing, så ser DLSS helt för jävligt ut utan TAA på även om det faktiskt är möjligt att stänga av det (samma motor, så jag förstår varför bfv låser TAA option med DLSS på).

Permalänk
Medlem

"Skissa-och-gissa-teknik" var ett helt klockrent namn på det

Permalänk
Datavetare
Skrivet av JBE:

@Yoshman: Jag tror man jämför med TAA för att DLSS är designat att köras ihop med TAA.
I tex bfv kan du inte slå av TAA om du slår på DLSS.
I anthem, som är det enda spel jag vet som stödjer enbart DLSS utan raytracing, så ser DLSS helt för jävligt ut utan TAA på även om det faktiskt är möjligt att stänga av det (samma motor, så jag förstår varför bfv låser TAA option med DLSS på).

Algoritmen för DLSS är ju inte känd, men givet att den i grunden bygger på maskininlärning går det att göra hyfsade gissningar. Var lite här jag gick bet för kunde inte riktigt få ihop vad DLSS och TAA rimligen kan ha gemensamt (mer än att båda är en variant på super-sampling). Det du skriver blir då väldigt vettigt: d.v.s. teknikerna är mer komplement till varandra.

Så att DLSS mer eller mindre behöver TAA låter helt rimligt i mina öron. Om FFXV saknar TAA när man kör DLSS skulle det också kunna förklara vissa artefakter. Artefakter som TAA borde kunna eliminera eller i alla fall rejält minska (flimrande staket och elledningar t.ex.).

Den kvarvarande frågan blir då varför Nvidia pratar om DLSS och TAA som om de på något sätt är jämförbara...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Algoritmen för DLSS är ju inte känd, men givet att den i grunden bygger på maskininlärning går det att göra hyfsade gissningar. Var lite här jag gick bet för kunde inte riktigt få ihop vad DLSS och TAA rimligen kan ha gemensamt (mer än att båda är en variant på super-sampling). Det du skriver blir då väldigt vettigt: d.v.s. teknikerna är mer komplement till varandra.

Så att DLSS mer eller mindre behöver TAA låter helt rimligt i mina öron. Om FFXV saknar TAA när man kör DLSS skulle det också kunna förklara vissa artefakter. Artefakter som TAA borde kunna eliminera eller i alla fall rejält minska (flimrande staket och elledningar t.ex.).

Den kvarvarande frågan blir då varför Nvidia pratar om DLSS och TAA som om de på något sätt är jämförbara...

Hur DLSS är implementerat i verkligheten verkar inte direkt matcha vad nvidia hade tänkt sih från början, de har ett whitepaper på det här:
https://www.nvidia.com/content/dam/en-zz/Solutions/design-vis...

I det står det i princip att DLSS gör ca samma sak som TAA fast billigare i prestandakostnad och bättre.
"The deep neural network (DNN) that was developed to solve this challenge is called Deep Learning Super-Sampling (DLSS). DLSS produces a much higher quality output than TAA from a given set of input samples, and we leverage this capability to improve overall performance. Whereas TAA renders at the final target resolution and then combines frames, subtracting detail, DLSS allows faster rendering at a lower input sample count, and then infers a result that at target resolution is similar quality to the TAA result, but with roughly half the shading work.Figure 22, shows a sampling of results on the UE4 Infiltrator demo. DLSS provides image quality that is similar to TAA, with much improved performance. The much faster raw rendering horsepower of RTX 2080 Ti, combined with the performance uplift from DLSS and Tensor Cores, enables RTX 2080 Ti to achieve 2x the performance of GTX 1080 Ti."

Där verkar de diskutera DLSS vs TAA på samma källmaterial, vilket inte existerar i något hittils släppt spel, men detta är väl kanske orsaken att de vill jämföra DLSS vs TAA som en ren form av AA.

Kanske är det sant att det ger mycket högre kvalitet till lägre kostnad, så bra att de bestämde sig att istället köra uppskalning med det och ja, det fungerar ju dugligt.

Loggade in i anthem för att se, och det går inte längre att välja AA manuellt om man slår på DLSS. Det gick i patchen som introducerade stöd för det.

Jag tycker kanske vissa saker på avstånd ser sämre ut, men saker som är nära ser perfekt ut.
Här är någon som orkat göra en jämförelesevideo: https://youtu.be/COOlVBDy8cA

Permalänk
Medlem

@Yoshman:
@JBE:
Fast det stora problemet med DLSS är att det har gjorts tester med DLSS vs gammal hederlig uppskalning där man kalibrerar den vanliga uppskalningens källupplösning tills man uppnår samma frame-rate som med DLSS. Slutsatsen var att den gamla hederliga uppskalningen såg MYCKET bättre ut når det kalibrerats till samma prestanda. Jensen sålde in det som nästa grej efter skivat bröd, men än så länge är den en försämring mot vad vi redan hade.

Förtydligande exempel:
Om du har en scen som ligger på ca 60fps med 4K DLSS, och jämför bildkvalitén mot samma scen med vanlig uppskalning som också ger 60fps så är den vanliga uppskalningens bildkvalité i en helt annan liga. Det är i dagsläget inte en kamp utan en total utklassning där man omedelbart kan se vilken bild som har flest detaljer bevarade och minimalt med artefakter.

Så den verkliga frågan är, hur många månader eller år kommer det ta innan DLSS blir bra nog att den ger samma kvalité och prestanda som en simpel teknik vi redan haft i åratal och som alla grafikkort på marknaden redan stödjer? För i dagsläget har DLSS ett sämre bildkvalité till frame-time förhållande, dvs. i alla situationer där du i dagsläget kan välja mellan vanlig uppskalning eller DLSS så är det en försämrad upplevelse att välja DLSS.

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Medlem

@dpom86: Det enda spelet som stödjer ren DLSS är vad jag vet anthem, och i det ser DLSS mycket bättre ut än att köra 1440p skalat i 4k.
(se video ovan).

Jag är medveten om de jämförelser som gjorts, men alla (?) de var med raytracing+dlss, och fokus var mer på att jämföra stillbilder än helheten. helheten blir ju väldigt subjektiv och stillbilder blir inte helt relevant så jag tycker det är svårt att säga att den saken är avgjord saken åt ena eller andra sidan.

Jag testade själv att spela bfv story missions med och utan dlss+rtx och tyckte det såg extremt bra ut i dlss 4k hdr i praktiken, med bra nog fps. Med bara 4k och rtx var ju fps alldeles för låg. Testade faktiskt aldrig att skala 1440p, iom dlss+4k+ultra+hdr såg så otroligt bra ut.

Permalänk
Medlem
Skrivet av JBE:

@dpom86: Det enda spelet som stödjer ren DLSS är vad jag vet anthem, och i det ser DLSS mycket bättre ut än att köra 1440p skalat i 4k.
(se video ovan).

Jag är medveten om de jämförelser som gjorts, men alla (?) de var med raytracing+dlss, och fokus var mer på att jämföra stillbilder än helheten. helheten blir ju väldigt subjektiv och stillbilder blir inte helt relevant så jag tycker det är svårt att säga att den saken är avgjord saken åt ena eller andra sidan.

Jag testade själv att spela bfv story missions med och utan dlss+rtx och tyckte det såg extremt bra ut i dlss 4k hdr i praktiken, med bra nog fps. Med bara 4k och rtx var ju fps alldeles för låg. Testade faktiskt aldrig att skala 1440p, iom dlss+4k+ultra+hdr såg så otroligt bra ut.

vad tycker du om HDR är input lagen något du märker av i ett first person shooter?

Visa signatur

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Permalänk
Medlem
Skrivet av Oskar80:

vad tycker du om HDR är input lagen något du märker av i ett first person shooter?

Det är ingen input lag i hdr för mig, men det beror väl på vilken tv/monitor man kör på (pg27uq).

Permalänk
Medlem
Skrivet av JBE:

Det är ingen input lag i hdr för mig, men det beror väl på vilken tv/monitor man kör på (pg27uq).

har samma panel. jag kanse är rätt känslig för input lag jag
jag har stängt av HDR i BF5 då jag märker tydlig skillnad.
testa att köra utan och med HDR och kolla om du spelar bättre.

I det senaste call of duty har dom en mätare för input lag i ms
har för mig att utan HDR var det typ runt 10ms och med hdr 40-50ms
i det spelet var det riktigt hemskt att spela med HDR.
jag kör bara med HDR i singel player spel då stör jag mig princip inte alls på det.
Hitman 2, Tomb raider, Assasins Creed odyssey mm

Visa signatur

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Permalänk
Medlem
Skrivet av _Merc_:

Jag är inget fan av AI rendering. Hade det inte varit bättre utan DLSS? mer Cuda Cores hade och RT cores hade ju gett bättre prestanda än med DLSS? just nu sitter dem där och tar upp 1/3 av chippets storlek för ingenting?

Källa för att de tar upp 1/3? Det enda jag hört från mätningar är att de tar upp ~10% , borträknat ökad storlek på ALUs, schemaläggare och cache.

Skrivet av Yoshman:

Algoritmen för DLSS är ju inte känd, men givet att den i grunden bygger på maskininlärning går det att göra hyfsade gissningar.

Den är inte känd, nej. Men de presenterade en algoritm i directML för maskininlärd uppskalning innan de annonserade DLSS. Detta är sannolikt samma modell som används i DLSS.

Slides som beskriver hur den utförs

Frågan som jag funderar på är om DLSS är om det är värt det i slutändan. Hur menar jag då?
1. Kostnaden att driva superdatorn för att träna modellen uppgick approximativt till ett flertal heltidsanställda (kommer inte ihåg exakt hur många) . Dessa anställda kunde istället gå ut på uppdrag för att implementera prestandaförbättringar i spelmotorn istället.
2. För DLSS måste modellerna tränas om för varje nytt spel,ny karta, nytt DLC, men förbättringarna i spelmotorn består (eller är iallafall åtminstone lättillgängliga).
3. Förbättringar i spelmotorn kan även hjälpa andra användare än just de från samma företag. Vill dock tillägga att om det implementeras i directML så bör modellen kunna återanvändas för AMD med.

Men visst, om målet är för NVIDIA att få bättre relativ prestanda än AMD så är DLSS ett hyfsat bra alternativ. De skulle dock kunna implementera andra saker som är t.ex specifikt för Turing såsom mesh shaders för att förbättra prestandan.

Ett exempel för 1. När AMD hjälpte till med RE Engine så kunde de förbättra prestandan med ~30%. För 3 så verkar AMD även arbeta med en ML upscaler.

Diverse slides