AMD Radeon RX 6800 och RX 6800 XT

Permalänk
Medlem
Skrivet av teanox:

Radeon har haft dessa inställningar länge i deras Adrenaline drivers, skillnaden är att dem inte marknadsför det som något revolutionerande som Nvidia gör.

Har testat min kompis 3080 Evga version mot mitt 6800XT referens, för tillfället när det är äldre spel som inte är byggda att utnyttja RDNA2 fullt ut vinner Ampere. Men så fort man slår på ett spel som tex Borderlands 3 som tar vara på arkitekturen helt ut, då är det bye bye Nvidia, går man sen steget längre och drar på en OC på mitt ref kort kontra Ampere så säger det hejdå i bara farten, 6800XT ref klockar till 2500MHZ, mitt maxar ut vid 2531MHZ atm och då är kortet vid 75C som max.

Sen ska vi inte nämna att Radeon har mer Vram kontra Nvidia, spelar ingen roll om Nvidia "GDDR6X" är snabbare, när du behöver 11GB så är det stopp. Nya spel i 1440P/4K kräver runt 9 - 11GB vram, somliga ännu mer, där kan Ampere i dagsläget inget göra.

Varav Nvidia försöker få till en "ny" modell med mer vram. Konkurrens är bra för oss konsumenter, men fanboyism och skit snack när man inte har full koll är inte bra däremot.

Du har inte möjlighet att testa vr prestanda?

Vilka spel har du hittat som använder mer än 10 gb så här långt?

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Medlem
Skrivet av oqvist:

Du har inte möjlighet att testa vr prestanda?

Vilka spel har du hittat som använder mer än 10 gb så här långt?

Vi har testat Godfall, det drar i 4k och ultra 11/12GB vram, därav "måste" DLSS vara igång för att hans kort ska klara push ut.

Jag själv har ingen möjlighet att testa VR, har glasögon redan så det skulle inte bli en bra kombo, speciellt som man är lite klaustrofob haha, dock största anledningen är att vi båda inte tycker det är värt pengarna för ett snordyrt VR som kör i 720p? Kan vara högre men vet att dem inte är i närheten till 1440P som jag själv kör på.

Ska testa mitt kort med mera spel och tester, kommer återkomma med en tråd om detta.

Visa signatur

Ryzen 9 5900x 4.8ghz. 32GB DDR4 3600Mhz. Radeon 6800 XT. MSI Gaming Plus B550. 1000GB SN850 M.2. Noctua Nh-U14S. 1x 1024GB M.2 Kingston A2000. Seasonic Focus PX 850 Platinum. Fractal Design Define R6 USB-C. Predator XB273UGX.

Permalänk
Medlem
Skrivet av oqvist:

Nu blev det närmast off topic men hittar jag inga vr benchmarks chansar jag på 3080. Presterar 6800 xt bättre offras nog RT...

Någon verkar iaf hålla på med en.

https://www.reddit.com/r/virtualreality/comments/jwodqy/anyon...

Visa signatur

Phanteks P400A RGB : Asus Prime X570-P : Ryzen 9 5900X : Corsair H100X : 32GB G.Skill Trident Z Neo 3600CL14 : Sapphire Nitro+ 6800 XT : Xiaomi 34" Curved 3440x1440 : Playseat Evolution Alcantara : Thrustmaster T300RS GT / Ferrari SF1000 Edition Add-on : HP Reverb G2

Permalänk
Medlem
Skrivet av teanox:

Vi har testat Godfall, det drar i 4k och ultra 11/12GB vram, därav "måste" DLSS vara igång för att hans kort ska klara push ut.

Skumt. Techpowerup mätte bara upp 8.6 GB i 4K. I Epic settings då, eftersom Ultra saknas. Såg inget om DLSS support heller.

Permalänk
Medlem
Skrivet av The Kristoffer:

Lite märkligt att de inte jämförde några av korten med RT påslaget? Undrar hur det hade sett ut då...

Med RT på slaktar 3080n helt klart. Inte ens jämt men det verkar jämnare om man kör utan och det för mig velig 😬

Visa signatur

Dator: i7 9700k @ 5.0 Ghz - Asus Rog Strix OC 2080 Super
3600mhz 32gb - Gigabyte UD Z390 - Dark Rock Pro 4 - M.2 SSD MP510

Kringutrustning: Xiaomi 34" 3440x1440 - Xtrfy K4 - Glorious 0 Mus
Ljud: DT770 80ohm Headset - E10K DAC/AMP

Permalänk
Medlem
Skrivet av teanox:

Vi har testat Godfall, det drar i 4k och ultra 11/12GB vram, därav "måste" DLSS vara igång för att hans kort ska klara push ut.

Jag själv har ingen möjlighet att testa VR, har glasögon redan så det skulle inte bli en bra kombo, speciellt som man är lite klaustrofob haha, dock största anledningen är att vi båda inte tycker det är värt pengarna för ett snordyrt VR som kör i 720p? Kan vara högre men vet att dem inte är i närheten till 1440P som jag själv kör på.

Ska testa mitt kort med mera spel och tester, kommer återkomma med en tråd om detta.

Vet inte vad du får 720p ifrån? Till och med min billiga och relativt lågupplösta Rift S kör 1440p, och fungerar fint med glasögon.
Men ja, inte för alla.

Kul med nya kort!

Visa signatur

The cookie goes *crumble*.

Permalänk
Medlem

Tänka sig.. inte alls bättre än 3080 som de va sagt. 🥴🤷‍♂️

Permalänk
Medlem
Skrivet av opA:

Tänka sig.. inte alls bättre än 3080 som de va sagt. 🥴🤷‍♂️

De var i alla fall ärliga i sin presentation: "Our fastest cards ever". Och det stämde ju bra.

Permalänk
Bildexpert
Skrivet av The Kristoffer:

Ja, det går att ställa ned upplösning även på AMD-kort. Det är ju inte dock poängen här. Poängen är att vi har ändamålsglidning. Att börja kalla saker för något de inte är. Helt plötsligt börjar väl någon av GPU-tillverkarna hävda att de har kort som klarar av att spela det senaste i 8K, även fast det är uppskalat från något lågupplöst.

DLSS är en jättefin tanke, men inte direkt en ny sådan, det är också vad det verkar, en väldigt bra marketing machine.
Missförstå mig rätt. Nvidia verkar vara de som just nu kan erbjuda spelbar native RT-prestanda, måhända i lägre upplösning. Jag lutar starkt åt ett 3080 just nu, vilket verkar vara minimum om man vil ha något annat än diabildspel i upplösningar över 1080p med RT påslaget utan uppskalning. Om jag vill utgå från något lågupplöst så kan jag ju lika gärna köpa ett billigare kort. Jag vill inte lägga en helskottas massa pengar på luft helt enkelt. Luft verkar dock sälja som smör i det här segmentet, så sakta börjar det sjunka in att folk inte längre ställer krav. De tar på sig rollen som reklampelare och leker viskleken med marknadsföring tills alla tror på det.
Kejsaren är fortfarande naken dock.

Jag håller förstås med om att man i ren marknadsföring inte bör kalla eller likställa DLSS med nativa upplösningar, även om man på konsol-sidan aldrig har fått riktigt bukt på den biten. Men samtidigt är dina uttalanden om DLSS väldigt platta och det känns som att du dömer mycket på förhand.

Personligen är jag extremt "pro-bra bild", eller vad man nu ska kalla det för. Väljer själv hellre fotoskärmar framför renodlade spelskärmar just för bildmässiga egenskaper när jag lirar, fastän jag gör avkall på bildfrekvens förstås. Och det är klart, ingen är gladare än mig om det så skulle gå att spela Control native i 3840x2160 med Raytracing och allt annat på max samt få 60fps men just nu är vi inte där. Med DLSS 2.0 är den visuella skillnaden tämligen försumbar, ffa om man har i åtanke hur mycket bättre prestanda man får tillbaks.

Om jag kan få en likvärdigt bra bild i slutändan och markant förbättrad prestanda så ser jag det som ett gediget alternativ till nativ rendering. Sedan ska jag tillägga att jag själv inte var särskilt imponerad av föregångaren, just eftersom jag är tämligen känslig mot checkerboard eller andra renderingar där man får en bild som ser ut att lida mycket av ditheringmönstren. Men det har jag själv aldrig stört mig på med DLSS 2.0. Sitter tämligen nära en 32"-skärm från Eizo, med en upplösning om 3840x2160p och ser väldigt snabbt om något är knas. Och mina erfarenheter generellt går inte alls ihop med hur du beskriver det hela.

Permalänk
Medlem
Skrivet av opA:

Tänka sig.. inte alls bättre än 3080 som de va sagt. 🥴🤷‍♂️

Beror lite på hur man ser det och vilken övrig hårdvara man har.
I de flesta tester är rx 6800 xt snabbare än 3080 i upplösningen 1080P och 1440P. i 4k är 3080 ofta snabbare. AMD är sunkiga på sina drivrutiner så det kan vara boven i dramat.
Med RT är 3080 bra mycket snabbare och med DLSS (när graffet skalar upp en 1080P bild till 4k) blir den bra mycket snabbare...men då blir det lite orättvist eftersom 3080 kör 1080P och RX 6800 XT kör 4k. DLSS blir aldrig lika bra som ren 4k bild heller även om DLSS 2.0 börjar bli bra.

https://www.youtube.com/watch?v=ZtxrrrkkTjc&t=653s

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Medlem

Är som sugen å bygga nytt nu, men man lär ju få vänta tills typ april nästa år om man ska ha senaste kortet eller zen 3 cpu 😂

Visa signatur

Chassi : Corsair iCUE 465X RGB Processor : Intel Core i9-11900F Stock Moderkort : ASUS ROG Strix B560-F GAMING WIFI Cpu Kylare : CM ML240L V2 ARGB Ram : Kingston FURY Beast RGB DDR4 16GB 3200 MHz Gpu : Gigabyte GeForce RTX3080 GAMING OC LHR SSD : Kingston A2000 1TB NVMe M.2 Nätagg Corsair RM750x, 750W Consoller: PS4

Permalänk
Medlem
Skrivet av ipac:

Skumt. Techpowerup mätte bara upp 8.6 GB i 4K. I Epic settings då, eftersom Ultra saknas. Såg inget om DLSS support heller.

Godfall gick ut och påstod de använde 12 gb men det kanske bara är Amd som har tillgång till de texturerna. De är det enda lit jag sett hittills som gått ut med det.

Apropå vr de finns i upp till 8k upplösningar numer. Större bild dock

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Medlem

Har någon koll på när dom nya grafikkorten läggs in i prestandaindexet?

Nu är ju nvidia bättre på ray-tracing, men kan detta komma att ändras om det skulle bli som en "gemensam" standard. Jag tänker att kanske är nvidia före nu för att dom har RT tailor made för dom, eller är detta inte sant? Hoppas ni förstår vad jag menar.

Visa signatur

Ryzen 7800X3D, be quiet! pure rock 2, RTX 4070 Ti Super, Corsair 32GB 6000MHz CL36, Corsair TX850M

Permalänk
Medlem
Skrivet av The Kristoffer:

Ja, det går att ställa ned upplösning även på AMD-kort. Det är ju inte dock poängen här. Poängen är att vi har ändamålsglidning. Att börja kalla saker för något de inte är. Helt plötsligt börjar väl någon av GPU-tillverkarna hävda att de har kort som klarar av att spela det senaste i 8K, även fast det är uppskalat från något lågupplöst.

DLSS är en jättefin tanke, men inte direkt en ny sådan, det är också vad det verkar, en väldigt bra marketing machine.
Missförstå mig rätt. Nvidia verkar vara de som just nu kan erbjuda spelbar native RT-prestanda, måhända i lägre upplösning. Jag lutar starkt åt ett 3080 just nu, vilket verkar vara minimum om man vil ha något annat än diabildspel i upplösningar över 1080p med RT påslaget utan uppskalning. Om jag vill utgå från något lågupplöst så kan jag ju lika gärna köpa ett billigare kort. Jag vill inte lägga en helskottas massa pengar på luft helt enkelt. Luft verkar dock sälja som smör i det här segmentet, så sakta börjar det sjunka in att folk inte längre ställer krav. De tar på sig rollen som reklampelare och leker viskleken med marknadsföring tills alla tror på det.
Kejsaren är fortfarande naken dock.

Du förstår helt uppenbart inte vad DLSS är och vad det gör, det är uppskalning men med långt bättre kvalité än exempelvis checkerboard eller vanlig bilinjär eller andra skalningstekniker.

Du kan inte bara ställa ner upplösning och förvänta dig samma resultat som DLSS 2 kan ge dig, det är inte så det funkar och inbillar du dig det så har du missuppfattat tekniken helt.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av The Kristoffer:

Ja, det går att ställa ned upplösning även på AMD-kort. Det är ju inte dock poängen här. Poängen är att vi har ändamålsglidning. Att börja kalla saker för något de inte är. Helt plötsligt börjar väl någon av GPU-tillverkarna hävda att de har kort som klarar av att spela det senaste i 8K, även fast det är uppskalat från något lågupplöst.

DLSS är en jättefin tanke, men inte direkt en ny sådan, det är också vad det verkar, en väldigt bra marketing machine.
Missförstå mig rätt. Nvidia verkar vara de som just nu kan erbjuda spelbar native RT-prestanda, måhända i lägre upplösning. Jag lutar starkt åt ett 3080 just nu, vilket verkar vara minimum om man vil ha något annat än diabildspel i upplösningar över 1080p med RT påslaget utan uppskalning. Om jag vill utgå från något lågupplöst så kan jag ju lika gärna köpa ett billigare kort. Jag vill inte lägga en helskottas massa pengar på luft helt enkelt. Luft verkar dock sälja som smör i det här segmentet, så sakta börjar det sjunka in att folk inte längre ställer krav. De tar på sig rollen som reklampelare och leker viskleken med marknadsföring tills alla tror på det.
Kejsaren är fortfarande naken dock.

Du vet att 3090 släpptes som ett ’8K’ kort va? Dvs DLSS8K skalat från 1440p/4K....

Permalänk
Skrivet av tellus82:

Du förstår helt uppenbart inte vad DLSS är och vad det gör, det är uppskalning men med långt bättre kvalité än exempelvis checkerboard eller vanlig bilinjär eller andra skalningstekniker.

Du kan inte bara ställa ner upplösning och förvänta dig samma resultat som DLSS 2 kan ge dig, det är inte så det funkar och inbillar du dig det så har du missuppfattat tekniken helt.

Det är ju snarare som så att Nvidia fått dig att tro på upplägget genom att officiellt kalla nedgraderingen för en feature. DLSS är en teknik, som använder sig av ML för att producera ok bildkvalitet från lågupplöst material, med huvudsyftet att ta sig rätten att kalla det högupplöst.
Det finns lagar man kan bryta mot, men fysikens lagar gör sig påminda som några som Inte låter sig brytas.
Som sagt hur mycket det än tjatas om att det är 4k, så är det ju inte det. Vi halkar alltid tillbaka på:
1: försämrad bildkvalitet till förmån för bättre prestanda
2: tappad verklighetsförankring
3: det går inte att skapa materia av rent vacuum
4: det går inte att skapa 8 megapixlar från 4 megapixlar utan att använda sig av duplicering eller gissningslek. Grunddatat kan liksom inte lyftas ur halsen på en magisk ande. 4k är 4k, 1080p är 1080p.
5: kejsaren är fortfarande naken

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Skrivet av medbor:

Du vet att 3090 släpptes som ett ’8K’ kort va? Dvs DLSS8K skalat från 1440p/4K....

Är det sant?! THE AUDACITY!

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av teanox:

Radeon har haft dessa inställningar länge i deras Adrenaline drivers, skillnaden är att dem inte marknadsför det som något revolutionerande som Nvidia gör.

Har testat min kompis 3080 Evga version mot mitt 6800XT referens, för tillfället när det är äldre spel som inte är byggda att utnyttja RDNA2 fullt ut vinner Ampere. Men så fort man slår på ett spel som tex Borderlands 3 som tar vara på arkitekturen helt ut, då är det bye bye Nvidia, går man sen steget längre och drar på en OC på mitt ref kort kontra Ampere så säger det hejdå i bara farten, 6800XT ref klockar till 2500MHZ, mitt maxar ut vid 2531MHZ atm och då är kortet vid 75C som max.

Sen ska vi inte nämna att Radeon har mer Vram kontra Nvidia, spelar ingen roll om Nvidia "GDDR6X" är snabbare, när du behöver 11GB så är det stopp. Nya spel i 1440P/4K kräver runt 9 - 11GB vram, somliga ännu mer, där kan Ampere i dagsläget inget göra.

Varav Nvidia försöker få till en "ny" modell med mer vram. Konkurrens är bra för oss konsumenter, men fanboyism och skit snack när man inte har full koll är inte bra däremot.

Skrivet av teanox:

Vi har testat Godfall, det drar i 4k och ultra 11/12GB vram, därav "måste" DLSS vara igång för att hans kort ska klara push ut.

Jag själv har ingen möjlighet att testa VR, har glasögon redan så det skulle inte bli en bra kombo, speciellt som man är lite klaustrofob haha, dock största anledningen är att vi båda inte tycker det är värt pengarna för ett snordyrt VR som kör i 720p? Kan vara högre men vet att dem inte är i närheten till 1440P som jag själv kör på.

Ska testa mitt kort med mera spel och tester, kommer återkomma med en tråd om detta.

Vilka nya spel i 1440p menar du kräver 9-11gb vram? Tror inte jag sett ett enda. Någonsin. Godfall har väl inte ens DLSS som ett alternativ? Samt kräver väl inga 12gb vram heller visade det sig...

https://www.techpowerup.com/review/godfall-benchmark-test-per...
https://www.reddit.com/r/nvidia/comments/jspy61/godfall_requi...
Osv.

Snordyrt vr i 720p? Finns ens det att köpa idag?

Nä. Du får gänra förklara bättre ur du tänker med allt det du skriver för jag tror inte jag ser ett enda rätt i dina "tester" och resonemang.

Visa signatur

För närvarande dator"fri". Sparar till nytt :)

Permalänk
Medlem
Skrivet av Unaim:

Nu är dem bilderna bra inzoomade för att man ska kunna se fel i bildkvaliteten i syfte att recensera DLSS och är inte representativa för hur det ser ut för spelaren, och att påstå annat blir ju bara att sprida falska påstående.

Länkar bilden nedan så ni andra kan se bilden i dess fulla skala, observera dock att de inte visar den fullskaliga bilden från DLSS2.0 utan bara 1.9 så ni kan inte bedöma bildkvaliteten utifrån den utan det är bara i syfte att visa på hur pass inzoomad bilden är
https://i.imgur.com/gvDt5uW.jpg
https://i.imgur.com/ogcpDKY.jpg

Det är inte så att människor som tycker DLSS2.0 är bra gör det eftersom de är dumma och har blivit lurade utav Nvidias marknadsföring och inte förstår bättre, utan det är för att de inte spelar med flera gångers inzoomning samtidigt som de går runt och letar fel i bildkvaliteten.
Du får givetvis tycka vad du vill om DLSS2.0 precis som andra får tycka att det ser bra ut och det har faktiskt ingenting att göra med att de tycker så eftersom de inte förstår eller vet bättre.

Men grejen är ju att de inringade pixlarna flimrar och vibrerar när kameran rör sig, inte alls att det inte märks...

Permalänk
Medlem

För folk som inte är så insatta i DLSS (speciellt version 2) och hur grafiken påverkas så råder jag er att se följande eminenta video:

Edit: Ser nu att videoklippet redan blivit länkat i tråden, sorry

Permalänk
Medlem

Ni som har 6800 eller 6800XT, har ni möjlighet att checka om GPUns HDMI fungerar som det ska då det gäller ljud och speciellt surroundljud. Får någon ut surroundljud till sin system via HDMI? Tänkte lägga en order på 6800XT men för min del måste ljudet fungera, har inte använt AMD GPU senaste 10 åren.

Visa signatur

Moderkort: Gigabyte X570 AORUS MASTER rev 1.2 Processor: AMD Ryzen 7 5800X3D Kylning: Corsair be quiet! Dark Rock Pro 4 Minne: 32 GB Crucial Ballistix 3600 MHz Grafikkort: Sapphire NITRO+ Radeon RX 7900 XTX Hårddiskar: Corsair Force MP600 1TB M.2, Seagate BarraCuda 4TB 5400rpm Nätagg: Corsair RM850x V2 Chassi: Fractal Design Define 7 Compact Skärm: LG C3 77 tums TV

Permalänk
Medlem
Skrivet av The Kristoffer:

Det är ju snarare som så att Nvidia fått dig att tro på upplägget genom att officiellt kalla nedgraderingen för en feature. DLSS är en teknik, som använder sig av ML för att producera ok bildkvalitet från lågupplöst material, med huvudsyftet att ta sig rätten att kalla det högupplöst.
Det finns lagar man kan bryta mot, men fysikens lagar gör sig påminda som några som Inte låter sig brytas.
Som sagt hur mycket det än tjatas om att det är 4k, så är det ju inte det. Vi halkar alltid tillbaka på:
1: försämrad bildkvalitet till förmån för bättre prestanda
2: tappad verklighetsförankring
3: det går inte att skapa materia av rent vacuum
4: det går inte att skapa 8 megapixlar från 4 megapixlar utan att använda sig av duplicering eller gissningslek. Grunddatat kan liksom inte lyftas ur halsen på en magisk ande. 4k är 4k, 1080p är 1080p.
5: kejsaren är fortfarande naken

Så du försöker fortfarande ta de till extremer, ja då lär du inte komma långt varken här eller på andra ställen, DLSS 2 är en kompromiss och skalningsteknik, det har varit väl omtalat även från nVidia, att påstå annat är att direkt ljuga, den är samtidigt FÖRBANNAT mycket bättre än normal skalning så som checkerboard rendering, den är såpass bra att i spel där det är implementerat på ett bra sätt blir det rent svårt att se skillnad mellan 4k native och 4k med dlss2 quality, det du däremot ser skillnad på jävligt fort är betydligt högre FPS. Detta samtidigt som det då levererar bra nära nog native kvalité och väldigt mycket bättre bild än vanlig uppskalning. Vad i det är det du inte förstår?

Dina punkter har i slutändan väldigt lite med DLSS att göra och jag tror du förstår det själv också. Som du säger att det är "bara och ställa ner upplösningen" påvisar en dålig förståelse för tekniken, varför tror du AMD försöker få ut en motsvarande teknik så fort de kan? För att den inte fyller någon funktion för användare? Eller för att det faktiskt finns bra användningsområde för tekniken & att tekniken i sig faktiskt fungerar?

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av HMB:

För folk som inte är så insatta i DLSS (speciellt version 2) och hur grafiken påverkas så råder jag er att se följande eminenta video:
https://www.youtube.com/watch?v=YWIKzRhYZm4

Finns fler som gått igenom hur DLSS fungerar i praktiken.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av The Kristoffer:

3: det går inte att skapa materia av rent vacuum

Om man med vakuum menar "skapa information från upplösning BxH och rendera den i (2B)*(2H) på ett i praktiken korrekt sätt" så är det faktiskt exakt det machine-learning har möjligt att göra. Och är också det som händer i tillräckligt många fall med DLSS för att rätt många ska uppfatta DLSS som en riktigt bra teknik.

Tekniken är mycket riktigt gammal, grundläggande konceptet i ML togs fram redan på 50-talet, på 60-talet insåg man att med flera lager i sin modell kan man lösa icke-linjära problem och på 70-talet upptäcktes de träningsmetoder som vi idag använder. Problemet med denna teknik är att vi först nu haft beräkningskapacitet att på något rimligt sätt utnyttja det hela, tiden det har varit möjligt att använda det på miljontals datapunkter >=60 gånger per sekund är i sin linda.

Det här är långt mer ett skärpefilter, att det i praktiken krävs dedicerad HW som erbjuder ~100 TFLOPS för att göra det bra skvallrar lite om att det också handlar lite mer än normal uppskalning.

För att ta ett väldigt konkret exempel på vad ML kan åstadkomma: med en bra modell indenteras vissa högre nivå egenskaper i bilden, precis som vi människor tittar på världen och identifierar objekt. Raka linjer, t.ex. ett staket, husfasad eller linjer, kommer identifieras och kan då representeras matematiskt av modeller vilket i praktiken betyder att just den egenskapen har oändlig upplösning. D.v.s. när man skalar upp detta blir det samma resultat som om man faktiskt hade alla information i slutbilden.

Digital foundries vides om DLSS har länkats flera gånger, de har pekat på problem med tekniken (för tror ingen hävdar att tekniken är felfri) men de har också flertalet gånger påpekat att 4k DLSS i vissa lägen renderar mer detaljer än 4k-native. Detta är inte att gå på PR, det är en av de saker med ML som gör att allt fler slår knut på sig för att lura ut hur de kan utnyttja ML och orsaken till att de som doktorerat i området i praktiken kan sätta sin egen lön.

Man kan ha åsikter om att kalla det 4k-DLSS. Det är 4k, så ur den aspekten är det korrekt. Det finns vissa artefakter som elimineras om man kör 4k native, så det ska helt klart vägas in. Huvudpoängen är ändå: vem bryr sig egentligen om något mer än huruvida slutresultatet blir bättre?

DLSS gör det möjligt att ersätta felaktiga ljushanteringsmodeller, som inte blir mer korrekt oavsett hur mycket "native" man renderar 4k det hela i, med en fysisk korrekt representation av ljuseffekter. Raytracing har fördelen både i att det kräver mindre resurser på utvecklingssidan jämfört med "fuskljus" samtidigt som det kan hantera flera subtila effekter ljus har på slutresultatet. Det borde väl vara av väldigt stort intresse hos bildpuritanerna?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av tellus82:

Finns fler som gått igenom hur DLSS fungerar i praktiken.

https://youtu.be/ScAQ5Of1LfE

Men vad trött jag blir.
Jag länkade ju till exakt samma video och gav besked kring varför de tjänar så extremt i prestanda. De utgår från en lågupplöst bild och skalar upp den med tveksam kvalitet. Vissa bryr sig inte, men nu börjar vi jämföra uppskalat lågupplöst mot högupplöst baserat på "mjuka värden", åsikter. Du märker att vi börjar styra ur kurs här va?
#18740032

#18740032
Det är härligt att DF brer på med superlativ som "shockingly similar native" medan halos och artefakter haglar.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av The Kristoffer:

Men vad trött jag blir.
Jag länkade ju till exakt samma video och gav besked kring varför de tjänar så extremt i prestanda. De utgår från en lågupplöst bild och skalar upp den med tveksam kvalitet. Vissa bryr sig inte, men nu börjar vi jämföra uppskalat lågupplöst mot högupplöst baserat på "mjuka värden", åsikter. Du märker att vi börjar styra ur kurs här va?
#18740032

#18740032
Det är härligt att DF brer på med superlativ som "shockingly similar native" medan halos och artefakter haglar.

Det börjar väl bli ganska uppenbart att du har en åsikt som du bestämt dig för oavsett vad verkligheten påvisar, det är ok att du har den men försök inte pådyvla andra den som den skulle vara fakta.

Nej, DLSS2 är inte bara vanlig uppskalning, det är uppskalning med rekonstruktion, detta bör du förstå efter att ha sett så mycket videos om hur det fungerar. Du kan inte få samma resultat med normal skalning som du kan med DLSS2 quality. Det är inte ens lite i närheten.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Bildexpert
Skrivet av The Kristoffer:

Det är härligt att DF brer på med superlativ som "shockingly similar native" medan halos och artefakter haglar.

Självklart är inte konturer något som är eftersträvansvärt, men jag har själv inte sett det alls när jag kör Control (i DLSS 2.0 från 2560x1440 till 3840x2160). Får kolla igen när jag kommer hem. I videon påpekar de dessutom att det är tydligt om man zoomar in mellan 400-800%, samtidigt som de lyfter att det går att reglera på utvecklarens sida om denne så är observant nog.

Av ren nyfikenhet: Vad har du själv för erfarenhet av DLSS och under vilka omständigheter? Eftersom du enligt signaturen sitter med ett Radeon-kort tänker jag att du inte har tillgång till funktionen i hemmet, men du har väl åtminstone testat det under realistiska förutsättningar? Annars är din ståndpunkt av tämligen låg verkshöjd om du endast utgår ifrån andras uttalanden.

Permalänk
Skrivet av Yoshman:

Om man med vakuum menar "skapa information från upplösning BxH och rendera den i (2B)*(2H) på ett i praktiken korrekt sätt" så är det faktiskt exakt det machine-learning har möjligt att göra. Och är också det som händer i tillräckligt många fall med DLSS för att rätt många ska uppfatta DLSS som en riktigt bra teknik.

Tekniken är mycket riktigt gammal, grundläggande konceptet i ML togs fram redan på 50-talet, på 60-talet insåg man att med flera lager i sin modell kan man lösa icke-linjära problem och på 70-talet upptäcktes de träningsmetoder som vi idag använder. Problemet med denna teknik är att vi först nu haft beräkningskapacitet att på något rimligt sätt utnyttja det hela, tiden det har varit möjligt att använda det på miljontals datapunkter >=60 gånger per sekund är i sin linda.

Det här är långt mer ett skärpefilter, att det i praktiken krävs dedicerad HW som erbjuder ~100 TFLOPS för att göra det bra skvallrar lite om att det också handlar lite mer än normal uppskalning.

För att ta ett väldigt konkret exempel på vad ML kan åstadkomma: med en bra modell indenteras vissa högre nivå egenskaper i bilden, precis som vi människor tittar på världen och identifierar objekt. Raka linjer, t.ex. ett staket, husfasad eller linjer, kommer identifieras och kan då representeras matematiskt av modeller vilket i praktiken betyder att just den egenskapen har oändlig upplösning. D.v.s. när man skalar upp detta blir det samma resultat som om man faktiskt hade alla information i slutbilden.

Digital foundries vides om DLSS har länkats flera gånger, de har pekat på problem med tekniken (för tror ingen hävdar att tekniken är felfri) men de har också flertalet gånger påpekat att 4k DLSS i vissa lägen renderar mer detaljer än 4k-native. Detta är inte att gå på PR, det är en av de saker med ML som gör att allt fler slår knut på sig för att lura ut hur de kan utnyttja ML och orsaken till att de som doktorerat i området i praktiken kan sätta sin egen lön.

Man kan ha åsikter om att kalla det 4k-DLSS. Det är 4k, så ur den aspekten är det korrekt. Det finns vissa artefakter som elimineras om man kör 4k native, så det ska helt klart vägas in. Huvudpoängen är ändå: vem bryr sig egentligen om något mer än huruvida slutresultatet blir bättre?

DLSS gör det möjligt att ersätta felaktiga ljushanteringsmodeller, som inte blir mer korrekt oavsett hur mycket "native" man renderar 4k det hela i, med en fysisk korrekt representation av ljuseffekter. Raytracing har fördelen både i att det kräver mindre resurser på utvecklingssidan jämfört med "fuskljus" samtidigt som det kan hantera flera subtila effekter ljus har på slutresultatet. Det borde väl vara av väldigt stort intresse hos bildpuritanerna?

Jag brukar älska dina deep dives i kommentarsfältet och gillar hur du resonerar, men du kapade nog en punkt för tidigt:

3: det går inte att skapa materia av rent vacuum
4: det går inte att skapa 8 megapixlar från 4 megapixlar utan att använda sig av duplicering eller gissningslek.

Det här är ju förklaringen till varför spelet blir lättare att driva i samma output-upplösning: #18740032

Man skalar av information och gissar sig till ny. Funkar för en hel skara människor som aldrig kommer bry sig.
Men nu börjar vi avrunda lite i objektiv fakta va?
Det jag hoppas på är att DLSS-racet kommer att dö ut, snarare än att AMD kastar sig in i detta med. Ingen kommer gynnas av försämrad bild i ett race mot botten.

Ser du vad som händer i bilden i denna scen? #18740032
Vad som skiljer dem åt? En del kanske inte bryr sig om hackiga kanter, utfrätt kontrastskärpa, pixliga texturer. Det finns de som gör det. Att detaljer påstås komma fram handlar ju om att kontraster höjs så pass att de dyker fram i bild, det är ju inte magi det handlar om vilket du säkert vet.

Hur tror vi att det kommer se ut om GPU-tillverkarna tillåts att börja kalla saker för något det inte är, eller objektivt går att mäta? Då är vi inte långt ifrån 16K-32K racet som nästa steg i någon absurd jakt på siffror snarare än bildkvalitet. Drar vi resonemanget in i absurdum så blir ju det enkla svaret men ställ ned upplösningen istället. För mig är det lite samma sak. Kvaliteten blir lidande till förmån för prestanda.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av The Kristoffer:

Det jag förstår är att Nvidias marknadsavdelning lyckats fint med att skapa ett nytt mellansegment för folk som är för slöa för att ställa ned upplösningen och ställa upp en vettig AA och nu tvingas AMD kontra med det här likväl.
Det tekniken gör är att jobba med mindre data, bilden blir därefter. Trollkarlar har inte flyttat in i kiselchip än så länge.

DLSS ser ju dock markant bättre ut än en lägre upplösning dock.
Så det där argumentet håller ju inte direkt.

Permalänk
Skrivet av Nekrol:

DLSS ser ju dock markant bättre ut än en lägre upplösning dock.
Så det där argumentet håller ju inte direkt.

Men det är ju det hela den här diskussionen handlar om. Åsikten "markant bättre" är ytterst subjektiv. Vem är det som sätter gränsen för vad som är ok och inte? Är det du? Är den Lisa Su Eller Jehn sen? Är det jag? Ditt subjektiva argument håller inte. DLSS är en supersamplad och kontrastskärpt lågupplöst bild, tekniken är inte ny. Sättet att sälja in tekniken är ny dock.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision