Är hatet mot låtsaspixlar (DLSS och FSR) befogat?

Permalänk
Medlem

Hatet kommer väll från dom som slänger en månadslön på gpu? 😀

Permalänk
Medlem

Visste inte ens att det fanns ett hat imot det, haha vad larvigt.

Ha det gött

Visa signatur

Intel 7700k | Asus StrixF | Asus 2080 Super Strix | Corsair Vengeance 16Gb 3000Mhz | 1,7Tb Ssd | Corsiar Rmx650w | Corsair H115i | Acer XB271HU 165Hz G-Sync | Corsair air 540 | Xbox One X | Ps4 Pro

Permalänk
Medlem

Tekniken är ju helt nödvändig (inte i alla spel, men vissa) iom att bara en bråkdel har råd att skaffa de kort som klarar sig utan!

Permalänk
Medlem

Jag har bara ett 2060 i min dator. Jag verkligen älskar DLSS när det fungerar bra för det gör en enorm skillnad. Som någon nämnde tidigare är CP2077 ett bra exempel. Utan DLSS är det enormt låg fps men med det så är det helt klart spelbart. Hade jag haft en monstermaskin hade jag kanske resonerat annorlunda.

Permalänk
Medlem

Jag gillar det faktiskt, gick förvisso från ett kort utan DLSS stöd (1080ti) till ett kort med DLSS 3 från start... kör DLSS i dom spel som har stöd, exempelvis Battlefield 2042... där jag uppnår sjukt bra FPS utan direkt märkbart försämrad grafik alls. Ser faktiskt riktigt bra ut och man vänjer sig väldigt snabbt om man från början körde utan DLSS i spelet.

Visa signatur
Permalänk
Hedersmedlem
Skrivet av tintinj:

Jag ser ingen nackdel direkt så länge användaren inte kan märka skillnad.
Vad som konfunderar mig (inte i tråden men artikeln på startsidan) är bilden som visar stillbilder i olika fps, hur skulle mer frames per sekund göra en stillbild mer detaljerad som på bilden ni valt? Om jag spelar i 4K i 20 fps och tar en stillbild så borde det mig veterligen rendera en mycket mer detaljerad stillbild än en tagen med 640x480 och 100000 fps. Eller är det något jag missat?

Bilden är tagen från en demoslinga i Cyberpunk 2077 som är ett demo för DLSS Ray Reconstruction, en alternativ denoiser som i regel ger ökad detalj/bättre realism än DLSS av.

Video här: https://www.youtube.com/watch?v=sGKCrcNsVzo#t=4m52s

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Smogard49:

Problemet är väll främst all den dåliga implementation some användare erfarat genom åren vilket lett till att i "grafiken" kanske inte återspeglar det som finns i spelmotorn eller tvärt om. Detta har varit tydligt i tex ARMA när folkt försökt gömma sig i foliage medans någon annan annvänt andra inställningar, inte bara uppskalning, som gjort att objekt inte renderas etc vilket leder till att man åter igen hamnar i att det finns "optimala" inställningar till rent exploativa inställningar som leder till att användare har konkreta övertag.

Det är ett problem med dåliga implementationer och inte tekniken. Välimplementerad fungerar tekniken utmärkt, och den blir bara bättre för varje generation.

Citat:

men utifrån att man sedan säger att man har ett spel som går att köra i 4k och det egentliggen är 1080p upskalat oavsett så kanske det är så att användarna dvs vi egentligen inte ser att spel både optimeras och marknadsförs på ett sätt som får tekniken att rulla framåt, utan att vi då likt många kritiker yttrat sig, nått en platå som det inte finns incitament att ta sig vidare ifrån från varken de som utvecklar spelmotorer eller hårdvaran.

Det kommer alltid finnas efterfrågan på mer beräkningskraft. Enda skillnaden är att med uppskalningstekniker och genererade bildrutor kan vi få snyggare spel med aktuell hårdvara. På så vis kan spelutvecklare och hårdvarutillverkare jobba mot nya milstolpar.

Citat:

Sedan har det ju senaste månaderna blåst liv i diskussioner kring om att grundläggande block i nuvarande grafikmotorer bör gå över till Gaussisk splattning igen (3D Gaussian Splatting) men det kommer nog ta några år innan vi ser någon större utvecklare att våga byta motor.

Okej, jag vet inte vad du vill göra för poäng där? Det är en häftig teknik...

Permalänk
Medlem

Jag måste säga att jag tycker att vissa låter lite väl negativa.
Om slutresultatet är ”detsamma” så kvittar ju vägen att ta sig dit.

Jag tycker verkligen inte att man kan kalla bolagen för ”lata” när de utvecklar mjukvaror för att höja prestandan till i princip samma kvalitet (vilket bevisas av att de vidareutvecklar uppskalningsteknikerna så in i..). Utvecklingskostnaderna på t ex DLSS lär vara väldigt väldigt höga.
När vi är framme vid dlss 10 eller dylikt lär vi inte se någon skillnad på en dlss session och en vanlig. Då kommer vi alla vara glada över att de satsat på detta och infört sina Tensor-kärnor.

Att hävda att det inte sker några större ökningar gen to gen är också att blunda. Har aldrig sett ett så stort hopp mellan toppversion till toppversion som nu i år mellan 3090 och 4090. För att inte tala om energieffektiviteten vid ”normal” användning som ändå får anses vara spelande.

Om något skulle jag vilja ta upp SLI igen, där snackar vi stor nytta! Tänk om vi kunde få nära dubbla prestandan igen för dubbla pengen.
Eller låta ett kort enbart sköta massor AI beräkningar för dlss medan det andra kortet renderar de normala pixlarna eller något? Då skulle man komma långt t o m med ett 4060.

Permalänk
Medlem
Skrivet av tintinj:

Jag ser ingen nackdel direkt så länge användaren inte kan märka skillnad.
Vad som konfunderar mig (inte i tråden men artikeln på startsidan) är bilden som visar stillbilder i olika fps, hur skulle mer frames per sekund göra en stillbild mer detaljerad som på bilden ni valt? Om jag spelar i 4K i 20 fps och tar en stillbild så borde det mig veterligen rendera en mycket mer detaljerad stillbild än en tagen med 640x480 och 100000 fps. Eller är det något jag missat?

Högre FPS, fler frames genererade av interpolering, teoretiskt sett sämre bilder? Men bilden verkar vara marknadsföringsmaterial från Nvidia, så den kan du nog bortse från.

Visa signatur

Bra, snabbt, billigt; välj två.

Ljud
PC → ODAC/O2 → Sennheiser HD650/Ultrasone PRO 900/...
PC → S.M.S.L SA300 → Bowers & Wilkins 607

Permalänk
Medlem

Jag ser heller inte något negativt med det utan tvärtom! När det gäller prestanda förbättring gentemot generation så har det visst hänt mkt. Det är en väldigt stor prestandaökning mellan 3070ti och 4070ti till exempel + då mer ny teknik och strömsnålare. DLSS, framegen osv framtidssäkrar korten och prestandan enligt mig och precis som vissa skriver...om jag kan få ut mkt bättre flyt, FPS osv och kan maxa grafikinställningarna + inte ser någon skillnad i bilden så vad spelar det för roll? Starfield och CP2077 tex ser ju helt magiskt vackert ut för mig nu men flyter som smör! Tack vare nya teknikerna. Det gör att korten kommer hålla längre än tidigare (och ja du får ner VRAM förbrukning med DLSS också). Så jag tycker bara det är tacksamt!

Man kan ju jämföra det med mkt annat...som någon skrev här uppe, komprimerat ljud och bild...är det fejk då? Eller ta en bil som har "rå prestanda" en sugmotor men man implementerar turbo för att "fejka och öka prestandan" eftersom det inte bara går att öka den råa prestandan (öka cylinderantal osv) utan man måste hitta smartare sätt.

Visa signatur

Fractal Design Define R5 | AMD Ryzen 9 5900x | PNY RTX 4080 Verto 16GB | Corsair Vengeance 32GB LPX 3600Mhz | ASUS B550-F Gaming ROG STRIX | Noctua NH-U12S | Seasonic Focus GX-750W Gold ATX 3.0| LG 34GN850 Ultrawide 34" 144Hz

Permalänk
Medlem

Det är bakåtsträvare som hatar på det. Dom vill inte erkänna att framtiden inte kan förbli ''native''.
Verkar vara någon märkestolthet inblandad också, förstår inte hur folk resonerar. I slutändan handlar det om att få så bra bild som möjligt i så hög uplösning som möjligt. Sen om det heter Native eller Gråsugga är orelevant.

Permalänk
Konsolpleb 🕹

Personligen ser jag hela debatten om ”native” som en indikation på bristande förståelse för 3d i allmänhet kombinerat med paranoia där nvidia blåser folk och spelutvecklare är lata.

3D har alltid varit en fråga om kompromisser:
DOF med låga sampel counts.
RT med begränsat antal strålar.
Inget RT alls är såklart ännu vanligare.
Komprimerade texturer.
Shadow maps, texturer, normal maps etc av lägre upplösning än vad vi hade velat ha.
Hackiga approximationer för skuggor, reflektioner och ljussättning.
Reducerad precision i shaderberäkningar.
Osv osv osv listan kan göras hur lång som helst.

Om vi kan öka alla dessa saker till högra nivåer men i gengäld bara tumma på intern upplösning så är det ju knappast en orimlig tradeoff.
Speciellt inte med tanke på hur pass bra Dlss fungerar.

Visst DLSS kommer inte alltid se lika bra ut som native om man sitter och pixel peepar. Men jämför med screenspace reflection-occlusion eller utebliven GI etc. Dvs saker som pajar eller inte ens går att implementera - jämfört med DLSS där man kan få the full monty på eventuell lite bekostnad av rörelsesrtefakter och upplevd upplösning.

Jag får lite känslan av att native-ivrarnas ideala look i ett spel vore typ Half Life 2-eran av renderingsteknik fast mer fler polygoner, högre texturupplösning och att det rullade på i 120 fps i native 4k.
Tycker man att det är idealet så tycker man väl det, men det är ju fel…

Är nativeupplösning det viktigaste för en så finns det ju ofta väldigt bra alternativ för det också:
Ställ ner spelet på medium, använd inte RT tex.
Då får man ju i regel det folk verkar va ute efter när de hetsar om native: allt dras ner på bekostnad av native. All den där moderna tekniken och grafiska effekterna etc var ju dåliga om de gör att man inte kan spela i nativeupplösning. Lösningen finns där i inställningarna: använd dem.

Och ja, jag vet att Remnants II lyfts fram som att det kräver uppskalning och det är dåligt, men det är inte riktigt så svartvitt. Det handlar också om att det är en relativt liten utvecklare som använt en tidig version av UE5 - en motor som ännu inte är i närheten att vara så mogen som andra stora motorer och inte alls har lika bra support från Epic själva ännu.
Det låter helt klart mer som en paniklösning på grund av svårkontrollerade omständigheter för en liten utvecklare än vad det låter som en ny standard för branschen.

Angående att det någon gång blir standard för branschen, tja varför inte. Har alla andra fulhacks, genvägar, kompromisser och avkall blivit standard så ser jag inte ett egentligt problem med att en av de mest rimliga och milda kompromisserna blir standard.

Visa signatur

240p är livet

Permalänk
Skrivet av Mocka:

Tänker ni verkligen att DLSS finns för att grafikkortstillverkarna ska slippa tänka på rasterprestanda? Jag antar och HOPPAS att det helt enkelt handlar om att prestandaökningar kräver så mycket mer per generation att uppskalningstekniker krävs för att kunna göra så stora hopp som marknaden förväntar sig?

Men jag kanske är blåögd?

Det är väl mer för spelutvecklare som inte orkar "optimera" deras spel.

Visa signatur

YOLO is Carpe Diem for idiots.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Värdelöst, man kan lika gärna sänka upplösningen på skärmen.

Fast då skalar ju skärmen upp istället och det fasiken inte bättre ut än om grafikkortet gör det.

Permalänk
Avstängd

Inget emot tekniken, tanken är jätte bra..

Men utvecklarna ska absolut inte förlita sig på den tekniken när de ''optimerar'' sina spel.

Ett kort i toppklassen för dagens priser ska inte kämpa för att få 60FPS.

Visa signatur

XFX Merc 7900XT|R5 5600X|MSI MPG B550|32GB 3600mhz.

32" 1440P@240Hz, 1000R.

Permalänk
Medlem

Det kan vara bra i viss mån (Utveckla!)

Skälv så använder jag det inte då mitt 6900 XT Ultimate Xtreme WaterFo ger tillräckligt hög FPS på full upplösning .
Men man kan i dag få en hög FPS 2160P skärm billigt, och det vill man ha för det ger så mycket mer programfönsteryta utanför spel. Samtidigt kanske man inte vill sänka ner skärmen upplösningen till 1080P = 1/4 när man ska spela. Det för att budgeten inte räckte till en GPU som klarar nativ upplösningen på tillräckligt hög FPS.
d.v.s Det är bra om man både vill ha en bra workstation skärm men kanske inte prioriterar gaming, men ändå vill kunna spela okej ibland.

Ps. Om en 2 år kanske jag köper en Samsung Odyssey Neo G9 57" G95NC. Då kanske man kan kommer över den billigt nog. Då kommer man garanterat behöva några "låtsaspixlar"

Ps. tillägg
Visa signatur

MB: Gigabyte Z690 Gaming X DDR4 | CPU: 13700K | RAM: DDR4-3200 64 GB
GPU: GIGABYTE Radeon RX 6900 XT Ultimate Xtreme WaterFo Skärm: Acer Predator 4K 27" XB273KGP
DYSLEKTIKER Kan innehålla spår av språkfel

Permalänk
Medlem

Tycker det överlag är rätt kasst.

Vi får en bakåtutveckling i bildkvalité och det är inget som bör uppmuntras/användas förutom i nödfall.
Allt annat än DLSS quality riktigt dåligt ut men även där märks det ju alltid. Skuggor och mörka miljöer framförallt.

Visa signatur

What evah! i'll do what i want! | Det stavas väl inte väll...såvida du inte ska skriva välling.
"Det var väl bra"

Permalänk
Medlem
Skrivet av ckghagen:

Det kan vara bra i viss mån (Utveckla!)

Skälv så använder jag det inte då mitt 6900 XT Ultimate Xtreme WaterFo ger tillräckligt hög FPS på full upplösning .
Men man kan i dag få en hög FPS 2160P skärm billigt, och det vill man ha för det ger så mycket mer programfönsteryta utanför spel. Samtidigt kanske man inte vill sänka ner skärmen upplösningen till 1080P = 1/4 när man ska spela. Det för att budgeten inte räckte till en GPU som klarar nativ upplösningen på tillräckligt hög FPS.
d.v.s Det är bra om man både vill ha en bra workstation skärm men kanske inte prioriterar gaming, men ändå vill kunna spela okej ibland.

Det är bra tänkt, och så här var det en gång i tiden innan platta skärmar tog över. Man kunde köra tjock-skärmarna i alla möjliga upplösningar, olika för spel och kontor så att säga.

Det är bra att vi börjar komma tillbaka dit, men med lite andra tekniker.

Permalänk
Medlem

Uppskalning och den senaste tidens utveckling av uppskalning är helt klart bra. Brist på standard och fulknep från tillverkare för att låsa ute konkurrenter är däremot inte lika trevligt.

Det är ungefär som när "Gsync" kom, inget fel med tekniken men vi fick vada genom marknadsföringsskit i 10år+ innan det var en etablerad kundvänlig teknik.

Permalänk
Avstängd
Skrivet av Ceogar:

Tycker det överlag är rätt kasst.

Vi får en bakåtutveckling i bildkvalité och det är inget som bör uppmuntras/användas förutom i nödfall.
Allt annat än DLSS quality riktigt dåligt ut.

Exakt.

Vet inte om någon minns det.. men typ 2010 eller när det var.. När nVidia fuskade i sina drivrutiner genom att göra texturerna i spel sämre för att få bättre FPS.. det var kaos i spelvärlden.. jäklar.

Idag är det välkommet, bara det att användaren själv får avgöra

Visa signatur

XFX Merc 7900XT|R5 5600X|MSI MPG B550|32GB 3600mhz.

32" 1440P@240Hz, 1000R.

Permalänk
Medlem

Det som man märker är ju input-lagg iaf på FPS spel. Kör jag FrameGen och har över 100 FPS känner jag fortfarande av mer inputlagg än utan Framegen och 60 fps... Så det är ett problem som måste lösas, speciellt för MP spel. Singel player spelar det inte så stor roll.

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem

Klart det kan vara negativt ibland. Men det är väl sällan så att det är negativt oavsett inställning?
Det finns ju olika grader, och man måste inte alltid ha alla tekniker på fullt blås.
Det är ju aldrig påtvingat heller. Och den dagen det kanske är det så är det en spelutvecklare som gjort en kvalitets/prestanda-avvägning precis som de gör med polygonantal, ljussättning, texturer osv.

Då varenda pixel på ens skärm är en kompromiss så ser jag inte varför man måste vara purist på en sådan sak.

Klart en del vill ha kakan och äta den. Men för att nå spelbar eller njutbar framerate så är det ju andra saker man måste tumma på istället. Man byter ju bara vilket sätt man sänker kvaliteten på. Och "låtsaspixlar" är i många fall mildare kvalitetsförsämring än sänkta grafikinställningar och lägre upplösning.

Permalänk
Hedersmedlem
Skrivet av SvenskEnkrona:

Idag är det välkommet, bara det att användaren själv får avgöra

Eh, så har det ju alltid varit. Texturinställningar från low till high/ultra har funnits i de flesta spelen sedan typ Quake, för att inte nämna alla andra inställningar man kan sänka för att få en annan balans på bildkvalitet vs prestanda. Hur är detta annorlunda?

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Nissling:

Jag välkomnar DLSS och FSR som valmöjligheter hos användaren. Kan vara en utmärkt kompromiss att uppnå användbar prestanda med ett något äldre kort utan att bildegenskaperna blir alltför lidande.

Mitt enda krav är att de diagram och grafer med prestandainfo som delges i tester, presskonferenser etc är tydliga med exakt vad som avses. Risken är annars påtagligt stor att man jämför äpplen och bananer.

Bara för klargörande.
Du vet att äpplen och päron betyder samma sak som äpplen och bananer eller rent av äpplen och hitler.
Dvs två helt olika saker.

Permalänk
Medlem
Skrivet av Ceogar:

Tycker det överlag är rätt kasst.

Vi får en bakåtutveckling i bildkvalité och det är inget som bör uppmuntras/användas förutom i nödfall.
Allt annat än DLSS quality riktigt dåligt ut men även där märks det ju alltid. Skuggor och mörka miljöer framförallt.

Finns flera fall där DLSS ser bättre ut. I praktiken handlar det inte heller bara om att jämföra vid samma upplösning. Vad ser exempelvis bäst ut mellan 1080 native mot 4K DLSS? Det är en tämligen relevant skillnad för alla som överväger att byta till en mer högupplöst skärm. Något som i sin tur kan leda till att primitiva upplösningar snart dör ut, när man får bra prestanda och bildkvalitet med mellanklasskort.

Permalänk
Medlem
Skrivet av Ceogar:

Tycker det överlag är rätt kasst.

Vi får en bakåtutveckling i bildkvalité och det är inget som bör uppmuntras/användas förutom i nödfall.
Allt annat än DLSS quality riktigt dåligt ut men även där märks det ju alltid. Skuggor och mörka miljöer framförallt.

Hur jämför du då? Förutsätter du allt annat lika inklusive framerate? Då är det klart att det är negativt. Men nu möjliggör ju dessa tekniker helt andra inställningar och prestanda.
Om alternativet är lägre upplösning och/eller lägre framerate så kan man väl knappast säga att "låtsaspixlar" rakt av leder till sämre bildkvalitet i jämförelse?

Permalänk
Medlem
Skrivet av DasIch:

Finns flera fall där DLSS ser bättre ut. I praktiken handlar det inte heller bara om att jämföra vid samma upplösning. Vad ser exempelvis bäst ut mellan 1080 native mot 4K DLSS? Det är en tämligen relevant skillnad för alla som överväger att byta till en mer högupplöst skärm. Något som i sin tur kan leda till att primitiva upplösningar snart dör ut, när man får bra prestanda och bildkvalitet med mellanklasskort.

Man ska naturligtvis jämföra vid samma prestanda. Ett 4070 i 1440p vs 4k med DLSS performance/ultra performance.

Permalänk
Medlem

Om optimering och smarta designval ersätts med artificiella detaljer så är jag emot det. Är rädd att trenden blir att "Äsch det händer ändå så mycket på skärmen att ingen märker nåt", och att man försöker skapa illusionen av bra grafik snarare än att det faktiskt är bra grafik. Lite som mobilkameror som fejkar sig till upplevd bildkvalité med HDR, gräsligt hård brusreducering och uppskärpning.

Men om jag kan välja mellan att få 60fps genom att avaktivera Ray-Tracing, sänka texturkvalitén och massa annat gött, eller att aktivera allt det där på max men använda DLSS för att skala upp bilden på ett nästintill omärkbart sätt så väljer jag ju hellre DLSS. Det blir säkert en försämring av grafiken, men en mindre försämring än att sänka grafikinställningarna.

Med andra ord tycker jag tekniken är bra, så länge det används som ett mindre märkbart sätt att sänka sina grafikinställningar jämfört med att faktiskt sänka grafikinställningarna. Men utgångspunkten ska fortfarande vara "äkta" bra grafik som man försöker återskapa.

Permalänk
Medlem

Jag tycker "låtsaspixlar" är en bra idé i högre upplösningar. Bara att gå från 1080p till 1440p innebär nästan dubbelt så många pixlar (från ca. 2 MP till 3,7 MP) vilket höjer kraven på grafikkortet enormt. Genom att använda uppskalning kan man uppgradera från t.ex. en 1080p-skärm till en 1440p utan att oroa sig för att sitt gamla grafikkort inte ska orka med eller att kvalitén ska bli lidande p.g.a. icke-native upplösning. T.o.m. 4K går att köra på relativt klena grafikkort och ändå ge bildkvalité som native 1080p eller bättre.

Dock känns det som utvecklare börjar bli lata när det kommer till att optimera eftersom de bara kan luta sig mot DLSS/FSR. I många nya spel måste även relativt kraftfulla kort använda uppskalning till den grad att den interna upplösningen börjar närma sig 720p eller t.o.m 540p och då känns det som vi snart är tillbaka på 1990-talet. Även GPU-tillverkarna blir snålare eftersom de kan släppa mer nerskalade budget och midrange-kort som i praktiken inte klarar nyare spel i 1080p, och sedan bara hänvisa till att man kan köra FSR/DLSS.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Discokungen

Det är skitbra i snabb rörelse, då ser man ändå inte detaljerna men märker definitivt av om fipsen segas ner. Sen ska det klart se bra ut när man kan detaljstudera spel men det går uppenbarligen att göra båda.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld