Är hatet mot låtsaspixlar (DLSS och FSR) befogat?

Permalänk
Medlem

Är hatet mot låtsaspixlar (DLSS och FSR) befogat?

Hejsan!

Jag är nyfiken på att höra vad ni tänker kring denna tekniken och tänkte att det kan vara vettigt att göra en tråd om det.

Jag har hört lite olika argument kring tekniken och många är skeptiska eller negativa till det.
En vän till mig sade att det rör sig om lathet / girighet. Att istället för att utveckla bättre GPU:er så säljer man sämre produkter, tar mer betalt och använder uppskalning som en sorts krycka för att få det att fungera ändå.

Hur känner ni kring tekniken?

Rubrik förtydligad /Mod
Permalänk
Bildexpert

Jag välkomnar DLSS och FSR som valmöjligheter hos användaren. Kan vara en utmärkt kompromiss att uppnå användbar prestanda med ett något äldre kort utan att bildegenskaperna blir alltför lidande.

Mitt enda krav är att de diagram och grafer med prestandainfo som delges i tester, presskonferenser etc är tydliga med exakt vad som avses. Risken är annars påtagligt stor att man jämför äpplen och bananer.

Permalänk
Medlem
Skrivet av Nissling:

Jag välkomnar DLSS och FSR som valmöjligheter hos användaren. Kan vara en utmärkt kompromiss att uppnå användbar prestanda med ett något äldre kort utan att bildegenskaperna blir alltför lidande.

Mitt enda krav är att de diagram och grafer med prestandainfo som delges i tester, presskonferenser etc är tydliga med exakt vad som avses. Risken är annars påtagligt stor att man jämför äpplen och bananer.

Jag hörde om den problematiken, att DLSS användes lite i "hemlighet" i vissa tester. Det är ju definitivt jätteviktigt att vara tydlig med det, speciellt om det kommer från dom som faktiskt säljer korten...

Permalänk
Hedersmedlem

Rent generellt skulle jag säga att allt som gör att det går att skala upp 3D-rendering från lägre upplösningar rent generellt är bra som koncept. Att rendera ett spel i en högre upplösning än man faktiskt kan se skillnad på är att elda för kråkorna, kan man nå ett resultat som ser lika bra ut eller nära nog med en bråkdel av energin och till en bråkdel av kostnaden är det inget fel i att göra det.

Det är inget självändamål att varenda pixel måste vara "på riktigt". Så funkar ändå inte datorgrafik idag, det tas många genvägar när man renderar 3D för att det ska flyta på.

Sedan kan man ha synpunkter om specifika implementationer och hur det marknadsförs. Det enda jag egentligen bryr mig om att jag i framtiden ska t.ex. uppgradera till en skärm med högre upplösning för att få bättre textrendering och ändå kunna få en okej och problemfri rendering om jag ska spela spel på samma monitor.

Permalänk
Medlem
Skrivet av pv2b:

Rent generellt skulle jag säga att allt som gör att det går att skala upp 3D-rendering från lägre upplösningar rent generellt är bra som koncept. Att rendera ett spel i en högre upplösning än man faktiskt kan se skillnad på är att elda för kråkorna, kan man nå ett resultat som ser lika bra ut eller nära nog med en bråkdel av energin och till en bråkdel av kostnaden är det inget fel i att göra det.

Det är inget självändamål att varenda pixel måste vara "på riktigt". Så funkar ändå inte datorgrafik idag, det tas många genvägar när man renderar 3D för att det ska flyta på.

Sedan kan man ha synpunkter om specifika implementationer och hur det marknadsförs. Det enda jag egentligen bryr mig om att jag i framtiden ska t.ex. uppgradera till en skärm med högre upplösning för att få bättre textrendering och ändå kunna få en okej och problemfri rendering om jag ska spela spel på samma monitor.

Låter som en klok inställning enligt mig.
Mycket ligger i marknadsföringen.
Tror du att det finns en risk att tekniken på något sätt hindrar utvecklingen av vettiga GPU:er i framtiden? Att det blir ett sorts handikapp man lätt lutar sig på?

Jag hade en tanke kring att grafikkorten bara blir större och större, och att det börjar bli svårt att krympa chippen, moore's lag är väl påväg att stämpla ut också... Då kanske uppskalning blir ett måste snarare än ett alternativ...

Permalänk
Medlem

Spelar man i 4k kan det vara bra. Speciellt DLSS.

När man spelar i 1080p eller rituell och med 1440p så är det inte lika bra. Speciellt inte FSR.

Jag är övertygad om att det är framtiden men just nu är det mest användbart i 4k.

Inte använt Frame Generation men från vad jag hört är det mest användbart om du redan har bra FPS. Det är säkert något som kommer utvecklas mycket framöver.

Framtiden lär de ännu mer AI och jag tror att det är helt nödvändigt för att fortsätta krama ur mer prestanda nu när noderna blir svårare och svårare att förminska ner för de redan är så minimala.

Så kort skulle jag säga 1080p absolut inte. 1440p kanske om det är DLSS och quality mode. 4k kan jag tänka mig både DLSS eller FSR.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk

FSR och DLSS är lite som en krycka för tillverkarna för att få ut mer FPS utan att tillföra reell prestanda mellan generationerna. Nvidia har hittat ett nytt sätt att använda kiselytan som tensorkärnorna tar upp, vilket borde ge en fingervisning om att Nvidia inte varit ett grafik-korts företag på ett tag, utan snarare ett datacenter företag. gaming är bara en bisyssla nu för tiden.

Visa signatur

"Ta det lungt jag är dyslektiker"

Permalänk
Medlem
Skrivet av Chromatic:

Tror du att det finns en risk att tekniken på något sätt hindrar utvecklingen av vettiga GPU:er i framtiden? Att det blir ett sorts handikapp man lätt lutar sig på?

Jag tror mer att det får ses som en del av den naturliga följden av att fysikens lagar börjat göra sig påminda vad gäller kretstillverkning. Det är allt svårare och dyrare att krympa kretsarna; själva grundtesen för Moores lag är raserad, man jagar alltmer alternativa vägar att fortsätta vinna prestanda istället, på alla nivåer i stacken.

Och jag uppfattar då detta som ett exempel på att vinna prestanda genom om att tänka om helheten kring hur man kan nå själva slutresultatet som krävs; man kanske då t.ex. inte alls behöver rendera spelet i 4k om man kan ta fram en avancerad lösning för uppskalning som är tillräckligt bra för att slutresultatet ska bli fint och vinna en massa prestanda den vägen. Eller motsvarande med framegen-varianter; man kanske inte behöver rendera varje bildruta för sig.

Jag tror ju mer att det vi sett är de första stapplande stegen tagna efter att man insett att det krävs att man börjar jobba smartare...

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av evil penguin:

Jag tror mer att det får ses som en del av den naturliga följden av att fysikens lagar börjat göra sig påminda vad gäller kretstillverkning. Det är allt svårare och dyrare att krympa kretsarna; själva grundtesen för Moores lag är raserad, man jagar alltmer alternativa vägar att fortsätta vinna prestanda istället, på alla nivåer i stacken.

Ja precis!
Och det är intressant att tänka på, även om vi blir jättebra på DLSS/FSR eller annan teknik så är det väl ett faktum att korten ändå kommer fortsätta växa. Jag undrar hur korten ser ut om tio år!?

Jag testar DLSS 3.5 i CP77 nu och är väldigt imponerad.
Jag har 27 fps utan och 70+ med, vilket är helt sinnes, för jag har svårt att se någon skillnad i bildkvalitet.
Ser fram emot framtiden!

Permalänk
Medlem
Skrivet av Chromatic:

Ja precis!
Och det är intressant att tänka på, även om vi blir jättebra på DLSS/FSR eller annan teknik så är det väl ett faktum att korten ändå kommer fortsätta växa. Jag undrar hur korten ser ut om tio år!?

Anledningen till att grafikkorten tenderar att bli större och större är för att de blir mer strömkrävande och då kräver mer kylning - och skall man någorlunda effektiv kylning som inte väsnas alltför mycket så tar det lite plats.
Men det är ju inte alldels självklart att strömförbrukningen kommer att fortsätta öka så mycket mer.

Permalänk
Medlem
Skrivet av Erik_T:

Anledningen till att grafikkorten tenderar att bli större och större är för att de blir mer strömkrävande och då kräver mer kylning - och skall man någorlunda effektiv kylning som inte väsnas alltför mycket så tar det lite plats.
Men det är ju inte alldels självklart att strömförbrukningen kommer att fortsätta öka så mycket mer.

Ah okej! Jag tänkte mer att när man inte längre kan krympa chippen mer så minskar ju inte bara krämen utan även effektiviteten... Dvs, värmen kommer öka och öka.

Permalänk
Medlem
Skrivet av Erik_T:

Anledningen till att grafikkorten tenderar att bli större och större är för att de blir mer strömkrävande och då kräver mer kylning - och skall man någorlunda effektiv kylning som inte väsnas alltför mycket så tar det lite plats.
Men det är ju inte alldels självklart att strömförbrukningen kommer att fortsätta öka så mycket mer.

En annan anledning är marknadsföring. Om något ser stort och påkostat ut säljer det. Finns massor med strömsnåla kort med enorma kylanordningar.

Permalänk
Medlem

Varför skulle DLSS/FSR stopp utvecklingen av bättre GPU's? Ingen här skulle köpa en GPU om nästa generation skulle nå samma FPS som tidigare generation. GPU tillverkare är motiverad att öka ren prestanda för det är det enda som säljer.

Visa signatur

System: i5 10600K, Asus Z490-F, Corsair Vengeance 16GB 3200MHz, SSD 256GB Samsung 830 & 1TB 860 EVO, ASUS TUF 3080, Noctua NH-U14S, Corsair RM850Xv2, Fractal Design Meshify C, LG 34GK950F.

Permalänk
Medlem
Skrivet av Coca:

Varför skulle DLSS/FSR stopp utvecklingen av bättre GPU's? Ingen här skulle köpa en GPU om nästa generation skulle nå samma FPS som tidigare generation. GPU tillverkare är motiverad att öka ren prestanda för det är det enda som säljer.

Jag tror själva argumentet är att om spel går att köra i bra FPS med hjälp av DLSS/FSR så finns det mindre initativ att förbättra tekniken.

Dom tar ju fortfarande riktigt bra betalt för korten, och folk tycks köpa dom, så det hade väl bara varit förlust för dom att sälja mer påkostade produkter...

Vet inte om jag själv köper argumentet, men det var en av många argument folk tagit upp.

Permalänk
Medlem

Kanske? Riktiga pixlar är ju alltid värda mer. Det finns en mörk framtid där nvidia säljer kort som inte klarar att leverera duglig spelprestanda utan DLSS.

Visa signatur

7800X3D//4090
MINT XFCE // W11 🤮

Permalänk
Medlem

DLSS och FSR fyller i pixlar där det inte fanns några förut för att ge ett bättre flyt, absolut är det en positiv utveckling! Ingen som kommer ihåg hur de gjorde förr? Tvingad motion blur för att dölja dålig prestanda.

Permalänk
Medlem

Tänker ni verkligen att DLSS finns för att grafikkortstillverkarna ska slippa tänka på rasterprestanda? Jag antar och HOPPAS att det helt enkelt handlar om att prestandaökningar kräver så mycket mer per generation att uppskalningstekniker krävs för att kunna göra så stora hopp som marknaden förväntar sig?

Men jag kanske är blåögd?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem

Det är utmärkt med teknik som gör att man kan jobba smartare istället för hårdare.

Permalänk
Medlem

Värdelöst, man kan lika gärna sänka upplösningen på skärmen.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem

Ser jag ingen försämring och upplevelsen är likvärdig förstår jag inte varför man ska klaga.
Vissa tekniker så som frame generation däremot verkar bara funka för mig med en högre bas-fps. För hög latency känner jag av och tycker är en deal breaker.

Visa signatur

Corsair 5000D | PRIME X670E-PRO | 7800X3D |
Kingston Fury Beast DDR5 2x16GB @6000MT/s CL30-40-40-28 | TUF RTX 4090 | 2 * 2TB WD Black SN850X PCI-E 4 |

Permalänk
Medlem

Det är som att säga att komprimerat ljud och video är låtsasljud och låtsasvideo

Permalänk
Medlem

Ingen form av "hat" är någonsin befogat, då det krävs mycket energi att frammana en hat-känsla -- energi som man kan använda till något kreativt istället.

Med det sagt, mitt 3080 "pajade" (rättare sagt, ett ännu äldre kort pajade så jag fick ersätta det med 3080:t), så köpte ett 4080 då det fanns i lager nu.

DLSS3.5 är säkert skitbra, men med det påslaget i exempelvis CP2077 så "laggar" det så in åt fanders (går från 9ms -> 40-50ms enl. Nvidias reflex-verktyg) så det blir i princip ospelbart om man inte är totalt konsollifierad.

Det är ju roligt med många frames, men det är ännu roligare om spelet också är responsivt. Det är det inte, därför är tekniken en "fluga" mer eller mindre.

Visa signatur

Asus B550E-Gaming / Ryzen 5900X stock / Corsair Vengeance 32GB 3600 MHz CL18 /
ASUS TUF 4080 Gaming OC / Samsung 980 PRO 2TB PCI-Ev4 + 2TB WD Black NVME PCI-Ev3 / Corsair RM850x v2 / Acer Predator XB273UGX 1440p 270 Hz G-Sync / Phantek P500A / Arctic Cooling LF II 240mm / Evo 4 / Sennheiser IE 300 / Rode NT1-A
Synology 1621+ 6*16 / 1513+ 5*8 / LG CX 65" / XBox Series X
Ownit > Bahnhof

Permalänk
Medlem

Allt är fejk och låtsas med pixlar på skärmen om man ska hårddra det.

Men med det sagt så måste man jämföra äpplen och äpplen och vi ser redan klart och tydligt att Nvidia vil lgämföra äpplen och päron.

Dom vill helst visa att RTX4060 är bättre än RTX3060 där den nyare kör senaste DLSS, men när igen av dom kör DLSS ser vi ofta hur 3060 serien slår 4060 serien.

Själv kör jag FSR i linux på mitt RX5700 och tycker det är superbra då grafikkort kostar för mycket i dag så kan jag få ut mycker mer ur det kortet.
Ultra Quality är oftast bra nog och ger ofta 30% mer fps. men det skalar ju upp 30% också så.

Problemet är som sagt att nvidia gärna vill ge oss mindre kisel i dag för mer pengar så dom kan vinst maximera mer än någonsin.

Vi ser det på både 4060 och 4070 korten (ti inkluderat).

Inte mycket till uppgraderingar om man kollar rå prestanda mot föra generationen, så som konsument måste vi begära mer rå prestanda också för varje generation för samma peng så pris/prestanda inte stagnerar.

Utöver det får dom göra hur bra uppskalningsteknik dom vill, det är bara possessivt för allt med rendering är som sagt fejk och genvägar i någon mån.

Sedan tycker jag nog man också lite börjar se spelutvecklare använda uppskalningteknik som en krycka för att slippa optimera spelen och det är ju inte heller en önskvärd utveckling.

Annars blir det ju bara att konsumenten betalar mer för mindre i ren hårdvara och att eventuella vinster uppskalningteknik och interpolering genererar slösas bort av slarviga spelutvecklare och utgivare.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Värdelöst, man kan lika gärna sänka upplösningen på skärmen.

Utan uppskalning då eller? För om du istället bara låter skärmen skala upp bilden så är det ju fortfarande "låtsaspixlar", bara med en sämre metod.

Permalänk
Skrivet av DasIch:

Det är utmärkt med teknik som gör att man kan jobba smartare istället för hårdare.

Problemet är väll främst all den dåliga implementation some användare erfarat genom åren vilket lett till att i "grafiken" kanske inte återspeglar det som finns i spelmotorn eller tvärt om. Detta har varit tydligt i tex ARMA när folkt försökt gömma sig i foliage medans någon annan annvänt andra inställningar, inte bara uppskalning, som gjort att objekt inte renderas etc vilket leder till att man åter igen hamnar i att det finns "optimala" inställningar till rent exploativa inställningar som leder till att användare har konkreta övertag.

I säg ett singleplayer spel så är det mer svart och vitt med att "bättre" grafik kanske kostar prestanda ja,

men utifrån att man sedan säger att man har ett spel som går att köra i 4k och det egentliggen är 1080p upskalat oavsett så kanske det är så att användarna dvs vi egentligen inte ser att spel både optimeras och marknadsförs på ett sätt som får tekniken att rulla framåt, utan att vi då likt många kritiker yttrat sig, nått en platå som det inte finns incitament att ta sig vidare ifrån från varken de som utvecklar spelmotorer eller hårdvaran.

Sedan har det ju senaste månaderna blåst liv i diskussioner kring om att grundläggande block i nuvarande grafikmotorer bör gå över till Gaussisk splattning igen (3D Gaussian Splatting) men det kommer nog ta några år innan vi ser någon större utvecklare att våga byta motor.

Visa signatur

Jag är trött på att alla vuxna säger att man kan få mardrömmar av spel, Själv så har jag dock varit med om det. När jag var liten så spelade jag ett spel som gick ut på att stänga in små studsande bollar så snabbt och effektivt som möjligt. Men så en natt drömde jag att jag var bollen, det var då jag upptäckte att jag hade Klaustrofobi...

Permalänk
Trollfabrik 🫶🏻
Skrivet av Mocka:

Tänker ni verkligen att DLSS finns för att grafikkortstillverkarna ska slippa tänka på rasterprestanda? Jag antar och HOPPAS att det helt enkelt handlar om att prestandaökningar kräver så mycket mer per generation att uppskalningstekniker krävs för att kunna göra så stora hopp som marknaden förväntar sig?

Men jag kanske är blåögd?

Nej, det är du inte. De här teknikerna har kommit till för att man inte längre får "gratis lunch" vid nodskiften. Det alla drömmer tillbaka till är när antalet transistorer på en given yta dubblerades, energieffektiviteten gick upp kraftigt och möjligheten att pressa upp klockfrekvenserna likaså vartannat år. Varje kliv vi tar ned på nanometer-trappan numera kostar mer och fördelarna sett till ökad prestanda (klockfrekvens), energieffektivitet och transistordensitet minskar.

Att köra brute force för att kräma ur mer prestanda har lett till dagens grafikkort med specificerad effektförbrukning norr om 300 W. Diminishing returns är här för att stanna och nu måste man hitta alternativa vägar än de traditionella för att få ut mer prestanda. Att kasta fler exekveringsenheter för att få ut mer prestanda vid rastrering funkar helt enkelt inte om man vill se några roliga prestandaökningar framöver.

Det är kul att se den här diskussionen idag! När jag var på Nvidias lanseringsevent för Geforce GTX 680 "Kepler" talade företaget redan om att vi var på väg mot en vägg (då gick de ned till 28 nanometer) och sade något i stil med att vi snart når vägs ände med enkla prestandaökningar genom nodkrympningar och kommer behöva "fuska" med ny mjukvara för att få ut mer prestanda om några år. Det här var mars 2012!!

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Skrivet av Mocka:

Tänker ni verkligen att DLSS finns för att grafikkortstillverkarna ska slippa tänka på rasterprestanda? Jag antar och HOPPAS att det helt enkelt handlar om att prestandaökningar kräver så mycket mer per generation att uppskalningstekniker krävs för att kunna göra så stora hopp som marknaden förväntar sig?

Men jag kanske är blåögd?

Nej, tekniken för grafikkort har sprungit om Moores Law, precis som för CPUer. Dessutom tycker vill många kunder i dag "spela alla spel på Ultra", och helst ska de ha ett "framtidssäkert" kort också. Spelindustrin gör spel i en stil som ställer höga krav på grafikkorten, eftersom det är det som efterfrågas.

Så tillverkarna av grafikchip har fått tänka i litet andra banor för att kräma ut mer prestanda. De är reda väldigt parallelliserade, så de verkar börja nå den vägens slut. Att öka effektuttaget har varit ett sätt att få ut litet mer prestanda, men det går ju inte att dra hur långt som helst. Du kan ju tänka dig hur en trefasvariant av 12VHPWR skulle bli.

Det är ett komplext system, och inte som många tror att bara göra snabbare komponenter och optimera saker.

Edit: För att kommentera på den ursprungliga frågeställningen vill jag bara säga att det är ganska dumt att tro att "låtsaspixlar" naturligt är sämre än "riktiga pixlar". Det är ingen som tänker så om digital video, eller hur? Det handlar bara om hur bra det är gjort.

Visa signatur

Bra, snabbt, billigt; välj två.

Ljud
PC → ODAC/O2 → Sennheiser HD650/Ultrasone PRO 900/...
PC → S.M.S.L SA300 → Bowers & Wilkins 607

Permalänk
Medlem

Huvudsaken är ju att det man ser på skärmen ser bra ut. Jag väljer hellre AI-rekonstruerad ray tracing och DLSS framför skit som screen space reflections.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem

DLSS är ju så pass bra att jag vill ha det i ALLT, hela tiden.

Permalänk
Medlem

Jag ser ingen nackdel direkt så länge användaren inte kan märka skillnad.
Vad som konfunderar mig (inte i tråden men artikeln på startsidan) är bilden som visar stillbilder i olika fps, hur skulle mer frames per sekund göra en stillbild mer detaljerad som på bilden ni valt? Om jag spelar i 4K i 20 fps och tar en stillbild så borde det mig veterligen rendera en mycket mer detaljerad stillbild än en tagen med 640x480 och 100000 fps. Eller är det något jag missat?