Cyberpunk 2077 får stöd för global ljussättning via ray tracing

Permalänk
Bildexpert 📺

Checkar strax ut från ett hotell, så kortfattat och uppföljning kanske först imorgon om vad HDR, High Dynamic Range är för något

"HDR" förr:
Half-Life 2 är inte HDR och har aldrig varit HDR. Den typen av foto där man fogar samman flera exponeringar som ofta kallas HDR är inte HDR. Detta är inte HDR i ordets rätta bemärkelse för att du kan inte representera ett högre dynamiskt omfång. Du är begränsad av såväl logiska format som fysisk kapaciteten hos displayen att reproducera ett högre dynamiskt omfång. HDR finns inte, så hur löser man det?

Svaret på vad ovanstående exempel är kompression av HDR. HDR komprimeras till att återges inom SDR, Standard Dynamic Range och en tonkurva baserad på en potensfunktion som emulerar karaktären hos ett bildrör. Det vill säga processenatt selektivt välja ut valda delar av ett större omfång och reducera och fördela dessa nyanser till det mindre dynamiska omfånget. Denna process kallas tonemapping.

Kompression har alltid har ett pris någonstans. Med HDR->SDR i statiska bilder kan det bli lite märkligt platta bilder som sedan godtyckligt färgsätts med ibland, ofta medvetet surrealistiskt intryck. Med rörligt bild, likt HL2 (samt många, många fler spel), kan man arbeta dynamiskt, vilket är i sin tur en väldigt synlig process. Du ser hur omfånget skiftar beroende på var du tittar i spelet. Detta eftersom du inte har HDR utan en kompression av HDR till SDR.

Detta kallades för "HDR" för 10, 15 och kanske 20 år sedan. Jag experimenterade med det på produktfoto tills jag köpte bättre kamera, plåtade i RAW och gick över till studioblixtar. Nog med dynamik i RAW-filen för att nå bättre resultat utan allt pill med tonemapping.

HDR idag:
HDR idag är HDR i ordets rätta bemärkelse. Ett högre dynamiskt omfång med logiska format (HDR 10, SMPTE 2084 m.fl) och displayer som i olika grad är fysiskt kapabla till att faktisk reproducera just ett högre dynamiskt omfång. HDR10 bygger på en PQ-tonkurva, Perceptual Quantizer som bygger på forskning där man kvantifierat hur öga/hjärna upplever nyansskillnader upp till 10 000 nits. Men det vanliga är att man mastrar till 1 000 nits som är en mer rimlig nivå med dagens utrustning. Det finns flera varianter och många aspekter som jag verkligen inte hinner gå in på.

Men detta är produkter, teknik och framför allt standarder som aldrig fanns när "HDR" blev aktuell strax efter millenieskiftet, särskilt inte med Half Life 2. HDR är helt enkelt inte möjligt under de förutsättningarna, utan då handlade "HDR" om själva kompressionen HDR->SDR. Men det var så nära HDR man kom och därför fastnade begreppet.

Med dagens HDR varierar kvaliteten en hel del, tekniken och kunnande är minst sagt omväxlande. En enkel skärm som följer VESA DisplayHDR400 (eller motsvarande tekniska nivå på TV-sidan) är fortfarande i grunden en SDR-display. Den måste likt förr basera processen i väldigt hög grad på tonemapping och då blir resultatet ofta meh. Medan en bättre och tyvärr mer kostam skärm eller TV kan med olika tekniker, likt OLED eller FALD-LCD, faktiskt reproducera PQ-tonkurvan ganska exakt, åtminstone till 1000 nits därikring – helt annan upplevelse!

90 procent av alla skärmar och TV-apparater med påstådd HDR-kapacitet bygger sin process främst på tonemapping med global dimming och når kanske inte mer än 250 till 400 nits på en panel som aldrig har mer kontrastomfång än 700:1 – 1200:1. Resultatet är meh och ofta felaktigt med klippta nivåer. Har man främst sett detta förstår jag att man inte är imponerad. Men skiftet mot HDR och bild som bygger på ögats upplevelser (snarare än 60-talets färg-TV) har precis börjat.

Permalänk
Medlem
Skrivet av The Kristoffer:

Jag tror inte jag kommer bli imponerad av en demo av "ny" HDR idag. Pioneerplasmor var ju svarta som natten, och tillräckligt ljusa. Må hända att banding fanns, inget jag tänkte på då, eller fanns på <u>analoga</u> CRT till att börja med.

Det handlar fortfarande om att HDR-skärmar kan återge en helt annan tonkurva, som dina Pioneerplasmor inte är i närheten av att klara. Skillnaden är enorm.

Permalänk
Medlem

Mina reflektioner för övrigt är:

Största nyheten är att spelet levereras med Keanu Reeves.

Mitt 1080Ti bör pensioneras i april nästa år. Hoppas AMD har nåt intressant då eller att nVidia lyckats fixa drivrutiner till macOS.

Permalänk
Medlem

Skillnaden mellan gammal fusk HDR och nya riktiga HDR är att gamla är just det, fusk.
Poängen med HDR är att man kan ha bilder som är detaljrika i både skuggan och solljus. något som är svårt med bara 8 bitar, då man antingen tappar detaljer i den ljusa delen eller den mörka delen.

Dold text

Gamla fusk HDR ökar kontrasterna på både skuggsidan och solsidan för att framhäva detaljerna, men problemet är att det det lätt kan se jävligt konstigt ut om det är gjort på fel sätt.

Dold text

Men med riktiga 10 bitar så får man alltså dynamiken utan konstigheter, det bara finns där naturligt.

Permalänk
Skrivet av Lordsqueak:

Skillnaden mellan gammal fusk HDR och nya riktiga HDR är att gamla är just det, fusk.
Poängen med HDR är att man kan ha bilder som är detaljrika i både skuggan och solljus. något som är svårt med bara 8 bitar, då man antingen tappar detaljer i den ljusa delen eller den mörka delen.

Gamla fusk HDR ökar kontrasterna på både skuggsidan och solsidan för att framhäva detaljerna, men problemet är att det det lätt kan se jävligt konstigt ut om det är gjort på fel sätt.

Men med riktiga 10 bitar så får man alltså dynamiken utan konstigheter, det bara finns där naturligt.

Humbug! 😁

Skickades från m.sweclockers.com

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av Lordsqueak:

Skillnaden mellan gammal fusk HDR och nya riktiga HDR är att gamla är just det, fusk.
Poängen med HDR är att man kan ha bilder som är detaljrika i både skuggan och solljus. något som är svårt med bara 8 bitar, då man antingen tappar detaljer i den ljusa delen eller den mörka delen.

Gamla fusk HDR ökar kontrasterna på både skuggsidan och solsidan för att framhäva detaljerna, men problemet är att det det lätt kan se jävligt konstigt ut om det är gjort på fel sätt.

Det är inte fusk per se utan kan öka det dynamiska omfånget i bilden. Användbarheten är dock inte särskilt stor om man har bra raw-filer att jobba med. När de olika exponeringarna förts samman tonmappas bilden till lämplig gamma som skärmen kan visa.

HDR-skärmar kan istället visa material med en tonmappning som är mindre komprimerad och ger högre dynamiskt omfång. Försöker du visa samma material på en vanlig skärm blir bilden grådisig och urvattnad.

Det är inget som är direkt relaterat till bit-djupet. Går alldeles utmärkt att mappa 8-bitar till HLG eller PQ. Däremot skulle du få problem med bandning.

Citat:

Men med riktiga 10 bitar så får man alltså dynamiken utan konstigheter, det bara finns där naturligt.

Det där är ett exempel på dålig tonmappning och inget annat. HDR är inte heller annat än olika konventioner så du är helt fel ute när du pratar om vad som finns naturligt.

Permalänk
Medlem
Skrivet av DasIch:

Det är inte fusk per se utan kan öka det dynamiska omfånget i bilden. Användbarheten är dock inte särskilt stor om man har bra raw-filer att jobba med. När de olika exponeringarna förts samman tonmappas bilden till lämplig gamma som skärmen kan visa.

HDR-skärmar kan istället visa material med en tonmappning som är mindre komprimerad och ger högre dynamiskt omfång. Försöker du visa samma material på en vanlig skärm blir bilden grådisig och urvattnad.

Det är inget som är direkt relaterat till bit-djupet. Går alldeles utmärkt att mappa 8-bitar till HLG eller PQ. Däremot skulle du få problem med bandning.

Det där är ett exempel på dålig tonmappning och inget annat. HDR är inte heller annat än olika konventioner så du är helt fel ute när du pratar om vad som finns naturligt.

Klart det är ett exempel på dålig tonmapping, det var ju poängen med att visa hur det kan se ut när det blir dåligt.
Men hur du än vrider och vänder på det så är det manipulerat. 8 bitar är 8 bitar lixom, det kommer du inte ifrån hur du än gör, och då blir det "grådisigt och urvattnat". med 10 bitar så har du "högre dynamiskt omfång", helt naturligt utan tricks.
Så jag förstår inte varifrån du får att jag skulle vara ute och cykla när du själv säger samma sak i din reply.

Permalänk
Skrivet av Lordsqueak:

Klart det är ett exempel på dålig tonmapping, det var ju poängen med att visa hur det kan se ut när det blir dåligt.
Men hur du än vrider och vänder på det så är det manipulerat. 8 bitar är 8 bitar lixom, det kommer du inte ifrån hur du än gör, och då blir det "grådisigt och urvattnat". med 10 bitar så har du "högre dynamiskt omfång", helt naturligt utan tricks.
Så jag förstår inte varifrån du får att jag skulle vara ute och cykla när du själv säger samma sak i din reply.

I'm du har hemsk banding så har någon gjort ett dåligt jobb. Det här är ett relativt modernt fenomen. Allt som är komprimerat i jpeg är 8bitar per kanal. Alla jpegbilder lider inte av banding. Det beror ju på hur hårt bilden komprimeras vidare.

Skickades från m.sweclockers.com

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av Lordsqueak:

Klart det är ett exempel på dålig tonmapping, det var ju poängen med att visa hur det kan se ut när det blir dåligt.
Men hur du än vrider och vänder på det så är det manipulerat. 8 bitar är 8 bitar lixom, det kommer du inte ifrån hur du än gör, och då blir det "grådisigt och urvattnat". med 10 bitar så har du "högre dynamiskt omfång", helt naturligt utan tricks.
Så jag förstår inte varifrån du får att jag skulle vara ute och cykla när du själv säger samma sak i din reply.

Nej, jag säger inte alls samma sak. Din förklaring är tekniskt felaktig. 8 bitar gör inte bilden grådisig. Du kan sätta 0 och 255 hur extremt du vill. Problemet kommer när det inte finns tillräckligt med bitar däremellan. Då uppstår bandning, enkelt förklarat (interpolering ej taget hänsyn till). Det gör inte att bilden blir platt och grå.
Vad som är naturligt beror på perspektiv och en helt menlös diskussion i sig. Srgb är ”naturlig” såtillvida att det komprimerar luminansen utifrån vad som är effektivt i förhållande till hur våra ögon uppfattar ljusskillnader. En linjär tonkurva är det mest naturliga för kameran. HDR använder ingen av dessa tonkurvor. Där finns HLG och PQ, såvitt jag vet, och de är inte linjära.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av The Kristoffer:

I'm du har hemsk banding så har någon gjort ett dåligt jobb. Det här är ett relativt modernt fenomen. Allt som är komprimerat i jpeg är 8bitar per kanal. Alla jpegbilder lider inte av banding. Det beror ju på hur hårt bilden komprimeras vidare.

Skickades från m.sweclockers.com

8 bitar räcker bra till sRGB eller andra mindre extrema färgrymder. Men vad tror du händer om du har en linjal märkt 0-255, och sen töjer ut linjalen? Jo, det blir längre mellan punkterna och blir det för långt avstånd kommer du se det som artefakter i bilden.
Om du provar redigera en jpeg ska du se att det inte tar lång tid innan bilden faller sönder.
Vad tror du då kommer hända om du utökar luminansskalan utan att ge den fler datapunkter? 256 unika värden tar snabbt slut och då ser det tråkigt ut.

Permalänk
Medlem
Skrivet av DasIch:

Nej, jag säger inte alls samma sak. Din förklaring är tekniskt felaktig. 8 bitar gör inte bilden grådisig. Du kan sätta 0 och 255 hur extremt du vill. Problemet kommer när det inte finns tillräckligt med bitar däremellan. Då uppstår bandning, enkelt förklarat (interpolering ej taget hänsyn till). Det gör inte att bilden blir platt och grå.
Vad som är naturligt beror på perspektiv och en helt menlös diskussion i sig. Srgb är ”naturlig” såtillvida att det komprimerar luminansen utifrån vad som är effektivt i förhållande till hur våra ögon uppfattar ljusskillnader. En linjär tonkurva är det mest naturliga för kameran. HDR använder ingen av dessa tonkurvor. Där finns HLG och PQ, såvitt jag vet, och de är inte linjära.

Skickades från m.sweclockers.com

Jag skrev inte om HDR som vi känner till det nu. Jag skrev om fejkad HDR ,, som inte har något med det du nämner att göra alls. (för att det är är bara blended i photoshop) Jag vet inte riktigt hur jag ska förklara så att du förstår. men,, here goes,,

Photoshops HDR funktion är fejk, och HDR med 10 bitar är på riktigt. frågor på det?

Permalänk
Medlem
Skrivet av Lordsqueak:

Jag skrev inte om HDR som vi känner till det nu. Jag skrev om fejkad HDR ,, som inte har något med det du nämner att göra alls. (för att det är är bara blended i photoshop) Jag vet inte riktigt hur jag ska förklara så att du förstår. men,, here goes,,

Photoshops HDR funktion är fejk, och HDR med 10 bitar är på riktigt. frågor på det?

Jo, det är precis vad du gjort. Dina inlägg har behandlat både vad du kallar "fekjad hdr" och HDR som det är i vissa nya skärmar. Vad sägs om att du istället för att kriga om saken medger att det finns de som kan mer än dig, och lära dig ifrån att bli tillrättavisad? Faktum är nämligen att du inte riktigt vet vad du pratar om, men verkar för rädd att förlora ansiktet för att medge det. Givetvis upp till dig men du lär dig knappast något nytt den vägen.

Photoshop HDR är inte fejk någonstans. Har du flera bilder med olika exponeringar kan du få ut ett större dynamiskt omfång den vägen - mer detaljer i skuggor och högdagar utan att tappa information i övrigt. Resultatet du ser på skärmen är dock begränsat till tonmappningen, eftersom skärmen inte kan vissa hela luminansregistret. Det betyder inte att det är fejk, utan det betyder att resultatet är begränsat.
HDR är en sak och 10 bitar en annan, även om HDR-standardena anger 10-bitar. Förmågan hos en skärm att återge en viss luminanskurva har inget med bitdjupet att göra. Det specificerade bitdjupet finns där för att det inte ska se ut som skit, när skärmen försöker följa den satta luminanskurvan.

Har du frågor på det?

Permalänk
Medlem
Skrivet av roxkz:

Och där kom anledningen till att skaffa ett RTX-kort tills nästa år..

Skämt åt sido, kul att fler titlar rullar ut med stöd... Hoppas denna implementering blir bättre än föregående.

Håller med, med ett undantag. Metro Exodus, där de snabbt patchat till RTX och DLSS riktigt fint!

Med mitt 2080 spelar jag i 1440p på Ultra med RTX High I stadigt över 60fps. Och till skillnad från BFV och Anthem så ser det riktigt fint ut trots DLSS! Bästa implementeringen av RTX och DLSS såhär i inledningsskedet. Det ser dessutom smått fantastiskt sjukt bra ut med RTX.

Skickades från m.sweclockers.com

Permalänk
Skrivet av DasIch:

8 bitar räcker bra till sRGB eller andra mindre extrema färgrymder. Men vad tror du händer om du har en linjal märkt 0-255, och sen töjer ut linjalen? Jo, det blir längre mellan punkterna och blir det för långt avstånd kommer du se det som artefakter i bilden.
Om du provar redigera en jpeg ska du se att det inte tar lång tid innan bilden faller sönder.
Vad tror du då kommer hända om du utökar luminansskalan utan att ge den fler datapunkter? 256 unika värden tar snabbt slut och då ser det tråkigt ut.

Ja, hur har vi klarat oss alla dessa år? Dithering är absolut ingen grej vi pratar om, och något som IC eller mjukvara kan hantera bra idag med rätt ingenjörer bakom spakarna. Bandingen beror på att du inte har en HDR-TV och inte på grund av extremt misshandlad film/ serie ála GoT-mörka avsnittet som var sönderkomprimerat exempelvis. Internetbandsbredd går före bildkvalitet. Banding snackades det aldrig om förr. De första TFT-skärmarna var bedrövliga och sales pitchen var att de var platta, sedan har de jobbat sig fram i kvalitet utefter åren. Jag är fortfarande inte imponerad dagens sales pitch, "HDR.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av GarfieldPower:

Har en 144hz skärm med Gsync och upplever inte att det blir frame drops eller liknande. Flytet är riktigt bra, har inte upplevt något spel som är tungdrivet och då kör jag utan DLSS.

Skickades från m.sweclockers.com

Ja, fast det är klart att G-sync hjälper en del med att motverka det vi normalt uppfattar som frame drops.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av The Kristoffer:

Ja, hur har vi klarat oss alla dessa år? Dithering är absolut ingen grej vi pratar om, och något som IC eller mjukvara kan hantera bra idag med rätt ingenjörer bakom spakarna. Bandingen beror på att du inte har en HDR-TV och inte på grund av extremt misshandlad film/ serie ála GoT-mörka avsnittet som var sönderkomprimerat exempelvis. Internetbandsbredd går före bildkvalitet. Banding snackades det aldrig om förr. De första TFT-skärmarna var bedrövliga och sales pitchen var att de var platta, sedan har de jobbat sig fram i kvalitet utefter åren. Jag är fortfarande inte imponerad dagens sales pitch, "HDR.

Det har vi inte gjort. Bilder behandlas i utgångspunkt i större bitdjup än 8-bitar. Skärmar för bildbehandling har mer än 8-bitar LUT. Dithering kan orsaka synligt brus, vilket varit ett problem med AMD's grafikkort (som kört 8-bitar plus dithering).
Bandning beror på att det är för långt mellan datapunkterna för att representera luminanskurvan utan att gapen syns. Det kan bero på både input och output. Dithering lägger till brus för att övergångarna inte ska bli lika uppenbara.

Vad spelar det för roll om du är imponerad eller inte? Skillnaden mellan SDR och HDR är stor. Ytterst få skärmar klarar dock 1000 nits, men även i mer rumphuggna varianter kan alla med ett par fungerande ögon se skillnad. För att kunna visa mjuka gradeienter i HDR behövs mer än 8-bitar, varför HDR-standarderna också specificerar 10-bitar. Sen kan du tycka vad du vill om saken, men det är fakta.

Permalänk
Medlem
Skrivet av Defender:

Tar hellre HDR än Rtx alla dagar i veckan.

Lite konstig jämförelse.
Det ena utesluter inte det andra.

Skickades från m.sweclockers.com

Permalänk

Cyberpunk 2077 finns nu för preorder på GOG.
DRM free.

Permalänk

HDR har nog fått lite dåligt rykte pga alla "HDR foton" man ser postade på Reddit och andra ställen som ser ut som färgövermättad skit.

Permalänk
Medlem

Jaha antar det blir en RTX2080 TI Super då......

Permalänk
Medlem
Skrivet av DasIch:

Jo, det är precis vad du gjort. Dina inlägg har behandlat både vad du kallar "fekjad hdr" och HDR som det är i vissa nya skärmar. Vad sägs om att du istället för att kriga om saken medger att det finns de som kan mer än dig, och lära dig ifrån att bli tillrättavisad? Faktum är nämligen att du inte riktigt vet vad du pratar om, men verkar för rädd att förlora ansiktet för att medge det. Givetvis upp till dig men du lär dig knappast något nytt den vägen.

Photoshop HDR är inte fejk någonstans. Har du flera bilder med olika exponeringar kan du få ut ett större dynamiskt omfång den vägen - mer detaljer i skuggor och högdagar utan att tappa information i övrigt. Resultatet du ser på skärmen är dock begränsat till tonmappningen, eftersom skärmen inte kan vissa hela luminansregistret. Det betyder inte att det är fejk, utan det betyder att resultatet är begränsat.
HDR är en sak och 10 bitar en annan, även om HDR-standardena anger 10-bitar. Förmågan hos en skärm att återge en viss luminanskurva har inget med bitdjupet att göra. Det specificerade bitdjupet finns där för att det inte ska se ut som skit, när skärmen försöker följa den satta luminanskurvan.

Har du frågor på det?

Du verkar bli triggad av att jag påstår att photoshop HDR är fejk. Och detta verkar vara det enda vi är oense om. Jag håller med om allt annat.
Men när du påstår att "Har du flera bilder med olika exponeringar kan du få ut ett större dynamiskt omfång den vägen - mer detaljer i skuggor och högdagar utan att tappa information i övrigt." , så har du helt enkelt fel. 8 bitar kan bara visa som mest 8 bitar, oavsett vilka tricks du använder. det dynamiska omfånget är det samma. Att mixa ihop flera bilder för att få med alla detaljer är helt enkelt fusk. (och där bilderna blandas, så blir det grådaskigt i jämförelse. har inget med luminanskurvor att göra.)
Visst, det går att göra på ett bra sätt, och när man bara har 8 bitar för att titta på bilderna så är det ju nödvändigt. Men det går inte att komma ifrån att det är ett manipulerat resultat. Det är photoshoppat helt enkelt. Fejk.

Det enda jag försöker säga är att photoshop HDR, är inte samma sak som riktig HDR med 10 bitar. Det ena är fejk, det andra är naturligt ett högre dynamiskt omfång. Det är en skillnad, och det är det enda jag vill säga.

Permalänk
Medlem
Skrivet av Lordsqueak:

Du verkar bli triggad av att jag påstår att photoshop HDR är fejk. Och detta verkar vara det enda vi är oense om. Jag håller med om allt annat.
Men när du påstår att "Har du flera bilder med olika exponeringar kan du få ut ett större dynamiskt omfång den vägen - mer detaljer i skuggor och högdagar utan att tappa information i övrigt." , så har du helt enkelt fel. 8 bitar kan bara visa som mest 8 bitar, oavsett vilka tricks du använder. det dynamiska omfånget är det samma. Att mixa ihop flera bilder för att få med alla detaljer är helt enkelt fusk. (och där bilderna blandas, så blir det grådaskigt i jämförelse. har inget med luminanskurvor att göra.)
Visst, det går att göra på ett bra sätt, och när man bara har 8 bitar för att titta på bilderna så är det ju nödvändigt. Men det går inte att komma ifrån att det är ett manipulerat resultat. Det är photoshoppat helt enkelt. Fejk.

Det enda jag försöker säga är att photoshop HDR, är inte samma sak som riktig HDR med 10 bitar. Det ena är fejk, det andra är naturligt ett högre dynamiskt omfång. Det är en skillnad, och det är det enda jag vill säga.

Jag triggas av påståenden om att vi säger samma sak när vi inte gör det.
Nej, mitt påstående är inte felaktigt. Kameran är då inte begränsad av några 8-bitar. Det är dock inte säkert att kameran kan mappa scenen på ett bra sätt, varpå en del information går förlorad och det finns endast ett fåtal bitar till skuggor eller högdagar. Att kombinera exponeringar kan därför ha en positiv effekt även om informationen mappas till 8-bitar i slutändan. Det kan framförallt vara en bra idé med sämre kameror, kanske varför vissa mobiler gör det per default (iPhone exempelvis). Utöver det finns det inget som säger att informationen måste mappas till 8-bitar. Det går utmärkt att använda betydligt högre bitdjup, exempelvis med EXR-filer.
Finns ingenting fejk med detta. Du kan få mer data genom att kombinera informationen från flera bilder. Om du sen mappar det till 8-bitar och visar det på en skärm förändrar inte det faktum att processen kombinerat data för mer information. Huruvida det gör någon nytta eller inte beror på. Att kombinera informationen till filer med betydligt högre upplösning är inte heller ovanligt (kan t.ex. användas till GI).
Att bilder med högre bit-djup ser tråkiga och urvattnade ut på vanliga skärmar beror på att informationen inte mappats till ett format skärmen kan visa. Med 10 bitar har du 1024 olika värden (per kanal, förstås) varav skärmen visar 256 olika värden, OM värdena inte mappas för att matcha. Tonmappning/luminanskurvor med andra ord. Annars går det alldeles utmärkt att definiera 0 som mörkt likt ett svart hål och 255 som ljust likt att stirra rakt in i solen. Värdena däremellan kommer bli väldigt utspridda men det är inget som påverkar kontrasten.

Permalänk
Medlem

Zamknij się i weź mój złoty!

Visa signatur

11600K@5.1 GHz + 32GB Corsair Vengeance RGB PRO 3200@3400 MHz + MSI RTX 2080 Super Gaming X Trio +
WDC Blue SN550 1TB + Black OEM SN730 500GB + Kingston A1000 480GB + A2000 500GB + NV2 1TB + 2TB R10 + RGB most of THE THINGS! + Corsair 4000D Airflow + 2*ZyXEL NSA326 2*3TB @ R1 + Netgear RN2100 4*3TB @ R10 + RN204 4*4TB @ R5 + Synology DS216j 2*4TB @ SHR R1 + DS418 4*8TB @ SHR R6
| tmp: R5 3600@4.2 GHz + 32GB 2666@3066MHz + 1060 6GB@2100/4500MHz + 1 TB NV2 & 512GB SN730

Permalänk
Medlem
Skrivet av Defender:

Japp HDR är så sjukt mycket mer skillnad än vad ex rtx ger.
HDR i The Division 2 exempelvis, helt galet snyggt.
Tar hellre HDR än Rtx alla dagar i veckan.

De gånger jag testat HDR i BF V så har kontrasten blivit mycket mycket sämre. Tittar man in i solen, så får man dock ta på sig solglasögon (HDR1000) Men eftersom kontrasten försämras så drastiskt så blir ju hela upplevelsen sämre. Är det bättre implementerat i Division 2?

Permalänk
Relik 📜

Inte så mycket nytt, men.. en kort intervju om ray tracing i Cyberpunk. På Nvidias Geforce-kanal ska sägas, så eventuell objektivitet är ju rakt ut ut genom fönstret.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem
Skrivet av emilakered:

Inte så mycket nytt, men.. en kort intervju om ray tracing i Cyberpunk. På Nvidias Geforce-kanal ska sägas, så eventuell objektivitet är ju rakt ut ut genom fönstret.
https://www.youtube.com/watch?v=srrDmXMb6Kw

Jahapp, då blir det nytt kort då.

Skickades från m.sweclockers.com

Visa signatur

Core i7 7700K | Titan X (Pascal) | MSI 270I Gaming Pro Carbon | 32 GiB Corsair Vengeance LPX @3000MHz | Samsung 960 EVO 1TB

Permalänk
Medlem
Skrivet av anon242437:

Spelade du med det på hela spelet eller provade du gå in i inställningarna och slå av/på RTX för att jämföra?

Jag gick in i inställningarna och slog på/av såklart