Checkar strax ut från ett hotell, så kortfattat och uppföljning kanske först imorgon om vad HDR, High Dynamic Range är för något
"HDR" förr:
Half-Life 2 är inte HDR och har aldrig varit HDR. Den typen av foto där man fogar samman flera exponeringar som ofta kallas HDR är inte HDR. Detta är inte HDR i ordets rätta bemärkelse för att du kan inte representera ett högre dynamiskt omfång. Du är begränsad av såväl logiska format som fysisk kapaciteten hos displayen att reproducera ett högre dynamiskt omfång. HDR finns inte, så hur löser man det?
Svaret på vad ovanstående exempel är kompression av HDR. HDR komprimeras till att återges inom SDR, Standard Dynamic Range och en tonkurva baserad på en potensfunktion som emulerar karaktären hos ett bildrör. Det vill säga processenatt selektivt välja ut valda delar av ett större omfång och reducera och fördela dessa nyanser till det mindre dynamiska omfånget. Denna process kallas tonemapping.
Kompression har alltid har ett pris någonstans. Med HDR->SDR i statiska bilder kan det bli lite märkligt platta bilder som sedan godtyckligt färgsätts med ibland, ofta medvetet surrealistiskt intryck. Med rörligt bild, likt HL2 (samt många, många fler spel), kan man arbeta dynamiskt, vilket är i sin tur en väldigt synlig process. Du ser hur omfånget skiftar beroende på var du tittar i spelet. Detta eftersom du inte har HDR utan en kompression av HDR till SDR.
Detta kallades för "HDR" för 10, 15 och kanske 20 år sedan. Jag experimenterade med det på produktfoto tills jag köpte bättre kamera, plåtade i RAW och gick över till studioblixtar. Nog med dynamik i RAW-filen för att nå bättre resultat utan allt pill med tonemapping.
HDR idag:
HDR idag är HDR i ordets rätta bemärkelse. Ett högre dynamiskt omfång med logiska format (HDR 10, SMPTE 2084 m.fl) och displayer som i olika grad är fysiskt kapabla till att faktisk reproducera just ett högre dynamiskt omfång. HDR10 bygger på en PQ-tonkurva, Perceptual Quantizer som bygger på forskning där man kvantifierat hur öga/hjärna upplever nyansskillnader upp till 10 000 nits. Men det vanliga är att man mastrar till 1 000 nits som är en mer rimlig nivå med dagens utrustning. Det finns flera varianter och många aspekter som jag verkligen inte hinner gå in på.
Men detta är produkter, teknik och framför allt standarder som aldrig fanns när "HDR" blev aktuell strax efter millenieskiftet, särskilt inte med Half Life 2. HDR är helt enkelt inte möjligt under de förutsättningarna, utan då handlade "HDR" om själva kompressionen HDR->SDR. Men det var så nära HDR man kom och därför fastnade begreppet.
Med dagens HDR varierar kvaliteten en hel del, tekniken och kunnande är minst sagt omväxlande. En enkel skärm som följer VESA DisplayHDR400 (eller motsvarande tekniska nivå på TV-sidan) är fortfarande i grunden en SDR-display. Den måste likt förr basera processen i väldigt hög grad på tonemapping och då blir resultatet ofta meh. Medan en bättre och tyvärr mer kostam skärm eller TV kan med olika tekniker, likt OLED eller FALD-LCD, faktiskt reproducera PQ-tonkurvan ganska exakt, åtminstone till 1000 nits därikring – helt annan upplevelse!
90 procent av alla skärmar och TV-apparater med påstådd HDR-kapacitet bygger sin process främst på tonemapping med global dimming och når kanske inte mer än 250 till 400 nits på en panel som aldrig har mer kontrastomfång än 700:1 – 1200:1. Resultatet är meh och ofta felaktigt med klippta nivåer. Har man främst sett detta förstår jag att man inte är imponerad. Men skiftet mot HDR och bild som bygger på ögats upplevelser (snarare än 60-talets färg-TV) har precis börjat.