8, 10 och 12 bitars färg

Standard är 8 bitars färgdjup vilket räcker för 256 nyanssteg av Röd, Grön och Blå eller då sammanlagt 256 × 256 × 256 nyanser, även känt som ”16,7 miljoner färger”. I signalen alltså. Vad skärmen sedan är fysiskt kapabel till att alstra är en helt annan historia. När vi talar om signalen är detta dock av stor betydelse eftersom mer färgdjup kräver mer bandbredd. Då 8 bitars färgdjup är standard är det mesta av exemplen på bandbredd baserade på just 8-bitars färgdjup.

Bitdjup

Effekt

Bandbreddskrav

8 bitar

Standard för i princip all datorgrafik

10 bitar

Används för HDR samt en del specialfall

1,25×

12 bitar

Används för krävande HDR

1,5×

Med HDR-signal, High Dynamic Range, kommer ett behov av 10 och 12 bitars färgupplösning, där 10 bitar är en praktisk gräns. Detta hänger ihop med hur HDR täcker in nyanser i förhållande till hur våra ögon fungerar. Då krävs minst 10 bitars färg för att undvika allt för tydliga steg mellan närliggande nyanser och färger. 10 bitars färgdjup ger 1 024 nyanssteg av Röd, Grön och Blå.

Mer läsning om hur skärmen fungerar

Denna artikel fokuserar på själva bildsignalen. För mer information om hur skärmar beter sig kring färgdjup, hur de approximerar nyanser (FRC) och även tappar nyanser (posterisering), komplettera gärna med avsnittet i SweClockers guide till bildskärmar.

Miljarder färger sällan det i praktiken

1 024 × 1 024 × 1 024 nyanser ger ”1,07 miljarder färger” men också där är det en annan sak vad din skärm är fysiskt kapabel till. De flesta skärmar vilka specificeras som ”10 bitar” använder någon form av halvtonsmönsterteknik för att approximera den nivån av nyanser. Det vill säga att panelen alternerar mellan två eller fler nyanser eftersom den inte finns exakt precision för 1024 diskreta nivåer av ljus.

Också värt att nämna är att även om du kan välja 10 eller 12 bitar i Windows är det sällan du får det i praktiken eftersom mjukvaran som regel endast arbetar med 8 bitars ordlängd. Väljer du 10 eller 12 bitar som bildsignal slösar du egentligen endast på bandbredd. Ett av undantagen från detta är just HDR där det finns en poäng med mer än 8 bitar.

HDR behöver 10 bitar och metadata

HDR, High Dynamic Range, är i sig självt inte en mer krävande signal jämfört med SDR, Standard Dynamic Range – alltså vanlig signal. Men eftersom HDR använder en större färgrymd och annan luminanskurva jämfört med SDR kommer ett krav på minst 10 bitars färgdjup vilket också ökar bandbreddskravet med 25 procent. HDR som signal betraktat använder också metadata om hur bilden är ljussatt och detta kräver att hårdvaran kan skicka denna metadata. Detta ställer däremot inte krav på bandbredden och bildsignalen utöver de 10 bitars färgdjup man vill uppnå.

Idealet för HDR är dessutom ännu bättre täckning av nyanser. HDR-format som Dolby Vision använder 12 bitar och då är det 4 096 × 4 096 × 4 096 eller ”68,7 miljarder färger”. Behovet för 12 bitar på datorskärm är ännu så länge en bit bort. Skärmar som ger verklig 12 bitars precision är heller inget som ännu existerar på konsumentnivå.

Ökat bitdjup är av betydelse för HDR och där kombineras det ofta med reducerade färger, chroma subsampling. Nästa avsnitt.