FRC fixar färgerna som inte finns – teknikstund om färgdjup på skärmar

Permalänk
Melding Plague

FRC fixar färgerna som inte finns – teknikstund om färgdjup på skärmar

Färgdjupet är den teoretiska gräns för hur många nyanser skärmen kan alstra, men hur denna gräns nås är något annat i praktiken. Thomas går igenom tekniken FRC och bildskärmars färgdjup.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Vilket chassi låg i den där Cooler Master lådan? Har själv köpt en Mastercase SL600M chassi från just Cooler Master till mitt nästa bygge så lite nyfiken...

Tycker det skulle vara roligt om herr Ytterberg skulle göra lite video's där han demonstrerar skärmar och paneler och beskriver deras teknik genom att dissekera dem medan skärmarna är påslagna och kanske filma med mikroskop. Skulle vara coolt och lärorikt tycker jag!

Vad gäller ljudet så lät det lite tilltäppt i denna video, tror det är pga mikrofonen trycker mot halsen. Men annars bra video!

Visa signatur

Nuvarande dator: CPU: Core i5 2500K @ 3.7GHz, CPU kylare: Zalman CNPS12X, GPU: Zotac GTX560Ti 2048MB, Moderkort: ASRock Z68 Extreme 3 Gen3, Minne: Corsair Vengeance LP 1600MHz (4X4GB)16GB Kit, Lagring: Samsung 840 EVO 250GB SSD, Western Digital Caviar Black 64MB Cache 1TB, Seagate Barracuda 256MB cache 2TB, Seagate Barrracuda 256MB cache 4TB Optisk läsare: DVD Brännare Sony Optiarc AD-7280S, Ljudkort: Asus Xonar DG, Chassi: HafX 942 Nvidia Edition, Nätaggregat: Corsair TX650 v1 650 Watt, OS Windows 10 Pro Svensk Version

Permalänk

Intressant läsning!

Visa signatur

| i5 10600k@4,7 Ghz | AMD 6800 | 4Ghz RAM | 1 TB m.2 |

Permalänk
Medlem

Inget nytt under solen, men trevligt med mer videos som går in på baskunskaperna inom skärmar och paneler.
Mitt gamla härke till skärm erbjuder mig ännu 8-bit + 2-bit FRC, inte alltför mycket fusk med andra ord.

Visa signatur

The cookie goes *crumble*.

Permalänk
Medlem

Skulle man kunna få tips på några skärmar som är sanna 8bit eller sanna 10bit?

Visa signatur

Asus z68-v pro | i7 2600k | Thermalright Silver Arrow | Asus GTX 1070 Strix | Corsair Vengeance 1600MHz 16GB | Seasonic X-460 | Samsung 850 EVO 500
ASRock Z87 Extreme6 | i7 4770S | Cooler Master Hyper 212 Evo | Crucial Ballistix 16GB 1600Mhz | be quiet! E9 | Samsung 840 EVO 250 | WD RED 6+6 TB, WD Green 4+4 TB

Permalänk
Medlem

Jag äger en dell up3218k som är en yrkesskärm som stödjer "äkta" 10-bit färgdjup.

När jag aktiverar 10-bit YUV 4:2:2/4:4:4 i nvidia inställningar innebär detta att jag får 10-bit färgdjup i spel med alla dess fördelar jämfört med 8-bit färgdjup?

Endast 8-bit färgdjup är valbar i RGB.

Det blir inte mindre komplicerad av att skärmen har massa förinställda inställningar som adobe rgb, srgb, p3-dci, rec709.

Skickades från m.sweclockers.com

Permalänk
Inaktiv

Ett herke (stavas det så?).

Permalänk
Medlem

Mycket intressant läsning! Tack så mycket!

Visa signatur

Hur många datorer är för många?

Permalänk
Redaktion
Praktikant ✨
Skrivet av Joakim Ågren:

Vilket chassi låg i den där Cooler Master lådan? Har själv köpt en Mastercase SL600M chassi från just Cooler Master till mitt nästa bygge så lite nyfiken...

Det var pallen..ehm...jag menar lådan till Cooler Master Silencio S600.

Permalänk
Bildexpert 📺
Skrivet av arry:

Skulle man kunna få tips på några skärmar som är sanna 8bit eller sanna 10bit?

Det är skärmar nämnda Dell UP3218K där panelen har en 10-bitars precision. Går du på Eizo:s Color Edge-skärmar är det också 10 bitar.

Annars är det djupdykningar i panelspecar som gäller. Men även där är det fortfarande specar och det kan vara en öppen fråga om faktiskt precision i förmåga att alstra exakta skillnader i ljus.

Och även en väldigt bra LCD-panel som är så "sann 8 bit" det kan vara kan det fortfarande vara brister i hur den panelen sedan regleras. Skulle säga att mycket av posteriseringsproblemen idag inträffar innan panelen ska skapa ljus. Precisionen är ändå sämre. Märks ofta på skärmar där ändrade reglage skapar mer eller mindre posterisering.

Så det hela slutar i vilket fall i en fråga om kvaliteten hos själva produkten.

Permalänk
Bildexpert 📺
Skrivet av Ankokuu:

Jag äger en dell up3218k som är en yrkesskärm som stödjer "äkta" 10-bit färgdjup.

När jag aktiverar 10-bit YUV 4:2:2/4:4:4 i nvidia inställningar innebär detta att jag får 10-bit färgdjup i spel med alla dess fördelar jämfört med 8-bit färgdjup?

Endast 8-bit färgdjup är valbar i RGB.

Det blir inte mindre komplicerad av att skärmen har massa förinställda inställningar som adobe rgb, srgb, p3-dci, rec709.

Här är det tre olika saker

Kör du 10 bitars signal är det inte säkert att programvaran arbetar i mer än 8 bitar. Snarare undantag än regel. Så räkna med 8 bitars precision tills du har en programvara som på något sätt verkligen arbetar med 10 bitars precision. De flesta spel torde inte annat än texturer med max 8 bitars upplösning och rendera ljus och liknande i mer än 8 bitar. Undantag finns säkert och bör vara undantag för exempelvis HDR. Men det är heller inte självklart.

Det vanliga är att man får 4K/60 Hz och YCbCr med 4:2:2-subsampling i 10 bitar. Medan YCbCr 4:4:4 utan subsampling samt RGB ger 4K/60 Hz i max 8 bitar. Detta eftersom det inte finns mer bandbredd i den kretsuppsättning som tar emot signalen. Detta är 18 GBps-gränsen för HDMI men gäller även får så gott som alla skärmar med DP även om DP och HBR2 klarar mer.

Färgrymden du väljer är olika mål för den färgstandard du arbetar mot. sRGB bygger på rec.709 fast med annan EOTF och 0-255-omfång. Adobe RGB och P3 är båda större är rec.709 och då "sprids" bitarna över en större rymd. Detta kräver i sin tur ett högre bitdjup för att undvika posterisering.

Permalänk
Medlem

Minns när man gick över till 256 färger på PC och det var stort hopp i färger mot 8. 16 bit var också stort hopp men sedan 24 och 32 var inte lika märkbara. Ett tag fick man välja prestanda eller färg. Köra 16 bit eller 32 bit med lägre fps. Vissa klarade ikte mer än 16. För mig voodoo inte hade 32bit. Men senaste 20 åren har man kört med 32 bit. Jag antar det är 8bit RGB plus Chroma. Jag ser inte riktigt nödvändigheten av mer. Var en annan sak nör man skulle spela Warcraft 2 och det ikte gick för man inte kunde visa 256 färger eller hade 8MB RAM.

Skickades från m.sweclockers.com

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Bildexpert 📺

Och "32 bitar" i PC/windows är då 24 bitar för R, G och B, alltså 8 bitar per kanal. De oanvända 8 bitarna kallas ofta för "alpha-kanal” och kan användas för sådant som genomskinlighet. Detta är dock en fråga om hur Windows hanterar detta i sina API:er. Ur skärmens synpunkt och vad som skickas över kabeln till skärmen är det 8 bitar per komponentfärg, ofta R, G och B men också Y, Cb och Cr.

16 bitar är 5 bitar per R, G och B med 1 bit "alpha" vilket är 32 768 nyanser. Har inte haft möjlighet att dubbelkolla, men förmodar att idag kommer GPU:n att uppsampla till 8 bitar per kanal då detta vanligtvis är minimum för själva signalen. Finns egentligen ingen poäng att välja detta idag. Inget som besparas någonstans. Kanske för bakåtkompatibilitet?

8 bitar i datorn är en palett med 256 färger. Det skickas definitivt inga palletter över HDMI eller DP utan det gör GPU om till en normal signal.

Permalänk

Tack för mycket intressant läsning och bra video!

Permalänk
Medlem

Funderar lite på hur färgrymden påverkas av refresh raten. Jag tänker mig att en skärm med 240Hz har kortare tid på sig att ställa in varje pixel och att det kan påverka färgåtergivningen.

Sedan har vi oled-paneler som börjar komma till framför allt bärbara datorer. Hur är det med panelupplösningen på dessa?

Såg även att windows nu har en inställning kallad "Windows HD Color settings", men inställningen känns märklig då den den kallas för HD color men i praktiken verkar var en inställning för HDR. Det är väl två helt olika saker?

Permalänk
Bildexpert 📺
Skrivet av CrazyDriver:

Funderar lite på hur färgrymden påverkas av refresh raten. Jag tänker mig att en skärm med 240Hz har kortare tid på sig att ställa in varje pixel och att det kan påverka färgåtergivningen.

Det pixeln reglerar är hur mycket ljus som släpps igenom och som blockeras. Så en hög frekvens kan ge problem med att nå en viss ljusstyrka och en viss "svärta", det vill säga förmågan att alstar "vitt" och "svart" – kontrastförhållandet. kristallen hinner inte vrida till max ljusgenomsläpp eller till maximal ljusblockering vilket påverka kontrastförhållandet. Detta är ett dokumenterat fenomen på tidiga 180 Hz-gamingskärmar där kontrastförhållandet och bilden överlag blir märkbart sämre i 180 Hz jämfört med 144 Hz. Med de 240 Hz-skärmar jag har sett är detta inte ett problem då dessa panelerna idag är så mycket bättre.

Det som avgör färgrymden är belysningens energifördelning, alltså spektrumfördelningen från lysdioderna. Panelens responstid påverkar inte detta på något direkt sätt. Däremot kommer typiskt för TN- och VA-paneler ljus läcka igenom i vinkel vilket minskar den effektiva färgrymden – i just vinkel. Helt enkelt för mycket ljus av blandad energi som läcker igenom från sidorna även när kristallen är "svart".

Panelupplösningen på bärbara OLED-paneler är samma som för en LCD. Dock är OLED-subpixelstrukturen ofta annorlunda. Går igenom det här: https://www.sweclockers.com/artikel/26730

Japp – Windows är rätt märkligt när det kommer till HDR, inklusive nammgivningen. Men det blir bättre och bättre. Senaste stora uppdateringar adderar en hel del.

Permalänk
Medlem
Skrivet av Laxpudding:

Panelupplösningen på bärbara OLED-paneler är samma som för en LCD. Dock är OLED-subpixelstrukturen ofta annorlunda. Går igenom det här: https://www.sweclockers.com/artikel/26730

Kanske uttryckte mig konstigt. Jag menade färgupplösningen på oled. Rent teoretiskt borde det vara lättare att få fler nyanser på en oled då färgen styrs helt av intensiteten på varje pixel. Däremot har man säkert andra problem med olinjäritet.

I videon nämndes även banding, men har inte banding att göra med kapacitans i panelen. T.ex. att en vit vertikal linje kommer att "smeta" ut sig åt det håll som skärmen refreshar sina pixlar eftersom laddningar i panelen inte hinner ladda ur sig snabbt nog för att kunna visa en helt svart pixel direkt efter en vit.

Permalänk
Bildexpert 📺
Skrivet av CrazyDriver:

Kanske uttryckte mig konstigt. Jag menade färgupplösningen på oled. Rent teoretiskt borde det vara lättare att få fler nyanser på en oled då färgen styrs helt av intensiteten på varje pixel. Däremot har man säkert andra problem med olinjäritet.

Ah – då är jag med. Förmågan att styra en OLED i antal luminansnivåer är idag relativt begränsade, särskilt nära svart. Det är svårt att få en OLED att ”tända lite grann” och det finns en, i brist på bättre ord, en tröghet i systemet med tröskelnivåer som gör att du har en begränsad kontroll över antalet nyanser som kan alstras. Detta problem lyser igenom (pun intended) på slutprodukterna. OLED-TV (med LG:s WRGB-teknik) har minsta sagt svårt med nyanser nära svart. Men även yrkesskärmar med andra typer av OLED-paneler, likt Sonys Trimaster-monitorer har samma problem nära svart. Den lösning som används på OLED är då temporal dithering. På TV-sidan gick Panasonic och Sony längre med detta och det är först nu med 2019-modellerna som LG närmar sig i fråga om att precisera nyanser på OLED-TV.

Citat:

I videon nämndes även banding, men har inte banding att göra med kapacitans i panelen. T.ex. att en vit vertikal linje kommer att "smeta" ut sig åt det håll som skärmen refreshar sina pixlar eftersom laddningar i panelen inte hinner ladda ur sig snabbt nog för att kunna visa en helt svart pixel direkt efter en vit.

Problemet jag har med "banding" är att det ordet används överallt om alla möjliga fenomen. Posterisering är det ordet som beskriver det exakta problemet med att inte kunna alstra tillräckligt många nyanssteg.

Det du beskriver är eftersläp (?) och beror på trögheten i kristallen som är en kombination av flera saker, inklusive vad jag förmodar också omfattar kapacitans. Därför finns overdrive-funktioner och liknande där man i högre grad forcerar kristallen att ändra position.

Permalänk
Medlem

LCD med per-pixel-backlight via OLED kunde ju vara nåt då... Bästa av två världar!

Skickades från m.sweclockers.com

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Bildexpert 📺
Skrivet av cyklonen:

LCD med per-pixel-backlight via OLED kunde ju vara nåt då... Bästa av två världar!

Eller kanske det sämsta av båda världar då man egentligen inte arbetar bort mycket av respektive teknisks nackdelar.

Det pågår, eller åtminstone pågick, experiment av den sorten. Men lite kortfattat så vinner man inte mycket på att göra en exotisk monokrom OLED och sätta en LCD-panel framför när man kan göra en normal OLED från första början. Till vad som dessutom blir en lägre tillverkningskostnad jämfört att bygga en exotisk OLED och dessutom addera en LCD-panel på den kostnaden.

Vad som däremot väntas komma är allt lägre tillverkningskostnader för LCD-paneler till den grad att dual cell-lösningar börjar bli gångbara. Alltså två LCD-paneler på varandra där ena LCD:n är ett filmskikt utan färgfilter som enbart blockerar och släpper igenom ljus. Och det vanliga LCD-skiktet också har subpixlarna och färgfiltren. Typiskt är då att det monokrona skiktet arbetar i full HD med 4K eller 8K som vanligt på skiktet framför. Finns några tillverka som visat upp modeller med detta på TV-sidan, bland annat Hisense Dual Cell ULED HZ65U9E.

Detta väntas bli stort närmaste åren och kan kostnadsmässigt hamna under tillverkningskostnaden för OLED.

Permalänk
Medlem

Det var inte så jag menade. Utan en OLED i fullfärg, men med en simpel LCD-mask för att släcka bättre och "halvtonsjustera", och förkorta eftersläp.

Skickades från m.sweclockers.com

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Bildexpert 📺
Skrivet av cyklonen:

Det var inte så jag menade. Utan en OLED i fullfärg, men med en simpel LCD-mask för att släcka bättre och "halvtonsjustera", och förkorta eftersläp.

En välgjord OLED är redan lika bra eller bättre än många LCD-paneler på detta. I fråga om responstider är OLED också rejält snabbare än en LCD. Så vad ett monokromt LCD-skikt framför en OLED tillför förmodligen inte så mycket mer än det man redan löser med en vanlig OLED. Men blir ändå en komplex och dyrare produkt att tillverka.

Det är därför mer ändamålsenligt med att låta en monokrom OLED-panel stå för ljuset och i princip vara en local dimming med 2 miljoner zoner. En sådan OLED-panel skulle då vara enklare att tillverka. Men det går inte att få ekonomi i detta jämför med att köra med lysdioder till en LCD. LCD-skärmen med OLED-belysning skulle bli dyrare än befintliga lösningar. Men ändå inte kunna konkurrera med 1000+ nits-ljusstyrkan på en välbyggd LCD-LED-FALD-lösning.

Och ja, jag frågade om liknande lösningar med bland annat LG för flera år sedan. Man såg det som en tänkbar teknik, erkände att man testade OLED som ljuskälla till LCD, men att inte mycket pekade på att det var praktiskt lösning att masstilverka. Fortfarande lyser denna hybrid med sin frånvaro till skillnad från dual cell-LCD som verkligen kan bli något.

Permalänk
Medlem

@laxpudding

Skulle du säga att det är bättre att sikta på en 10-bitars skärm som då troligen har 8+2 och köra den i 8-bitar, eller att titta efter en färgkalibrerad skärm även om den är 6+2, för 8-bitar?

Permalänk
Bildexpert 📺
Skrivet av Paddanx:

Skulle du säga att det är bättre att sikta på en 10-bitars skärm som då troligen har 8+2 och köra den i 8-bitar, eller att titta efter en färgkalibrerad skärm även om den är 6+2, för 8-bitar?

Tja, vad tänker du mer exakt? För du bör välja det som ger bäst resultat. Inte gå efter vad som är specat var.

Är man ute efter kalibrerade korrekta färger kommer det finns bättre och sämre lämpade produkter för detta. De allra bästa yrkeskärmarna kör 10 bitar hela vägen. Men vad som gör dessa produkter extra lämpliga är för att produkten är konstruerad för så precis återgivning som möjligt. Och för en sådan produkt väljer tillverkarna LCD-paneler anpassad efter det behovet, vilket då som följd omfattar 10 bitars precision.

Permalänk
Medlem
Skrivet av Laxpudding:

Tja, vad tänker du mer exakt? För du bör välja det som ger bäst resultat. Inte gå efter vad som är specat var.

Är man ute efter kalibrerade korrekta färger kommer det finns bättre och sämre lämpade produkter för detta. De allra bästa yrkeskärmarna kör 10 bitar hela vägen. Men vad som gör dessa produkter extra lämpliga är för att produkten är konstruerad för så precis återgivning som möjligt. Och för en sådan produkt väljer tillverkarna LCD-paneler anpassad efter det behovet, vilket då som följd omfattar 10 bitars precision.

Om du behöver ha färgkorrekta bilder tex. Detaljer blir ju ev fel om dessa "raster" påverkar, medan en panel som kan visa 8-bitar korrekt borde då göra detta bättre (antar då att de kan visa iaf 100% RGB nivå) om man nöjer sig med 8-bitars nivå.

10-bit är ju självklart bästa valet, men ibland behöver man tänka lite mer "privat"/hemma miljö och det är inte alltid ekonomiskt försvarbart.

Permalänk
Bildexpert 📺

@Paddanx: Ah – så tänke du. Skärmar som använder en väldigt tydlig halvtonsstruktur faller bort ganska ordentligt för det ändåmålet då du inte vet ifall halvtonen är din bild eller något skärmen adderar. Detta påverkar väldigt många VA-paneler (utöver problemen med vinklar), till exempel Asus XG49VQ där havltonsstrukturen är sammanlänkad med subpixelstrukturen

Så där kommer en bättre fungerande FRC med framför allt temporal dither/halvton vara mycket bättre.

Detta är fortfarande inget du kan läsa dig till i en spec utan måste testas från produkt till produkt.

Permalänk
Bildexpert 📺

Blir kanske ännu tydligare här med hur turkosa nyansen bredvid testufot sätt som en struktur på varannan pixel:

Från denna sida: https://www.sweclockers.com/test/27297-asus-rog-swift-xg49vq-...

Permalänk
Medlem
Skrivet av Laxpudding:

@Paddanx: Ah – så tänke du. Skärmar som använder en väldigt tydlig halvtonsstruktur faller bort ganska ordentligt för det ändåmålet då du inte vet ifall halvtonen är din bild eller något skärmen adderar. Detta påverkar väldigt många VA-paneler (utöver problemen med vinklar), till exempel Asus XG49VQ där havltonsstrukturen är sammanlänkad med subpixelstrukturen

https://cdn.sweclockers.com/artikel/bild/69687?l=eyJyZXNvdXJjZSI6IlwvYXJ0aWtlbFwvYmlsZFwvNjk2ODciLCJmaWx0ZXJzIjpbInQ9YXJ0aWNsZUZ1bGwiXSwicGFyYW1zIjpbXSwia2V5IjoiZjVjZGY5OWYzYjAxYzU2MTcxM2MzMjE5YWVjMWZlNzgifQ%3D%3D

Så där kommer en bättre fungerande FRC med framför allt temporal dither/halvton vara mycket bättre.

Detta är fortfarande inget du kan läsa dig till i en spec utan måste testas från produkt till produkt.

Tackar för svar

Permalänk
Hedersmedlem

Man kan fråga sig varför det är just skärm och TV-tillverkare som alltid har svårt att uttrycka faktiska korrekta siffror i sina specar och hänfaller åt att ange uppfattade värden. Jag tycker att det inte är något annat än rent lurendrejeri att säga att man stödjer 8 bitar genom att visa halvtonsmönster eller blinka fram färger.

Visa signatur

Använd gilla för att markera nyttiga inlägg!

Permalänk
Medlem

@Laxpudding tack för en otroligt bra video.
Jag laborerar en del med inspelning av spel, då genom OBS. Har laborerat en del med Default i windows (vad det verkligen är har jag ingen aning om) och som du ser på bilden, Nvidias profil med 8 bitar och Full. Default i OBS är som du ser NV12 och partial, som jag har ändrat till full. Borde det tekniskt sett inte vara bättre att ha RGB full i OBS också? Jag tänker färre konversationer och sånt? Eller är jag ute och cyklar?

Är det så att om en video är inspelad med tex RGB full att dom med partial upplever bilden som mörk?

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz