Inlägg

Inlägg som Laxpudding har skrivit i forumet
Av Laxpudding
Skrivet av 13ers3rk:

Tacksam för svar! Vet bara med mig att det gick bra att köra skärmen på mitt föregående grafikkort, men när jag sedan böt ut det till ett RTX 3090 så började det strula. Stoppade jag in det gamla så gick det bra att köra igen.

Är det liknande fenomen på min TV-apparat då den kör 4K 120hz? Ändrade man med CRU och sänkte bitraten? (kommer inte riktigt ihåg) så gick det felfritt annars hoppade den mellan olika uppdateringsfrekvenser

4K/120 via CRU handlar oftast om att grafikkortet och/eller TV:n klarar max 18 Gbps/HDMI 2.0 vilket räcker för 4K/60. Ifall man subsamplar färgerna till 4:2:0 (1/4-dels färgupplösning) halveras bandbreddskravet och man får igenom 4K/120 på 18 Gbps. Det kan kräva att man tar till CRU för att få igenom rätt alternativ så att även spelen accepterar det.

Angående att RTX 3090 inte ville fungera medan gamla kortet fungerade kan det vara relaterat till just dålig kabel och/eller kretsinkompatibilitet. Det gamla kortet klarade inte lika mycket eller samma saker som 3090:n och det som triggar felet inträffade aldrig. Med 3090 försöker GPU+skärm den något som inte fungerar hela vägen. Då tar man till felsökningen med att sänka frekvens för att se om det är relaterat till bandbredd.

Av Laxpudding

Den här typen av fråga återkommer ofta. Problemet syns på skärmen och därför tror man det är skärmen. Generellt kommer en skärm ta emot en bildsignal den får av GPU:n. Så mycket mer än så gör den faktiskt inte. En skärm har därför ingen som helst kontext av följande saker:

• Spelets FPS, eftersom det handlar om renderingen hos GPU. Det är också upp till GPU+mjukvara att avgöra hur den ska hantera synkronisering av renderad bild mot den bilsignal som skärmen matas med. Skärmen återger sedan signalen den får.

• Vad muspekaren gör, eftersom den delen handlar om dator och operativsystem. Skärmen är inte inblandad i muspekaren på något sätt.

• Vilka spel du spelar. Skärmen får en bildsignal, det är allt. Finns inget koncept eller kontext för en skärm om vilken mjukvara man kör på datorn.

Med andra ord: om det krånglar i LoL och det är enbart LoL som krånglar, då är det hos LoL du lär finna svaret, inte hos skärmen.

Jämför med en högtalare och musik. Om musiken hackar i en specifik låt är det knappast högtalaren det är fel på.

Ger dig inte svar på vad som är problemet, men i alla fall så du kan börja felsöka i rätt ände. Om det vore en generell sänkning ned mot 5 FPS etc. hade man kunnat misstänka att du kopplade mot moderkortet och integrerade grafiken. Men när det är specifikt LoL är det något där som är off.

Liknande problem brukar ofta handla om CSGO som är ett spel där man typiskt är inne i konfigurationsfiler och ändrar. Kan vara något liknande här. I andra fall har det löst sig efter att man DDU:at drivrutinerna och installerat om. Även radera/installera spelet eller i mer extrema fall: blåst rent hela datorn.

Av Laxpudding

@Herr Ponny: din hjärna gör rätt. Våra ögon fungerar även de enligt fysikens lagar och fokuserar du på ett föremål nära dig kommer det som är längre bort att komma ur fokus. Precis som med en kamera. Skillnaden är att du är medveten om detta medan den stora majoriteten inte alls är medveten om detta. Hjärnan sorterar helt enkelt bort det oskarpa. Man upplever istället hela världen som skarp hela tiden för att det är så hjärnan sätter ihop bilden åt en.

Vilket kanske är en förklaring till varför skärpedjup är så effektivt i foto. Det är surrealistiskt men ändå inte. Skärpedjupet finns alltid där i verkligheten även om hjärnan sorterar bort det. Men när man ställs inför samma djup projicerat som ett foto på en plan yta kan man inte förneka dess effekt.

Jag har träffat personer som är precis tvärtom mot dig och inte alls förstår detta med Depth Of Field och är totalt omedvetna om att det finns något som heter skärpedjup. För dem är världen skarp hela tiden i alla riktningar och kan inte föreställa sig något annat. Sådana människor brukar fråga om vad som är fel med TV:n när de tittar på film där bakgrunden bakom skådespelaren är ur fokus. De greppar inte varför utan tror att något är fel, kanske börjar dra i reglage som ska göra bilden "skarpare". För de väntar sig ett skärpedjup som går hela vägen till evigheten.

När vi gick över till 1080p och 4K som standard var det många som reagerade. DVD och VHS är så pass lågupplöst att det inte riktigt ger hela vägen med att fånga det som är ur fokus. Särskilt om man drar "skärpa" till max på sin 32-tums TV som står fem meter bort. Sedan undrar de varför nya TV:n är oskarp trots 4K. Finns ett par trådar om just den frågeställningen.

Av Laxpudding
Skrivet av 13ers3rk:

Finns det någon lösning på att skärmen dör stup i ett och tar 4-5 sekunder på sig att få tillbaka bilden? Verkar vara ganska utbrett problem på den tidiga modellen.

Det är typiskt för en dålig kabel och black outs kommer av att skärmen synkar om bilden. G9 är som två 2560x1440-skärmar och kör man 144 Hz går man hela vägen till taket för HBR3-bandbredden där runt ≈30 Gbps. Det gör att kabeln måste hålla hög kvalitet. 240 Hz kräver då DSC vilket kräver mindre bandbredd men tidiga DSC-produkter är mer benägna till inkompatibilitet på kretsnivå mellan GPU och skärm.

Detta är hyfsat enkelt att felsöka. Sänker man frekvensen till 60 Hz (skärmen kräver då ≈15 Gbps) och det visar sig vara stabilt är det ett tecken på att kabeln behöver bytas mot något som förslagsvis är VESA-certifierat. Är kabeln certifierad är det antagligen något på kretsnivå och då kan modernare GPU eventuellt hjälpa. Men inte om det är kretsarna i skärmen som saknar förmågan att leva upp till sin spec.

Av Laxpudding

Skillnaden dagtid mellan soligt och mulet väder kan vara faktor 100x, från 100 000 lux ned till 1 000 lux. Man tänker inte på det som så stor skillnad eftersom pupillen gör sitt. Men det påverkar direkt hur man uppfattar bilden.

Svårast är växlande molnighet då det kan varierar på sekunder mellan dessa extrema ljusskillnader. Så har man behovet att arbeta med ljuset och färger på skärm behöver man skärma av dagsljuset. Man får förbereda sig på ett liv bakom gardiner.

Av Laxpudding
Skrivet av Alotiat:

Tack! Jag går i tankarna på att beställa ASUS ProArt PA279CRV https://www.scandinavianphoto.se/asus/proart-pa279crv-1059529 därifrån

Jo jag vet att den strama budgeten gör det hela väldigt tajt att få till något rimligt för professionellt bruk. Det jag har landat i är att man får en skärm som "nästan" uppfyller kraven. T.ex. ASUS ProArt PA279CRV som jag kollar på nu med VESA DisplayHDR 400 certifiering är ju mer en fingervisning av att den "knappt" klarar att visa bilder med någon form av rätt stöd. Jag vill ju helst ha VESA DisplayHDR 1000 men ser att dessa skärmar ligger på +10 000 kr.

Just nu får jag nöja mig med lite halvdant stöd för god ljusstyrka och färgåtergivning, även om de två komponenterna inte ger hela bilden, utan bara är ett av de många riktmärken som finns att titta på.

Det enda som oroar mig hos ASUS ProArt PA279CRV är att experterna hos https://www.rtings.com/monitor/reviews/asus/proart-display-pa279crv anser att skärmen har riktigt dålig contrast ratio. De tycker att den är så dålig att man inte kan använda skärmen i ett mörkt rum. Kan jag lösa problemet genom att ha en stark taklampa? Är det så enkelt @Laxpudding ?

Jag tänker att om jag lyser upp rummet tillräckligt så tror jag det ska vara OK

För den som är intresserad av VESA-certifikaten, här är tabellen:

Minimum Peak Luminance (MPL) - Brightnessin in cd/m2
Typical Dimming Technology (TDT)
Range of Color: Color Gamut - WCG* = Wide Color Gamut
Maximum Black Level Luminance (MBLL) - Brightness in cd/m2
Maximum Backlight Adjustment Latency (MBAL) - Number of Video Frames

DisplayHDR 400 MPL: 400 nits, Range of Color: sRGB, TDT: Screen-level, MBLL: 0.4 nits, MBAL: 8

DisplayHDR 500 MPL: 500 nits, Range of Color: WCG*, TDT: Zone-level, MBLL: 0.1 nits, MBAL: 8

DisplayHDR 600 MPL: 600 nits, Range of Color: WCG*, TDT: Zone-level, MBLL: 0.1 nits, MBAL: 8

DisplayHDR 1000 MPL: 1000 nits, Range of Color: WCG*, TDT: Zone-level, MBLL: 0.05 nits, MBAL: 8

True Black DisplayHDR 400 MPL: 400 nits, Range of Color: WCG*, TDT: Pixel-level, MBLL: 0.0005 nits, MBAL: 2

True Black DisplayHDR 500 MPL: 500 nits, Range of Color: WCG*, TDT: Pixel-level, MBLL: 0.0005 nits, MBAL: 2

True Black DisplayHDR 600 MPL: 600 nits, Range of Color: WCG*, TDT: Pixel-level, MBLL: 0.0005 nits, MBAL: 2

Från https://displayhdr.org/performance-criteria-cts1-1/
Här kan man se att DisplayHDR 400 endast kräver sRGB med 400 nits, vilket är minimum för HDR-material om jag förstått det hela rätt. Medan DisplayHDR 1000 har en extra stor color gamut och når till 1000 nits. Dessa skärmar är också lite dyrare.

Proart-skärmen har inte dålig kontrast utan ett rätt typiskt kontrastförhållande för den typen av IPS-paneler om 900:1. Du lär inte vilja ha local dimmingen på i vilket fall när du arbetar eftersom man aldrig vet om det man ser på skärmen är en effekt av local dimmingen eller bildmaterialet man arbetar med.

Du löser inte "problemet" (som inte är ett problem) med att tända lampor i taket. Mer ljus påverkar hur du uppfattar bilden och ljuset från skärmen vilket kan bli problem när du börjar skapa/redigera innehåll. I ett ljust rum blir du sämre på att uppfatta skuggtoner och risken är då att du skapar innehåll som är för ljusa skuggtoner och blek bild. Idealet är ett rum med konstanta nivåer av ljus anpassat för ändamålet och den produktion som sker. Sedan kan man förstås laborera med lamport och annat, likt local dimming, när man slutat jobba för dagen och ska börja spela.

Angående DisplatHDR-specarna är det endast inom vilka tekniska parametrar specen ligger. Det säger inget om kvaliteten på HDR-bilden hos den inviduella skärmen. Tyvärr verkar rtings ha dåligt med EOTF/Tonemapping-tester på sina bildskärmstester. De är bättre på detta med TV-testerna.

Av Laxpudding
Skrivet av Alphahanne:

Har en 55" 4k Sony från 2015 som ibland är extremt seg.

[...]

Någon som har en idé om vad det kan vara?

Du har gett dig själv svaret. Hur väl fungerar en mobiltelefon från 2015 idag med dagens appar? Tänk då att den hårdvara som sitter i TV:n, särskilt den generation TV-modellerna från 10-talet, sannolikt redan var långsam/åldersstigen jämfört med sina samtida mobiltelefoner.

Du verkar ändå rätt mild drabbat med sporadiska fel. Finns exempel på 2015-ish-modeller där man inte ens kan starta appar längre.

Av Laxpudding

Ingen av skärmarna är på professionell nivå utan kan ses som adekvata gaming- och kontorsskärmar. Man kan åstadkomma mycket med dessa om man lär sig färglära och använder kalibreringsutrustning. Men man kan inte köpa dem rakt av och räkna med att det automatiskt är rätt.

Ifall HDR är viktigt behöver du läsa av tester som kontrollerar hur tonemapping/EOTF ser ut så att du inte har en skärm som klipper nivåer eller gör andra fel. "Stöd för" HDR har i princip alla skärmar idag, men väldigt få gör rätt på ett sätt så det är användbart för HDR, särskilt när det kommer till produktionsbeslut. Där är annars en TV via en clean videofeed något som kan vara värt att överväga som budgetalternativ mot en yrkesskärm.

"bra skärpa" hos en modern skärm är en sådan där (i alla för mig) lite märklig frågeställning som ofta kommer. Ungefär som att fråga efter en bil som använder alla fyra hjulen. Låt mig förklara:

Skärmar med fast pixelmatris, dvs allt som inte är CRT är precis så "skarpt" som det bara kan bli. Skärmen kan inte vara oskarp så länge bilden återges 1:1 pixel för pixel. Tycker man att något är oskarpt är det något som är fel, till exempel att själva bilden man betraktar faktiskt inte är inom normen för "skarp" plus alla också tekniska förklaringar likt att man skalar bilden eller att något annat i kedjan är utanför normen. Detta inkluderar användarens förväntan av "skärpa" baserat på att man tidigare har haft skärm som adderade kantskärpa/konturförstärkning till bilden där alla år med en felinställd skärm gör att användaren faktiskt lärt sig fel och därför tycker nya skärmar ser "oskarpa ut". Finns några sådana trådar om både skärmar och TV-apparater.

Det som kan påverka intrycket inom begreppet "skärpa" är ovanliga subpixelmatriser, likt VA-paneler med segmenterade subpixlar och OLED med RWGB-struktur (WOLED) eller den triangelbaserade QD-OLED-strukturen. Dess inverkan på bilden minskar ju högre upplösning man kör men kan på ett skrivbord fortfarande vara synligt även med 4K.

Av Laxpudding
Skrivet av Swennis:

Tänkte på en sak… finns det nån LCD tv idag som inte lider av blooming? Är det toppmodellerna av Samsung och LG man ska ha sikte på då?

Alla har blooming i någon form eftersom det är per konstruktion med en FALD. Det blir bättre och bättre i takt med att man utvecklare FALD:er med fler zoner och algoritmer som utnyttjar zonerna bättre. Så generellt, toppmodeller.

Av Laxpudding

Skönt att det inte var mer än glapp i strömkabeln.

Av Laxpudding

Som skrivet innan: omöjligt att ge tydliga svar på den informationen. Plingande ljud i windows med enheter in/ut är i alla fall tecken på dålig kabel men också på att skärmens strömförsörjning börjar ge upp. Är det inom garanti- och reklamationstider är det en enkel fråga, då kontaktar du ÅF och/eller tillverkarens support.

Av Laxpudding
Skrivet av MulleMeck34:

Jag kan se lite backlight bleed i nedre vänstra hörnet när jag spelar något mörkt spel eller ser en mörk film.

Detta är vad, din tredje IPS-skärm som du frågar om detta?

Det är orimligt att alla har samma fel. Mer rimligt att om du störs av ojämnheterna vid just mörka spel och mörka filmer är att du kör skärmen för ljusstarkt eftersom svart, eller "svart" på en LCD är relativ ljusstyrkan. Du måste anpassa ljusstyrkan efter situationen och rummet.

LCD:er, särskilt IPS (och TN) har för lågt kontrastförhållande (runt 1000:1) för att kunna lysa ljusstarkt och ge en uniform svärta på samma gång. Man måste välja någondera eller nöja sig med en balans.

Har du högre krav än så måste du välja något av följande:

• OLED som ger totalt svart, men då riskerar retentionproblematik om man samtidigt vill ha väldigt hög ljusstyrka. Skärmarna kostar mycket mer och utbudet är glest.

• IPS med FALD som dämpar ljuset i zoner som ska vara mörkare. Dessa kostar också påfallande mer för en väl fungerande FALD. Utbudet är också glest ifall man går efter skärmar med bekräftat bra FALD.

• VA-paneler kostar ungefär samma och erbjuder högre kontrastförhållande rakt framifrån (2000:1 till 5000:1) så att svart blir mörkare relativt ljusstyrkan. VA-paneler har istället andra nackdelar som större förändringar i vinklar, variationer i subpixelstrukturer samt oftare mycket tydligare eftersläp. Riskerar att man byter en nackdel mot flera andra nackdelar. Fast alla är så olika med vad man avskyr/stör sig på mest. Finns tidigare trådar där man är missnöjd med IPS och är helnöjd med en VA-skärm för allt man tänker på är kontrastförhållandet och man störs inte/ser inte de andra problemen med VA-panelen.

Av Laxpudding
Skrivet av MulleMeck34:

Okej jag köpte nyligen en ny ips monitor.
Har denna något backlight bleed som ni kan se?
Jag köpte lite bakgrundsljus till.

https://ibb.co/TqDjR8R

Du har en approach till detta som är helt bakvänd och samtidigt andas av ängslan.

Frågan är inte om vi andra ser någon backlight bleed på dina bilder. Frågan är om du ser någon backlight bleed när du faktiskt använder skärmen. Om du inte ser något vid normal användning har du antagligen också en alldeles normal skärm.

Av Laxpudding
Skrivet av Lussarn:

Därav är det viktigt att man skapar TV-apparater som ser som allra bäst ut med 24fps råmaterial. Jag tycker inte OLED, vad jag har sett är där ännu. Men jag har heller inte sett det senaste. Om allt råmaterial var i 240fps skulle dagens OLED fungera kanon.

Definiera betydelsen av "allra bäst".

En OLED återger bildrutan i princip som bildrutan är skapad. LCD och temporal pulsteknik adderar övergångsfaser till bilden som inte existerar i källmaterialet. Interpolering gör samma sak, adderar någon som inte fanns där från början. Då blir den retoriska motfrågan, vilket av detta är då "allra bäst"?

OLED med BFI kan allra tydligast efterlikna hur filmrutor fungerar i traditionell biograf där en slutare öppnar/stänger för två eller tre repetitioner med motsvarande 48 och 72 Hz. Detta har i 100 år format det moderna bildspråket och vad man avser som hela grundidén med 24 bilder i sekunden på biograf. Ur den definitionen är perfekta OLED-bildrutor med flimmer det som ser som allra bäst ut med 24fps råmaterial eftersom man då emulerar det som en gång formade filmkonsten.

Eller har våra sätt att konsumera rörlig bild förändrats? Är 100 år gammal analog biografteknik idag en lämplig representant för dagens bild, likt exempelvis spelande och andra varianter likt tik-tok-typen av video?

Svaret för mig är att det finns inget "allra bäst". Det finns mängder av individuella utgångspunkter som främst baseras på vilken teknik och vilken användning man präglats av innan, som individen sedan jämför med och sorterar som bättre eller sämre.

Av Laxpudding

Då tar vi det igen. De korta versionerna

OLED har inget eftersläp. Rent mätmässigt finns förstås en stig/fall-tid men det är bortom vår varseblivning. OLED är i grunden dioder som tänder och släcker. En vanlig reaktion (för filmtittande) är därför att man tycker bilden är för hackig därför att man har lärt sig/är så van med sin tidigare skärm/TV med LCD-teknik där det finns ett eftersläp som mjukar upp övergångar mellan bildrutor.

Att det idag kan upplevas eftersläp på en OLED vid datorn och spel beror på låg frekvens. Den temporala upplösningen vid 60 Hz är för låg och ögat/hjärnan hinner skapa sig en uppfattning att det som rör sig befinner sig på flera platser samtidigt. Man får ett slags dubbelbildsfenomen. Detta brukar kallas för "sample and hold" vilket jag ser som missvisande eftersom "sample and hold" syftar på beteendet hos elektroniken, inte uppfattningsförmågan.

Filmar man av en OLED med höghastighetskamera ser man att eftersläpen man upplever är icke-existerande. Problemet är inte tekniken utan problemet är hur ögat uppfattar rörelser vid låg temporal upplösning vilket 60 Hz och även 120 Hz är. Från mitt test av Asus PG42UQ

https://cdn.sweclockers.com/artikel/bild/109771?l=eyJyZXNvdXJjZS...

Om man vill ha så lite eftersläp som möjligt i spel och hjälpa ögat uppleva mer skärpa? Kör en OLED i så hög frekvens som möjligt med nedsläckningslösningar likt BFI (ger flimmer) för då kombinerar man eftersläpsfri teknik med lösningar som minskar ögats förmåga att uppleva eftersläp. Finns nog ingen annan teknik tillgänglig för konsumenter som idag ger så objektivt lite eftersläp som OLED gör. Subjektivt däremot kan man ha ett spektrum av åsikter.

LED-baserade skärmar, alltså de som skapar bilden emissivt direkt från lysdioder, till exempel micro-LED och dussintals andra konkurrerande tekniker, samt troligtvis nyhetens QDEL har samma grundförutsättning. Dessa skärmar förekommer knappat i konsumentsammanhang om du nu inte tillhör den 0,1% av befolkning som räknas till konsumenter och fortfarande har miljoner kronor att spendera. Dock kan teknik av den här sorten ha samma problematik som plasma och DLP med temporalt dither som ger en annan artefakt för ögat. Se plasma/DLP nedan.

LCD (där LED endast är ljuskällan) har i praktiken synliga eftersläp eftersom det är en övergångsfas på flera millisekunder när kristallerna vrider sig. Ju mer kristallen måste vrida sig, desto längre övergångsfas. Övergångsfasen varierar ytterligare med andra faktorer, inklusive panelfrekvensen och elektrisk drivning (overdrive) utöver då vilken typ av transient det rör sig om. LCD:er är ett spektrum av olika eftersläpsnivåer plus artefakter av exempelvis overdrive. Alla kartongsiffror som "1 ms" är påhittade.

En skärm med "1 ms" på kartongen. Eftersläp syns 2 frames bakåt mot ljus bakgrund, som vid 144 Hz motsvarar ca 14 ms. Detta är då en av de allra bästa skärmarna för minimalt eftersläp för sin generation. Eftersläpen är inte lika synliga mot mörk bakgrund eftersom kristallerna där har en kortare övergångsfas:

https://cdn.sweclockers.com/artikel/bild/109770?l=eyJyZXNvdXJjZS...

CRT befinner sig till 75–90% hela tiden i en fas utan ljus. De flimrar alltid vilket ger ögat möjligheten att uppfatta rörelsen som skarpare. Ljuset från CRT är baserat på fosfor som exciteras och det förekommer olika typer av fosforkomponenter i olika skärmar där efterglöd i olika nivåer är vanligt. Eftersom det råder stark survivorship bias runt CRT är det få som minns 90-talets typiska 14-tums CRT:n som gav oss en svansande efterglöd efter muspekaren. Den CRT:n är trasig och skrotad idag. Istället minns man (eller "minns" via någon YT-video) främst de välbyggda yrkesskärmarna vilka fortfarande existerar, eftersom de var just välbyggda.

Plasma samt DLP (projektor) brukar citeras som responstid på mikrosekunder. Så även en del renodlade LED-lösningar. Skillnaden mot OLED, LCD och CRT är att dessa tekniker bygger bilden med modulerade sekvenser av ljuspulser. Ögat/hjärnan adderar ihop pulserna till en nyans. Förenklat kommer vid 60 Hz panelfrekvens en bildruta bestå av ≈16 ms långa modulerade sekvenser med ljuspulser. Det tar alltså ≈16 millisekunder att alstra en fullständig nyans. I rörelser kan man uppfatta detta på olika sätt, ofta som att konturerna blir annorlunda, likt att det dubbleras och att det uppstår en textur i rörelser.

----
Alla de här teknikerna är annorlunda. Alla har sina fördelar och nackdelar på något plan. När någon kategoriskt säger att tekniken XXX är bättre än YYY är det en åsikt och den är sällan välgrundad åsikt. Det hela baseras påfallande ofta vad man hade innan. Den som haft en plasma i 15 år och till slut tvingas byta till OLED eller LCD kommer utgå från plasman som "det enda rätta" och att OLED eller LCD "...har problem som måste fixas". Och viceversa. Man utgår från det man är van med, (o)medvetet blind för sin favoriserade tekniks faktiskt nackdelar.

Av Laxpudding
Skrivet av Zyzlite:

Har installerat "Drivrutinen" som fanns, utan framgång! Testat HDMI 2 också, utan framgång.
Vad är nästa steg? Tänker jag testar så mycket mjukvarumässigt möjligt innan jag går och köper en thunderbolt - displayport kabel

Du kan försöka skapa en custom resolution. Har dock inte koll på hur det går till via Intels integrerade verktyg och fall tredjepartsverktyg likt Custom Resolution Utility (CRU) fungerar. Var många år sedan jag sist brottades med en laptop på det sättet.

Av Laxpudding

Tricket är att välja en skärm som är bekräftad att fungera väl med PS5, till exempel sammanställningar likt dessa: https://www.rtings.com/monitor/reviews/best/ps5

Av Laxpudding
Skrivet av Zyzlite:

Tyvärr har finns det ingen sådan fil på Asus hemsida @Laxpudding, vet du om det kan hittas någon annanstans? Har tyvärr inte Displayport på datorn.

Menyn är typisk för skärmar som med felprogrammerad EDID.

Kolla den vanliga "drivrutinen" som brukar innehålla just sådana EDID-overwrites som jag beskrev.

Av Laxpudding
Skrivet av upf:

Ok, jag fick bara 120hz med den medföljande hdmi-kabeln. Måste nog kolla igen.

Kabeln styr inte vilken frekvens du kan välja. Om du inte kunde välja mer än 1080p/120 Hz är den vanligaste förklaringen att GPU:ns kretsar klarar max 9 Gbps över HDMI – vanligt med en del äldre och enklare laptops. Då är 1080p/120 det högsta man kan välja.

Om du däremot kan välja 144 Hz men det blir svart och 120 Hz är det högsta du kan köra utan avbrott, då är det troligtvis kabeln som är dålig. Om 144 Hz aldrig dyker upp som alternativ i GPU-inställningarna är det kretsarna i skärm eller GPU som drar gränsen.

Av Laxpudding

Förekommer mycket slarv i branschen så en del skärmar när de ansluts med HDMI får fel metadata/EDID från skärmens kretsuppsättning. Skärmen begär 3840x2160 som preferred timing därför att det är defaultinställningen för kretsuppsättningens SDK, alltså utvecklarkitet.

Man har alltså missat att programmera in rätt information om skärmens upplösning. Där kan tillverkarna ofta ha en "uppdatering" eller "drivrutin" för Windows som i grunden är en .INF-fil som adderar rätt metadata. Då måste detta göras per dator.

Ofta finns rätt val inprogrammerad i skärmes kretsar, bara att man glömt/slarvat att göra den rätta upplösningen till preferred timing och då måste man själv finna den i menyerna. Men det händer att skärmen faktisk inte ens har korrekt upplösning inprogrammerad utan bara en uppsättning felaktiga standardformat som finns där som default. Då behöver man göra en custom timing om inte det finns någon fix från tillverkaren.

Förekommer även att skärmarna meddelar korrekt metadata när du kör Displayport och att man har slarvat med just HDMI.

Det kan också vara skillnaden mellan att välja video-upplösningar likt 2160p etc. och att välja PC-upplösningar som specifika 3440x1440 som inte alltid är på samma ställe i inställningarna för GPU:n, till exempel om man kör Nvidia-kort.