Inlägg

Inlägg som Laxpudding har skrivit i forumet
Av Laxpudding
Skrivet av dust79:

Väldigt osäker på paneltyp (VA, IPS, OLED) samt upplösning (har ju bara 1920 x 1080 idag och osäker på när hög upplösning och storlek på skärm gör text för liten).

Det är många som missar detta om storleken på text vilket har gett oss den tioåriga pågående missuppfattningen om att 4K-skärmar alltid kräver nästa generations GPU.

Se runt 150 ppi pixeltäthet som ett finger i vinden beroende på synförmåga, användning, individuella appars gränssnitt och hur man organiserar sitt skrivbord. Runt 150 ppi för skärmen på skrivbordet brukar de flesta uppleva 1:1-förhållande eller 100% skalning som för smått och otydligt. Blir svårt att se. Då skalar man istället i gränssnittet till önskade nivåer vilket är det som gör 4K-skärmar så flexibla.

27 tum 1920x1080: ≈82 ppi
27 tum 2560x1440: ≈110 ppi (även 34-tum 3440x1440)
27-tum 3840x2160: ≈163 ppi

Om man pratar om större skärmar, runt 40 tum brukar dessa som regel hamna längre bakåt för att matcha synfältet. Då kan man tala om PPD eller pixels per degree för att väga in det multidimensionella med hur avståndet påverkar. 42 tum 4K likt många OLED baserade på LG:s paneler har till exempel ≈105 ppi men om man räknar om avstånden de ofta används på är PPD-nivån jämförbar med en mindre skärm som står närmare. Som tumregel vill man nå runt 60 PPD eller högre för att få en skalning som börjar nå gränsen där man vill skala gränssnitt.

Vill man på en 4K-skärm ha en disponering av gränssnittet motsvarande en 1920x1080-skärm kör man 200% skalning i Windows. Blir lika "stort" som 1080p-skärmen fast med överlägsen gränssnittsrendering som är omöjligt på 1920x1080 native. Eller 150% skalning för att få motsvarande 2560x1440/QHD-nivån i disponeringen och återigen med överlägsen gränssnitsrendering som inte är möjlig på 2560x1440 native.

Eller något annan skalningsnivå beroende på. Poängen är att man kan välja. Man blir med hög ppi på skärmen inte längre låst till pixelmatrisen på samma sätt som man är låst till legacy-upplösningar likt 1920x1080. Vilket är vad många missar med 4K. Många är så fast i vad som är inaktuella tumregler efter alla år med låg ppi att de felaktigt transponerar de tankesätten på 4K-skärmar.

Denna förmåga till skalning vid hög ppi gäller även spel. Dels moderna spel som har nyare sorters skalningstekniker, DLSS, FSR etc. men också äldre spel där man kan hålla renderingen under skärmens upplösning för att hålla FPS-nivåerna uppe. Eftersom pixeltätheten är nära gränsen för vad ögat klarar att uppfatta som individuella pixlar blir skalning inte lika problematiskt när skärmen har hög upplösning. Nej, man måste inte rendera spelen i 4K för att man har en 4K-skärm. Man väljer det som ger en önskad upplevels. Däremot måste man ofta rendera spelen i 1440p på en 1440p-skärm för det ser rätt kasst ut om man försöker skala. Därmed blir man mer låst av en låg upplösning.

Kring 100 ppi (PPD typiskt runt 30–40 med 27-tum på skrivbord) och lägre som de flesta är vana med från alla legacy-upplösningar som just 1920x1080 och 2560x1440 ger en synlig pixelstruktur och det är för låg upplösning för att det ska fungera att skala utan tydlig inverkan på kvaliteten. Då är man låst till att rendera i native och hålla gränssnitten till 100 procent. Eftersom försök till skalning ser mindre bra ut eller har direkt negativ effekt.

Jag ser idag endast två skäl till att välja skärmar som är på 100 ppi-nivån, alltså dagens 27-tums 2560x1440-vaniljskärm eller UW-varianten som är 34–35 tum 3440x1440 (samma höjd bara mer bredd):

(1) Bulk. Det är billigare (och blir billigare) och finns ett mycket större utbud med 1440p-nivån och särskilt då 1080p-nivån
(2) Frekvens. Man kan för mindre pengar nå högre panelfrekvens likt 240 Hz och högre om man har den prioriteten för spelande.

Ifråga om paneltyp är svaret enkelt: IPS. Kan inte bli mer allround.

VA väljer man för att det är billigare, kanske för att det är högre kontrastförhållande, vilket då vägs upp mot fler nackdelar som sämre vinklar. TN är idag kvar främst för spelskärmar avsedda för hög frekvens och mer sällan för allroundbruk.

OLED ger en nya dimensioner bortom LCD-tekniken och det som är problemet idag är främst utbudet och prisnivåerna. Men det är också där tekniken ändras som mest.

Av Laxpudding

Generellt är HDMI byggt för en-till-en-koppling. Displayport är byggt för att kunna hantera flera strömmar och därför brukar det vara enklare att få till. När dockor har flera HDMI ut är det vanligen transport via displayport och signalen konverteras i dockan till HDMI och då kan det finnas interna gränser för bandbredd, vilket då delas mellan portarna. För HDMI-omvandlingen är det i dockor påfallande ofta den gamla 9 Gbps-gränsen som då till en skärm som kör 4K/30, en skärm med 1440p/60 eller två skärmar som kör 1080p/60.

Med DP ut från dockan brukar den fördelningen vara mer flexibel och något högre så att man får ut en skärm med 4K/60, två med 1440p/60 och två med teoretiska 1080p/120.

Oavsett är dockan begränsad till den totala bandbredden som dockan klarar av vilket ofta är 20 Gbps minus det som behövs för USB. Så vill man ha USB:n på dockan till 5 Gbps har man 15 Gbps över till skärmarna. Dåliga kablar kan dessutom sänka den totala bandbredden till lägre hastigheter.

3440x1440/60 kräver runt 10-11 Gbps och 2560x1440/60 kräver runt 7–8 Gbps. Lägg till USB-strömmen och då kliver man över vad som är tekniskt möjligt att få ut över en och samma USB-kabel till en och samma docka.

Renodlade Displayport-dockor som kör DP alt mode kan typiskt få ut ≈21 Gbps med HBR2-hastighet och då ska det (på papper) fungera med båda dina skärmar på samma docka. Men då har vanligtvis endast en klassisk USB2/480 Mbps över till just USB.

Tillverkarna är ofta väldigt otydliga med exakt vad som fungerar och hur dockorna fungerar.

Därför Thunderbolt är så attraktivt på en laptop för den som har krav på flera skärmar i lite mer modern upplösning och/eller högre frekvenser när det finns 40 Gbps att fördela. Då är det rejält dyrare, det finns betydligt färre Thunderbolt-dockor att välja bland och kablarna blir viktigare.

Finns alltid undantag och specialfall men detta är lite av tumreglerna med docka. Räkna på bandbredden. Och det många missar är att den ofta sitter en kapabel HDMI på en modern laptop som ger kapacitet på 18 Gbps eller högre som löser problemet.

Av Laxpudding

UW är inte nödvändigtvis mer yta, utan främst annan form på ytan. Så om det passar beror mer på sådant som arbetsflöden och programmen du kör och hur de organiseras. Upplever du idag att du saknar arbetsutrymme på bredden? Jag skulle lite kategoriskt säga att de flesta saknar arbetsutrymme på höjden vad gäller foto och video-arbete och då kan UW bokstavligen vara en ändring i fel riktning.

Du åstadkommer i grunden mycket mer med en 40–43-tummare i 16:9 och 4K-upplösning och vinner där både bredd, höjd och upplösning. Vid behov kan en sådan skärm maska av för 3840x1600 om du vill ha 21:9 i exempelvis spel som tillåter. Med du kan aldrig få UW-skärmen att växa på höjden, bara få den att krympa på sidorna.

Av Laxpudding
Skrivet av reverend benny:

Super, tack för svar. FÅr hålla lite utkik efter en QN95B eller kanske hoppa på OLED tåget med deras S95 modeller.

Du har även QN900 och QN800-modellerna med One Connect. Funktionellt analoga mot QN95 och QN90-modellerna.

Av Laxpudding
Skrivet av reverend benny:

Finns det någon annan tillverkare som har en liknande lösning som Samsungs One Connect Box?
"Nya" QN95C (2023) och D (2024) har inte stöd för detta utan man får isåfall gå på B modellen från 2022 som är rätt överprisad just nu.

Historiskt måste du backa till vissa av Pioneers plasma för sisådär 15 år sedan för något liknande. Det är endast Samsung som kört med den lösningen om man nu inte räknar in LG:s trådlösa variant på M3-modellen vilken är en helt annan prisnivå.

Av Laxpudding
Skrivet av solidvikke:

Har du någon kunskap om debatten kring SoCen? C845/c849 ska tydligen uppgraderats till Pentonic 700 likt den som sitter i c805 men osäker på ifall det gäller för Sverige. C849 ligger ju bra i pris idag i pågående rea men hört att första upplagan med gammal SoC kantats med en del buggar med dimming-algoritmen etc? Är så otroligt kluven ifall jag ska välja c805 eller c849, är ingen bildnörd mem önskar mjukvara som inte strular!

Om du söker en viss mjukvara och viss specifik funktion löser du det enklast genom att separat lösa situationen. Till exempel att köra Nvidia Shield Pro (som exempel) som är bekräftat fungerar på det sätt du söker. När du har löst detta kan du sedan välja vilken precis TV du vill.

Vad som gör köpen krångliga, man känner sig kluven, orolig för att det strular etc. är att man försöker lösa allt på samma produkt. Istället för att köpa en hammare vill man att det ska ingå en hammare i den schweiziska armékniven som en TV försöker vara.

Tusen personer kommer ha tusen åsikter om exakt hur TV:ns mjukvara ska fungera men ingen tillverkare kommer kunna svara på de tusen kraven med en och samma apparat. Ingen TV kommer kommer fungera exakt som man vill ned på minsta lilla beståndsdel. Så man löser situationen utanför TV:n.

Frågetecken runt TCL:s dimming låter för mig som att det har väldigt lite med SoC:n att göra. Det är nog mer att tillverkare som TCL och Hisense fortfarande är några år efter på den fronten. Plus att de som tillverkare kan tankemässigt ha andra idéer och visioner om av vad en bra FALD-algoritm förväntas göra. Där många köpare efter alla år med Sony, Samsung, Philips, Panasonic och LG:s algoritmer har en annan uppfattning. Inte att det är själva SoC:n som buggar.

Av Laxpudding
Skrivet av Swennis:

Tack för snabbt och utförligt svar, intressant läsning som vanligt!
Men kan inte bestämma mig för c3 eller s90c... tvekar la ett år till antagligen... 😄

På det hela stora så är båda så pass jämförbara. Du lär bli nöjd med någondera. Skillnaderna handlar om hur mycket du prioriterar runt olika egenskaper.

Av Laxpudding
Skrivet av Swennis:

hej, Ni som köpt Samsung oled, som haft Dolby vision innan på annan bildvisare... saknar ni ens Doilby Vision? Typ 90% av hdr streaming är väl i DV...

Testat ha det avstängt på våran panasonic oled... och tycker nog väl att vanlig HDR duger rätt väl...

s90c ser ju onekligen spännande ut, om man skulle slå till på en 77"... helst om den dyker lite till i pris...

Orsaken till att du inte ser någon enorm skillnad med eller utan DV är främst att Panasonic gör HDR10 rätt. Den andra orsaken till att du inte märker skillnad är att du bara ser en sak åt gången, inte sida vid sida. Det är inte säkert att det du jämför ska visa någon skillnad DV och HDR10.

Dolby Vision står för främst för konsekvens, att det blir det tänkta resultatet eftersom det är Dolbys algoritmer som hanterar allt. Hanterar TV:n HDR10 korrekt behöver skillnaden inte vara enorm eller ens märkbar. Då återstår fördelarna med DV främst dynamisk HDR (när det används och när det kan applicera vilket varierar) och möjligheten till 12-bitars färgdjup (när det applicerar) och det är situationer där man måste välja ut sina jämförelser för att tydligt se skillnad. Av sin natur kommer HDR-jämförelser alltid variera med jämförelsen både bilden och hur hårdvaran fungerar.

Problemet som Dolby Vision löst är att så många TV-apparater inte gör HDR10 rätt. De klipper nivåer, tappar kontrast eller att HDR-bilden blir för mörk. Detta har blivit betydligt bättre senaste åren då fler och fler tillverkare började göra rätt. För fem år sedan var det ingen tvekan om att DV bidrog till bättre kvalitet på dåtidens modeller. Idag är det mer eller mindre likadant i de flesta fall.

Varierar från tillverkare till tillverkare där jag skulle säga att TCL och Hisense generellt fortfarande svarar bättre på Dolby Vision jämfört när man kör samma material som HDR10. Jag har också sett sambandet att ju enklare TV, desto mindre konsekvent HDR10-hantering och därför är vi i situationen att en enklare TV-modell faktiskt blir bättre med Dolby Vision, till exempel Vestel-byggda TV – samtidigt som dagens toppmodellerna överlag är så pass bra att man inte längre tänker Dolby Vision som automatiskt mycket bättre.

Samsung är lite av ett undantag och det som varit och viss mån fortfarande är Samsungs problem är att de inte är helt konsekventa med HDR10-reproduktionen. De tenderar att ljusa upp bilden godtyckligt och det finns situationer där Samsungs TV responderar fel på HDR10, till exempel att vitbalansen ändras beroende på ljusnivån i bilden.

Samsungs problem är inget man ser om man inte vet vad man ska leta efter. Jag som jämför lite mer rutinmässigt märker av detta och jag kan mäta att det blir väldigt olika respons baserat på ljusinnehållet. Problemet med Samsung är alltså inte så mycket att Dolby Vision saknas utan hur Samsung fortfarande hanterar HDR10 lite för godtyckligt.

Fast när så extremt få lär jämföra sin Samsung sida vid sida mot en TV som gör HDR10 och DV helt enligt handboken landar på det nivån av att vara lyckligt omedveten.

Av Laxpudding
Skrivet av deha:

Kollat på en del info om QM8 men verkar vara exklusiv till USA. Vad jag kan förstår är MQLED80 det närmaste vi får här i Europa men är det samma tv? Vekar väldigt prisvärd isåfall.

MQLED80 (El-G) är även känd som C805 (nästan alla andra) och troligtvis också T8A (Komplett-kedjorna) med kosmetiska variationer.

Återkommande fråga detta om TCL US och EU-modellerna och två saker:

TCL skiljer på EU och US-modellerna och de kör olika operativsystem, därav olika beteckningar. De är inte exakt lika hårdvara och funktioner men kan beroende på produktionscykler och liknande vara så att den aktuella EU-modellen är snäppet modernare eller snäppet äldre i tekniken. De kan också överstämma till att vara ungefär samma, i alla fall rent tekniskt. Så kanske snarlika men förmodligen inte. Tekniskt verkar US QM8 vara mellan EU C805 och C845 så du behöver gå upp i modellnummer för att helt matcha.

TCL i USA delar nog endast varumärket med TCL i Europa (som är gamla Franska tillverkaren Thomson) och deras närvaro och metoder för marknadsföring är väldigt olika. TCL USA är väldigt mycket inne på stark marknadsföring inklusive influencers och därför ser man mycket fler entusiastiska hyllningar av TCL:s modeller från nordamerikanskt håll. Ofta med tesen att TCL är både bäst och billigast på samma gång. Lätt att smittas av denna betalda entusiasm om man gillar den typen av mentalitet.

De europiska modellerna möts mer av ett återhållsamt och sansat intryck. Jag själv skulle sammanfatta dem som tekniskt omfattande allround, bitvis rätt plastiga/smäckiga apparater där priset och tillgängligheten är deras allra största fördel. Mycket TV för pengarna men ännu inte kapabla till att klassas som det allra bästa vad gäller exempelvis bildkvalitet. Vilket iofs gör dem till lämpliga allroundapparater för den som söker något som är tillräckligt bra för mycket mindre pengar än det som klassas som det allra bästa.

Om du sonderar forumet kommer du märka att det finns en hel del som har varierande synpunkter på hur väl TCL:s apparater fungerar. Ganska typiskt är kritiken riktad mot mer specialiserade funktioner, likt hur väl TV:n fungerar ihop med datorn, soundbaren eller liknande. Mer sällan för allroundbruket.

Av Laxpudding

Högre frekvens på signalen har ingen direkt betydelse för generell bildkvaliteten. Det är knappast så att fotografier återges exaktare eller liknande. Effekten av högre frekvens handlar mer om känslan i gränssnittet och sådant som eftersläp i spel.

Av Laxpudding
Skrivet av Njz:

Det har funkat i 1 år helt plötsligt har det börjat, så det har funkat förut. så de har ingenting med dåliga prylar att göra.

Det som plötsligt ändras med tiden är mjukvaran, både hos klienten (likt Chrome) och hos servern (likt sidan för videon du strömmar). Det är ofta så man upptäcker att ens datorn inte riktigt orkar längre. Hårdvaran är samma och lika snabb som den alltid varit. Bara att allting annat förändras och ger sämre och sämre respons.

En i5 på 2,6 GHz är antagligen en gammal och/eller en enklare processor eller en att du har en laptopmodell med ett par år på nacken. Jag märkte en stor skillnad när jag bytte från en i5-6600K på 3,5 GHz (2015) till en i7-10700K 3,8 GHz (2020) på just sådant som kapaciteten att göra flera saker samtidigt.

Bara en sådan enkelt sak som att du har för lite RAM-minne i datorn påverkar, särskilt när du kör flera saker samtidigt. Särskilt som alla mjukvara tenderar att äta mer och mer internminne. Är det dessutom en laptop du har (det framgår inte av dina svar) kan det finns ytterligare faktorer som begränsar kapaciteten, likt att kylningen inte fungerar längre pga igensatta fläktar, batteriet är klent och datorn går ned i energisparscheman etc.

Det finns i alla fall ingen "sluta lagga"-knapp någonstans och det har inte med skärmen att göra. Det är datorn som är orsaken även om det sällan går att peka ut exakt vad med datorn som inte orkar. Därav min ursprungliga förslag att ställa frågan i den forumdel där det finns många, många flera som är intresserade av just detaljerna runt datorn. Skärmdelen lär inte ge lika många svar.

Av Laxpudding
Skrivet av OldSchool297:

Tack. Nvidia kort från 2014 och nyare borde kunna fungera med 3440x1440 i högre hz emot 50? 50hz är lite lågt.

Nvidia 9xx och nyare ska klara 18 Gbps på HDMI. Då får du 100 Hz.

Kör annars Displayport så är det vettiga frekvenser och 9xx och nyare bör orka med hela vägen till HBR3-nivå och utan problem köra skärmens 144 Hz.

Av Laxpudding
Skrivet av mrrock:

Kan de göra något när garanti gått ut? Den köpt i november 2020

Du kommer knappast få långfingret av dem bara för att garantitiden är passerad.

Supporten kan ha information om extra åtgärder och lösningar, likt djupare återställningar. Det kan finnas förlängda garantier ifall det visar sig att batchar har en ökad felfrekvens. De kan åtminstone ge en fingervisning om vad en reparation skulle kosta och till vem du kan vända dig för en reparation.

Av Laxpudding
Skrivet av Omega5509:

Hej!
Funderar på att möblera om lite hemma. Då kommer tv'n på morgon/förmiddag stå i direkt solljus.
Söker jag så är det varierat livsfarligt för tvn eller ingen direkt påverkan.
Vad har ni för erfarenheter av oled och solljus. Hur gör ni hemma?

+tvn kommer inte vara på under tiden. men läste att värmen av solljuset kan skada tvn oavsett om den är på eller av.

Allt påverkas av direkt solljus och likt allt annat varierar det med dosen. Den som bor närmare ekvatorn har nog större problem med att solljus bleker ut saker och ting – drabbar ju också sådant som tapeter, möbler, konst på väggen etc – dels på grund av de lever med mer soliga dagar och förmodligen inte har treglasfönster. Då kan de säkert ha en åsikt om hur illa det är.

En annan kan haft solen på TV:n i många år och aldrig märkt något. Kanske för att solsken i den delen av världen bara är en lyx vissa tider på året och treglasfönster är standard.

Om detta väcker en oro hos dig går det alltid att ordna med gardiner.

Av Laxpudding
Skrivet av mrrock:

Jag får fråga expertisen här. Jag har en 48 cx och har ibland upplevt problem med att fjärrkontrollen slutar fungera mot tv:n. Löses genom att dra ut sladden ur tv och sen in igen. Men igår kväll när ett avsnitt precis tar slut och nästa automatiskt ska starta, apple tv via inbyggd app, så fortsätter eftertexter och ljud, nästa avsnitt startar inte och fjärren reagerar inte. Byter battrie, fjärren lyser rött vid knapptryck men ändå inget på tv. Så jag drar ur sladd, väntar en stund och in igen. Nu går tv:n inte igång. Har prövat att testa tips jag hittat på nätet med att:
dra ur ström, vänta länge, ström på
dra ur ström, vänta länge, hålla inne powerknapp på tv i 20 s. för en fabriksåterställning och sen ström igen, men ingen lycka.
När man stoppar i ström sladd i uttaget så hörs en välbekant ljud ifrån tv:n, typ samma som när man stänger av den har jag för mig.

Någon som drabbats av detta och har något bra knep för att kicka igång tvn?

Om du inte får igång den på normala försök och vaktmästaråterställningar, då är det läge att kontakta LG support.

Av Laxpudding
Skrivet av Thomas:

Hm, hur menar du med fullskärmsläge där? I vilket sammanhang?
I många lägen betyder väl fullskärmsläge att statiska element som taskbar/toolbars/knappar försvinner och därmed är snällare mot skärmen?

De statiska, riskfyllda elementen likt ikoner och menyknappar etc. hamnar alltid på samma plats i fullskärmsläge eller maximerat fönster. En mer godtycklig användning av fönster gör att sådana element hela tiden flyttar runt.

Av Laxpudding

Baserat på den specen bör du få ut 3440x1440 i 50 Hz över HDMI. Med Displayport ska 660Ti räcka till 100 Hz i 3440x1440 då 660Ti specas som max 3840x2160/60 Hz vilket är den klassiska 18 Gbps-gränsen. Alltså lite under HBR2-nivån för Displayport. Såtidens hårdvara har ofta gränser som ligger under då aktuella pappersspecar.

Sedan lär det inte finns en susning att kunna rendera så värst mycket i spel i höga FPS och 3440x1440 med ett 660Ti. Men för allmänt bruk och användning lär det fortfarande gå.

Av Laxpudding

Fråga inte efter version, fråga efter funktion – devisen för HDMI

Du vill ha en skärm som bekräftat har funktionerna som PS5:n använder, likt att VRR fungerar med PS5:n. När någon pekar med hela handen på "HDMI 2.1" kan det betyda vad som helst och garanterar inget om funktionen. Det måste bekräftas någonstans, till exempel här:

https://www.rtings.com/monitor/reviews/samsung/odyssey-g6-s32...

Så verkar fungera väl med PS5 med den generella varningen att kör 1440p-skärm mot en konsol som är optimerad för att köra 4K. Kan vara en käpphäst beroende på vad man har för personliga referensramar.

Beroende på hur du tänkt dig allt kan en liten TV också passa. Dessa är också mer säkra/bekräftade för PS5, till exempel LG:s 42-tums OLED eller Samsungs QN90 i 43 tum.

Av Laxpudding
Skrivet av Rymdprofeten:

Då slog det mig att jag ju faktiskt kopplat in skärmarna i två intilliggande DP-portar och att det kanske var just de två portarna som delade bandbredd med varandra. Sagt och gjort, jag begav mig direkt hem och testade att flytta den ena DP-kabeln till porten längst bort från moderkortet sett, och voilà - 4K, 144Hz, 10 bitar, HDR, G-sync och hela faderullan på båda skärmarna!

Ah, perfa! Där bekräftade du något som jag misstänker kan variera mellan olika partnertillverkare men sällan står i klartext någonstans – samt lett oss till liknande huvudbry i tidigare fall.

Av Laxpudding
Skrivet av shugge:

I de fall man i windows bildskärmsinställningar har både t.ex. 59,94Hz och 60Hz, brukar det ena funka bättre/sämre än det andra?

Testa

Det ska i praktiken vara oskiljaktigt om vi enbart talar om själva frekvensen. I teorin kan man tänka sig att om man har en video som är i någondera 59,94 eller 60 FPS och skärmen är "fel" så kommer var tusende frame repeteras eller hoppas över beroende på mjukvaran man använder.

59,94 Hz rapporterad på en skärm i Windows är ett tecken på att man använder en signaltiming som är videobaserad och inte VESA-baserad för bildskärmar. Beroende på skärmen i fråga kan det varierar med vilken respons de ger på en sådan signal, likt att de märker att det är videotiming och anpassar sina funktioner efter det. Numera är dock skärmar betydlig mer agnostiska inför exakt timing.

Så har vi den typisk Nvidia-situationen med att man inte får ut 120 eller 144 Hz till sin TV. Ser man max 59,94 Hz i menyerna är det ett tecken på att man väljer bland HDTV-upplösningar istället för PC/bildskärmsupplösningar där 120 Hz och högre oftast finns. Vilket är en ofta frågad fråga.