Synksoppan med G-Sync och Freesync – SweClockers reder ut begreppen

Och jag som funderade på att sätta ihop en micro-atx ryzen pc med ett 5700/5700xt och en 27" skärm med vesa adaptive/amd freesync nu under våren.

Jag tror jag stannar kvar på min g-sync bärbara tillsvidare, åtminstone tills VESA/AMD nått samma kvalitets nivå som nvidias g-sync.

Skrivet av Kapten_Kanel:

I vilket fps-spann fungerar HDMI-VRR?

Det spann som tillverkaren av skärmen/TV:n kan ge apparaten. Men generellt är 48 FPS/Hz och uppåt det man ska räkna med. Lägsta frekvensen vi använder i signaler är 23,967 Hz. Därför är en 48 FPS/Hz en lämplig lägstanivå för paneltillverkarna att sikta på.

Skrivet av Laxpudding:

Ja, det är det som är poängen med den programmerbara modulen. Att kunna finjustera overdrive baserat på panelmodellens beteende vid olika frekvenser.

Vad menar du med att modulen är ansträngd? Eller tänkte du AVstängd modul? G-Sync-modulen kan du inte stänga av då den är en förutsättning för att skärmen öht ska fungera.

Skrev modul bara för skilja på tekniken. Skulle hoppat över det.
Med Gsync on i nvcp, är overdrive variabel och följer Hz när den ändras.
Med Gsync off i nvcp, och en fast Hz är vald, hur fungerar då overdrive? Är det samma overdrive for tex 100 Hz som 120 Hz?

Skickades från m.sweclockers.com

Skrivet av Stefanp67:

Jag tror jag stannar kvar på min g-sync bärbara tillsvidare, åtminstone tills VESA/AMD nått samma kvalitets nivå som nvidias g-sync.

Det är mer åt hållet att det främst varierar med skärmen hur väl det hela fungerar. Därför är ju Nvidias vitlista den säkraste bekräftelsen att utgå ifrån.

Skrivet av Masyve:

Herrn bakom pennan har en tendens att djupdyka lite orimligt mycket i saker och är inte lika intresserad av att simplifiera dem. Är man själv intresserad av ämnet är hans kunskapsbank ett under, är man grönjöling bör man nog scrolla vidare ibland. 😁

Brukar inte du komma med den synpunkten på varje artikel där jag reder ut ämnen som är just komplexa och röriga?

Vill man ha en simplifierad version utan detaljerade svar av det hela finns videon på 3+ minuter. Det räcker också med att läsa inledningen för att veta vad som gäller i stort. Sammanställningen på slutet ger också en översikt och är en ordlista för de begrepp som förekommer.

Alla mina artiklar bygger på den respons och frågeställningar jag får via forumet. Allt som står här är sådant som har diskuterats och där det råder förvirring som ofta leder till felaktiga beslut, likt 300+ FPS CSGO-spelaren som funderar på mervärdet i en G-Sync-skärm. Frågorna från dem med GTX 9xx-kort som undrar varför G-Sync-skärmen inte ger G-Sync. Alla som tror att Freesync-skärmar inte kan fungera med Nvidia-kort och så vidare.

Skrivet av dpj:

Med Gsync off i nvcp, och en fast Hz är vald, hur fungerar då overdrive? Är det samma overdrive for tex 100 Hz som 120 Hz?

Ifall du stänger av G-Sync/adaptiv synk i kontrollpanelen/skärmens menyer kommer panelen att arbeta med statisk frekvens, typiskt då 144 Hz. Du har inte variabel overdrive eftersom skärmen kör statisk frekvens på traditionellt vis.

Så svaret på "Är det samma overdrive for tex 100 Hz som 120 Hz?" är att du inte kan svara på den frågan för den situationen applicerar inte längre. Sedan kan du förstås manuell ändra skärmen till att köra 100 eller 120 Hz och då är svaret att man måste testa och se hur varje skärm hanterar den situationen.

Skrivet av Laxpudding:

Ifall du stänger av G-Sync/adaptiv synk i kontrollpanelen/skärmens menyer kommer panelen att arbeta med statisk frekvens, typiskt då 144 Hz. Du har inte variabel overdrive eftersom skärmen kör statisk frekvens på traditionellt vis.

Så svaret på "Är det samma overdrive for tex 100 Hz som 120 Hz?" är att du inte kan svara på den frågan för den situationen applicerar inte längre. Sedan kan du förstås manuell ändra skärmen till att köra 100 eller 120 Hz och då är svaret att man måste testa och se hur varje skärm hanterar den situationen.

Jag har läst att det är 2 olika overdrive på en Gsync skärm. En för Gsync on och en för off.
Gsync off overdrive verkar ingen veta hur den fungerar.

Tack för svaret och allt jobb med artikeln.

Skickades från m.sweclockers.com

Skrivet av Laxpudding:

Brukar inte du komma med den synpunkten på varje artikel där jag reder ut ämnen som är just komplexa och röriga?

Vill man ha en simplifierad version utan detaljerade svar av det hela finns videon på 3+ minuter. Det räcker också med att läsa inledningen för att veta vad som gäller i stort. Sammanställningen på slutet ger också en översikt och är en ordlista för de begrepp som förekommer.

Alla mina artiklar bygger på den respons och frågeställningar jag får via forumet. Allt som står här är sådant som har diskuterats och där det råder förvirring som ofta leder till felaktiga beslut, likt 300+ FPS CSGO-spelaren som funderar på mervärdet i en G-Sync-skärm. Frågorna från dem med GTX 9xx-kort som undrar varför G-Sync-skärmen inte ger G-Sync. Alla som tror att Freesync-skärmar inte kan fungera med Nvidia-kort och så vidare.

Lätt att skylla komplexitet på dålig lärare. Om alla vara lika dedikerade som dig skulle många ämnen vara betydligt lättare att förstå för de som är intresserade, så ta det inte personligt!

Det är lite som mina föräldrar säger att de är dåliga på matte och skyller det på sina lärare i grundskolan, om dom var intresserade alls hade dom kunnat lära sig själva eller åtminstone ta in den information som dom blivit tilldelade. Lättare att skylla ifrån sig.

Skickades från m.sweclockers.com

Skrivet av Laxpudding:

Inte alls gissar jag. Vet ingen som testat. För att se hur latensen påverkas måste man mäta och kontrollera. Överlag är förstärkare en stor vit fläck på kartan. Finns ingen som testar vad de gör med bilden, utan alla tester jag finner fokuserar på ljud- och ljudfunktioner.

Min allmänna rekommendation är att dra krävande och kritisk bild, till exempel om du har krav på korrekta färger eller sådant som låg latens, VRR etc. direkt till TV:n. De flesta förstärkare jag träffat på har haft inverkan på bild och beteende i någon form. Vissa gör direkta fel, andra är i praktiken utan problem även om det går att spåra förändringar i bilden.

Hur kommer man runt det problemet ifall man vill använda förstärkare till ljudet samt bibehålla eventuellt VRR stöd?

Skrivet av Kapten_Kanel:

Hur kommer man runt det problemet ifall man vill använda förstärkare till ljudet samt bibehålla eventuellt VRR stöd?

Line out från tv till förstärkaren? Borde finnas optisk eller annan digital tror jag

Skickades från m.sweclockers.com

Skrivet av Laxpudding:

Inte alls gissar jag. Vet ingen som testat. För att se hur latensen påverkas måste man mäta och kontrollera. Överlag är förstärkare en stor vit fläck på kartan. Finns ingen som testar vad de gör med bilden, utan alla tester jag finner fokuserar på ljud- och ljudfunktioner.

Min allmänna rekommendation är att dra krävande och kritisk bild, till exempel om du har krav på korrekta färger eller sådant som låg latens, VRR etc. direkt till TV:n. De flesta förstärkare jag träffat på har haft inverkan på bild och beteende i någon form. Vissa gör direkta fel, andra är i praktiken utan problem även om det går att spåra förändringar i bilden.

Tack för svaret. Finns det några bra verktyg för att mäta? I nuläget går bild och ljud genom förstärkaren och jag kan känna en klar skillnad i bild/ljud-latens. Det vore intressant att få det bekräftat.
Hur brukar man göra för att undvika latensskillnader i ljud och bild? Jag har inga problem att dela upp så jag skickar ljud till förstärkaren och bild till TVn, men hur hade en lösning med HDMI VRR används? Det måste väl vara en minoritet som skulle använda synkning som endast använder TV:ns ljud?

Edit: Ser ett svar ovanför också
Dock används inte alltid TV:n tillsammans med ljudet, ibland vill man ju bara lyssna på musik. Jag gissar att signalen inte skickas vidare när TVn inte är på.

Skrivet av dpj:

Jag har läst att det är 2 olika overdrive på en Gsync skärm. En för Gsync on och en för off.
Gsync off overdrive verkar ingen veta hur den fungerar.

G-Sync-modul med G-Sync aktiverad: variabel overdrive och varierande panelfrekvens
G-sync inaktiverat/ej möjligt med GPU:n: statisk panelfrekvens och statisk overdrive där tillverkaren måste optimera overdrive för en specifik panelfrekvens, vilket ofta – men inte alltid – är den högsta panelfrekvensen.

Ett vanligt exempel är 2560x1440-skärmar som kan köra 165 Hz via "överklockning". Där kan optimal panelfrekvens för traditionell overdrive ofta vara 144 Hz medan 165 Hz ger lite mer eftersläp.

Men detta är alltså upp till varje tillverkare hur de vill lösa det hela. Där ligger också konsekvensen hos G-Sync-modulen jämfört med de tusentalet skärmar som kör VESA Adaptive. G-syncmodulskärmen är konskevent i hur overdrive appliceras genom frekvensspannet.

VESA Adaptive-skärmen kan vara väl optimerad för 144 Hz, men ge allt tydligare släpighet och under-/overshoot vid lägre frekvenser. Nästa VESA Adaptive-skärm kan istället vara lite släpigare överlag när adaptiv synk används men också vara konsekvent genom frekvensspannet.

VESA Adaptive-skärmar brukar låsa ut overdrive-reglagen när adaptiv synk används. Men låsa upp dem när adaptiv synk är avstängt. Detta kan i sin tur leda till helt olika beteenden. Och med nära tusen VESA Adaptive-skärmar på marknaden är dock också nära tusen svar där hur det blir.

Skrivet av Kapten_Kanel:

Hur kommer man runt det problemet ifall man vill använda förstärkare till ljudet samt bibehålla eventuellt VRR stöd?

eARC är en tänkbar lösning. Dra ljudet separat är en annan. Finns också enheter som splittar ljud och bild för att undvika den här problematiken, till exempel HD Fury:s produkter.

Skrivet av kamelbarn:

Tack för svaret. Finns det några bra verktyg för att mäta? I nuläget går bild och ljud genom förstärkaren och jag kan känna en klar skillnad i bild/ljud-latens. Det vore intressant att få det bekräftat.
Hur brukar man göra för att undvika latensskillnader i ljud och bild? Jag har inga problem att dela upp så jag skickar ljud till förstärkaren och bild till TVn, men hur hade en lösning med HDMI VRR används? Det måste väl vara en minoritet som skulle använda synkning som endast använder TV:ns ljud?

Edit: Ser ett svar ovanför också

Ljudet kommer nog aldrig vara i synk om det plockas av på vägen, bilden måste ju vänta på tvns inputlag först innan den visas, det kan inte förstärkaren veta, så bilden kommer nog lagga efter

Skickades från m.sweclockers.com

Skrivet av Masyve:

Herrn bakom pennan har en tendens att djupdyka lite orimligt mycket i saker och är inte lika intresserad av att simplifiera dem. Är man själv intresserad av ämnet är hans kunskapsbank ett under, är man grönjöling bör man nog scrolla vidare ibland. 😁

jag tycker nog inte att det var orimligt mycket, utan väldigt bra.
dock var det för mycket att ta in för att fatta allt första gången utan detta är något som behöver plugga på ifall det ska sitta i ryggmärgen

Skrivet av kamelbarn:

Tack för svaret. Finns det några bra verktyg för att mäta? I nuläget går bild och ljud genom förstärkaren och jag kan känna en klar skillnad i bild/ljud-latens. Det vore intressant att få det bekräftat.
Hur brukar man göra för att undvika latensskillnader i ljud och bild? Jag har inga problem att dela upp så jag skickar ljud till förstärkaren och bild till TVn, men hur hade en lösning med HDMI VRR används? Det måste väl vara en minoritet som skulle använda synkning som endast använder TV:ns ljud?

Edit: Ser ett svar ovanför också
Dock används inte alltid TV:n tillsammans med ljudet, ibland vill man ju bara lyssna på musik. Jag gissar att signalen inte skickas vidare när TVn inte är på.

Har du en ljudkälla med bara hdmi som utgång? Jag tror inte jag fattar riktigt. Kör du bara musik använder du väl inte hdmi?

Skickades från m.sweclockers.com

Skrivet av SweDragon:

@Laxpudding Värt att notera är att "äkta" Gsync med modul från och med nu även kan stödja AMD kort (antar via vesa adaptive sync standarden). LG 38GL950G-B som nyligen släppts ska enligt de reviews jag har läst alltså stödja adaptiv synkronisering även på AMD kort. Så det blir ännu mer komplicerat när skärmar med denna (förmodligen en av de dyrare varianterna) av Gsync chip kommer släppas parallellt med klassiska Gsync skärmar som enbart stödjer Nvidias kort...

Skickades från m.sweclockers.com

Det har jag också hört. T.ex. i Tim's recension av den skärmen på Hardware Unboxed youtube-kanal och i hans text-recension på Techspot. I textrecensionen trycker han dessutom lite extra på just denna AMD-kompatibilitet.

Skrivet av kamelbarn:

Tack för svaret. Finns det några bra verktyg för att mäta? I nuläget går bild och ljud genom förstärkaren och jag kan känna en klar skillnad i bild/ljud-latens. Det vore intressant att få det bekräftat.

Det finns testmönster på testskivor och även youtube för att lista ut hur mycket fördröjning som sker. Annars är det sådant som leo bodnar input lag tester som behövs.

Vad mycket det har hänt på nästan 5 år nu sen introduktionen av adaptiv-synkroniseringsteknik av både AMD/NVIDIA.

Men för mig, jag skaffade ju den allra första 1440p, G-Sync, IPS-144Hz skärmen från Acer, och den fungerar än idag 5 år senare galant.

Tack för en superb genomgång.

Har just funderat en del på sistone hur det blir med min LG C9 om jag uppgraderar till ett AMD-kort under året. Det jag ska invänta och se är alltså om dessa kommer att stödja HDMI VRR. Men då är ju kruxet att min datorskärm är gsync och inget annat.. En lite trist djungel detta.

Har börjat störa mig enormt mycket på de problem med color gradient banding nVidia har som till synes bara blivit värre, vilket syns ännu mer på OLED då de inte är höjdare på det i grunden. Därav lockar AMD.

Men, man vill ju helst också behålla detta med adaptive sync i någon form. Så man kan väl hoppas att de också hoppar på HDMI VRR-tåget istället för att ironiskt nog låsa sig till Freesync.

Angående detta med förstärkare och så vidare så har jag inte läst överdrivet noggrant, men jag kör HDMI-kabel från GPU till TV direkt, och sedan allt ljud via optisk kabel från TV till förstärkare. Slipper byta input, slipper strul med latens och dylikt. Det kräver ju dock att TV:n är på.

Skrivet av medbor:

Har du en ljudkälla med bara hdmi som utgång? Jag tror inte jag fattar riktigt. Kör du bara musik använder du väl inte hdmi?

Skickades från m.sweclockers.com

Jag får bild genom HDMI men har slagit av ljud via HDMI och tar det via S/PDIF ifrån ett separat ljudkort.

Skrivet av Laxpudding:

Det är mer åt hållet att det främst varierar med skärmen hur väl det hela fungerar. Därför är ju Nvidias vitlista den säkraste bekräftelsen att utgå ifrån.

Läste igenom artikeln lite noggrannare och flimrande skärmar och overdrive artefakter är ju skärmens fel och inte tekniken. Ska kolla igenom Nvidias vitlista - det kanske blir en micro-atx ryzen pc med 5700/5700xt med vesa/freesync ändå

Skrivet av Ridebird:

Har börjat störa mig enormt mycket på de problem med color gradient banding nVidia har som till synes bara blivit värre, vilket syns ännu mer på OLED då de inte är höjdare på det i grunden. Därav lockar AMD.

Jag växlar mellan AMD- och Nvidia-kort på nästan alla skärmtester jag gör och har inte märkt något liknande problem, det vill säga posterisering med Nvidias kort. Det är inte så att du drar i "Color Vibrance"-raglagen med flera i Nvidias kontrollpanel? För de orsakar definitivt posterisering om de används bara ett par snäpp.

Även sådant som färgprofiler skapar posterisering. Finns många orsaker men jag kan inte säga att Nvidia generellt har problem med posterisering.

Det behövs nog i vanlig ordning en standardiserad medelväg mellan G, F, V och H synk. Så ingen behöver känna att de vunnit helt.

Vad sägs om N-Sync..?

Skrivet av Stefanp67:

Läste igenom artikeln lite noggrannare och flimrande skärmar och overdrive artefakter är ju skärmens fel och inte tekniken. Ska kolla igenom Nvidias vitlista - det kanske blir en micro-atx ryzen pc med 5700/5700xt med vesa/freesync ändå

Men även skärmen är med på Nvidias lista så är det inte säkert att den fungerar bra ihop med ett AMD kort vad jag förstått. Så det måste vara något med deras drivrutiner.

Skickades från m.sweclockers.com

Skrivet av kamelbarn:

Jag får bild genom HDMI men har slagit av ljud via HDMI och tar det via S/PDIF ifrån ett separat ljudkort.

Varför ska då hdmi gå via förstärkaren?

Om du har bild på tv så bör ljudet gå där igenom för att synka ljud och bild bättre, kör du bara ljud får källan (datorn?) styra till en annan ingång på förstärkaren. Om alla hdmi-källor skickar bilden direkt till tv så kommer ljudet till förstärkaren så fort du byter källa på tv. Tror det är enklaste setupen, tv har dessutom oftast många ingångar så det räcker till konsol, dator och tv-box

Skickades från m.sweclockers.com

Skrivet av medbor:

Varför ska då hdmi gå via förstärkaren?

Om du har bild på tv så bör ljudet gå där igenom för att synka ljud och bild bättre, kör du bara ljud får källan (datorn?) styra till en annan ingång på förstärkaren. Om alla hdmi-källor skickar bilden direkt till tv så kommer ljudet till förstärkaren så fort du byter källa på tv. Tror det är enklaste setupen, tv har dessutom oftast många ingångar så det räcker till konsol, dator och tv-box

Skickades från m.sweclockers.com

Bra tänkt, jag ska försöka styra om det så det fungerar så istället.

Köp den skärm du vill ha, ställ in Adaptiv synk för grafikkortet, klart. Kör man i högre Hz än FPS är man vilse i pannkakan. Jag menar, vad förväntar man sig?

Skrivet av kamelbarn:

Bra tänkt, jag ska försöka styra om det så det fungerar så istället.

Jag är inte fullt insatt i allt, men det är så jag hade löst det iaf

Skickades från m.sweclockers.com

@Laxpudding: Glömt svara på detta.

Nej, tyvärr finns ingen lösning. Det syns inte tydligt i de flesta fall, men om du kollar på himlen i Red Dead Redemption 2 kan du se tydliga gråa linjer när du tittar upp och tittar omkring. Syns extremt tydligt i Control där det är gott om röda diffusa ytor som blir stora blaffor med tjocka partier, särskilt i slutet av spelet.

Jag trodde det var min LG C9 det var fel på då den var ny, men det syns bara allmänt tydligare där (pga att LG OLED i allmänhet inte sköter färgövergångar bra i material med 8 bitars färgdjup, syns inte alls på samma sätt i t ex Dolby Vision) - jag har samma fel på datorskärmen (PG279Q över DP, så gäller både HDMI/DP).

Ett annat enkelt ställe du ser det på direkt är Geforce Experience, den gråa gradienten som finns på t ex spelbibliotekssidan.

Felet är ganska väldokumenterat på nVidias forum i en just nu inaktiv tråd, samt en drös trådar på Reddit och Steam. Problemen blev påtagliga någonstans kring Win 10 1809 och ska sen ha patchats, men problemen kvarstår för de allra flesta som var petiga nog att notera det. Felet skulle ha just att göra med färgprofiler och det finns en workaround som i dagsläget inte fungerar. Folk lyckades också hacka in dithering (på drivernivå) från nVidias Linuxdrivers som ju närmast löste det men det är nu bortpatchat.

Jag har testat att köra utan färgprofil (som jag gjorde först), skapa färgprofil, ta bort färgprofil, helt ta bort att Windows hanterar färgerna med den där färgprofils-inställningen. Ingen skillnad. Jag använder inte digital vibrance. Jag har testat alla olika kombinationer av färginställningar i nVidia, rensat drivers, testat denna workaround som inte funkade, och så vidare. Med andra ord, jag har gett upp.

Det enda folk rapporterat som hjälper är helt enkelt att byta till AMD, och det finns många som rapporterar just att det här löser detta problem.. Så det är det enda jag har att gå på då nVidias hållning verkar vara att felet inte finns och dithering inte kommer åter. Jag är inte helt insatt i just dithering etc men det är just detta som AMD ska ha på hårdvarunivå som gör att problemet inte kan bli lika påtagligt, t ex syntes det inget på AMD-kort vad jag vet när detta Windowsfel dök upp.

Om du gräver i det och kommer på en lösning så får du gärna svara mig här

edit: Kan passa på att slänga in en fråga här då jag ser dig som gurun i allt med skärmar och sådant.. Tror du HDMI 2.1 kommer lösa detta rakt av? Jag tänker alltså att med HDMI 2.1 GPU så borde det väl ändå gå att köra 12 bit RGB 4k 120hz på min C9. Eller?

Jag vet ju att på TVn som har tendensen att visa detta fel i det mesta så är det omöjligt att se i material med hög bitrate och 10/12bit färgdjup, om man kör via de interna apparna då.

Senast redigerat 2020-02-17 13:02