I mina öron låter det som en vettig lösning från Nvidias sida. Nvidia har misslyckats ganska ordentligt med att förklara vad som egentligen skiljer G-Sync mot Freesync. Jag har tagit upp det i en annan nyhetstråd.
"Freesync" eller VESA Adaptive är redan de facto idag på nya skärmar. Funktionen är inbyggd i de flera kretsuppsättningar. Vem som helst kan aktivera denna på nya skärmar. Så ungefär 90% av (senast jag kollade på prisjakt) av alla skärmar med adaptiv sync har "Freesync" därför att funktion redan finns där. Troligtvis är det ännu fler skärmar som har funktionen med skillnaden att inte alla skärmtillverkaren bryr sig om att specificera eller garantera funktionen.
VESA Adaptive Sync är en generisk funktion som i stort sett bara finns där på en färdig systemkrets. Så den "kampen" är vunnen sedan länge. Ifall man nu måste betrakta detta som en kamp mellan vita eller svarta hattar då? Jag är lite för pragmatisk för det.
G-Sync är en annan approach där Nvidia ihop med paneltillverkaren optimerar bland annat overdrive efter den specifika panelens beteende och respons vid olika frekvenser. Detta för att undvika flimmer, ghosting och andra typer av overdriveproblem. En skärmtillverkare kan inte bara sätta ihop en G-Syncskärm hux flux. Nvidia styr över urvalet.
Nvidias approach använder separat programmering för varje sorts panelmodell vilket förklarar varför G-Syncmodulen är på FPGA (och kostar en del). Men Nvidias kontroll gör också att endast specifika och utvärderade LCD-paneler kommer att förses med G-Sync. Tanken är att det ska finnas en konsekvens i beteendet hos produkten. Likt att synkroniseringen ska fungera inom 30–144 Hz eller vad som nu är teknisk övre gräns för panelen – utan att flimmer eller ghosting tar över bilden. Vilket också stämmer. De fåtal G-Sync-skärmarna som finns är på gott och ont också tämligen konsekventa i sitt beteende, vilka funktioner som finns – eller inte finns – och hur skärmen beter sig.
Med VESA Adaptive/Freesync kan det vara precis hur som helst. Men eftersom kretsuppsättningen och funktionen är genereisk är effekten också godtycklig på olika paneltyper. Då kan det vara en flimmerfest eller långa släpande overdriveskuggor eller för den delen ryckig bild ifall skärmen meddelar ett frekvenspann som den inte kan reproducera. Att det är AMD:s egen kvalitetsstämpel, alltså "AMD Freesync" på det hela garanterar heller ingenting. Vi har ju haft flera tester där Freesync är oanvändbar pga flimmer, hack och eftersläp, märkliga intervall som 120–144 Hz eller vad som helst. Det är en liten överraskning varje gång man testar en skärm med "Freesync".
Eller så fungerar Freesync som väntat. Händer det med. Fast man vet inte vad man får innan någon har testat.
Detta är välkommande av flera orsaker:
Nvidias G-Sync-modul har endast en Displayport samt en HDMI-anslutning som är mopedstrypt till 60 Hz. Enormt störande för den som har flera källor och flera datorer
VESA Adaptive är ändå en öppen standard och som beskrivet ovan, mycket, mycket mer tillgängligt. Därför kommer utbudet av skärmar som fungerar med adaptiv synk ihop med Nvidia-kort att bli mycket större. Detta gynnar alla.
AMD har med sin "Freesync"-stämpel misslyckats helt med att garantera kvalitet på funktionen.
Det finns här en rätt stor portion ironi i och med att listan över skärmar som har en fungerande "Freesync" faktiskt kommer från Nvidia.
Vet du om det finns någon bra teknisk anledning att Nvidia inte kunde tillverka sina egna G-sync-moduler men ändå använda VESA Adaptive Sync-protokollet för kommunikation med G-sync-modulen och grafikkortet? Då kunde Nvidia tjänat pengar på certifiering men ändå tillåtit att bildskärmarna fungerat med konkurrentens kort.
Som det ser ut så verkar det ju ändå som att Nvidia gör vettiga grejer med G-sync, bara att de låser in åtkomst till dem helt i onödan.