Skrivet av blunden:
Det är minst lika troligt att de känner sig tvungna att göra det då Intel kommer att ha stöd för FreeSync/VESA Adaptive Sync. Då blir Nvidia de enda som inte har det, vilket inte ser så bra ut.
Att de behöver ha det tror jag säkert. De behöver dock inte marknadsföra det som G-sync, de hade kunnat bara kalla det "Adaptive sync" eller vad som helst.
Citat:
Nej, "med all sannolikhet" känns fel att säga när du bara spekulerar fritt utan att underbygga det på något sätt. Som redan nämnts fortsätter Nvidia att inte bara lägga pengar på att fortsätta underhålla stödet för G-Sync, de lägger vad som troligen är hyfsat stora summor på att vidareutveckla tekniken. Jag tvivlar starkt på att de skulle göra det om planen vore att sakta men säkert fasa ut G-Sync.
Det är skillnad på hårdvaran och marknadsföringen. Marknadsföringen är uppenbarligen inte avslutad. Den gamla hårdvarulösningen - att sälja en FPGA-krets att hänga på förutom den vanliga display-controllern - tror jag är stendöd. Gör de något nytt så är det i form av en egen display-controller. Gör de det på det sättet har jag svårt att se att det rent tekniskt kommer att ha något med den gamla lösningen att göra. Kommer de i det läget att låsa sin display-controller så att den bara stöder Adaptive Sync med Nvidia-GPUer? Det vore i så fall inte bra, men vad jag vet har de inte sagt något sådant. Om HDR-funktionerna inte fungerar är en annan sak, där är standarderna inte riktigt framme än så NVidia kan få gå före med sin lösning om de vill.
Citat:
Uhm, nej det gör den inte. Det faktum att så få skärmar levde upp till Nvidias krav för G-Sync Compatible är snarare bevis för motsatsen.
Du menar det där legendariska att de hade testat 400 skärmar och godkänt 12, medan det var 150 kvar att testa? Jag har nämnt det här i annan tråd tidigare, men...
När NVidia sa det fanns det 568 skärmar på AMDs lista över Freesync-skärmar - ganska nära de där 400 testade plus 150 kvar att testa, eller hur? Av dessa har 68 st bara Freesync över HDMI, vilket inte är någon standard och NVidia därför inte stöder. Av de 500 som återstår (Display+HDMI eller bara DisplayPort) har 263 ett frekvens-spann som är under 1:2.4, det minsta som NVidia stöder (AMD stöder vilket spann som helst och kör frame doubling hela vägen ner till 1:2.0, åtminstone för Vega). Alltså blir det 237 skärmar kvar. Om Nvidia säger sig ha testat 400 skärmar och har 150 kvar, måste de alltså ha testat skärmar som faller på något av de två kriterierna ovan - närmare bestämt måste c:a 80% av vad de "testat" vara skärmar där det hade räckt att läsa specen för att inse att det inte skulle fungera. Undrar speciellt hur de testade alla skärmar som bara har HDMI och ingen DisplayPort - "nähä, sladden passade inte i porten här heller, det blir underkänt på den"?
(Eftersom Nvidia inte godkänt någon VA-skärm, tror jag att hela deras testning bestod i att läsa specar och stryka alla som bara körde HDMI, hade ett för litet spann på uppdateringsfrekvensen eller var VA. Bland de som var kvar - 126 stycken - valde de ut ett lagom antal för att sälja in idén att deras krav var så höga. Men det där är en gissning, det skulle kunna vara så att de verkligen testat ett 70-tal skärmar och fått fram 12. De kan dock inte rimligen ha testat 400 skärmar om de har 150 kvar, om du inte inkluderar HDMI-skärmarna i vad de testat, så det är en sanning med mycket modifikation att säga det i vilket fall som helst).
Citat:
Fördelen för G-Sync förblir densamma då det fortfarande inte finns någon vettig kvalitetsstämpel för FreeSync-skärmar.
Freesync 2 är det, men egentligen är jag inte så intresserad av något sådant. Man kan snabbt grovsortera genom att bara titta på spannet i uppdateringsfrekvens, och sedan läsa recensioner.
Citat:
Full disclosure: Jag har en G-Sync-skärm som kan ses i signaturen (köpte den begagnad dock så har inte betalt lika mycket som många andra för den). Gör det att jag är partisk? Det är möjligt, men jag försöker ändå att analysera det så objektivt som möjligt. Önskar jag att FreeSync vore lika bra och det därmed vore onödigt att betala extra för den bästa upplevelsen? Hemskt gärna! Vi är dock inte där än och jag tror att det lär dröja ett bra tag tills vi är det, om det ens går.
Min inställning i frågan är i princip att tekniken att använda en extern FPGA (G-sync) inte är ett dugg bättre än att göra det i display-controllern (standarden Adaptive Sync) - det är bara dyrare. Däremot gör priset att G-sync bara finns där på skärmar som är avsedda att spela på, medan Adaptive Sync finns överallt. På det sättet var märket G-sync en indikation på att "det här är en spelskärm", medan Freesync inte var det. På så sätt kommer G-sync att fortsätta som märke, även om tekniken under förändras. Lite som att iMacen en gång hade PowerPC-processorer, idag har x86 och imorgon kanske ARM.
Om Nvidia vill fortsätta marknadsföra skärmar som G-sync som ett tecken på att de är spelskärmar så är väl det bra. Om de tänker göra fler skärmar som inte fungerar med AMD-kort så är det ett problem, men den dagen den sorgen.
(Om vi nu skall deklarera vad vi har, så har min skärm Freesync. Det var dock inget jag brydde mig om när jag köpte den - vet inte om jag ens visste det någonsin, men jag hade absolut glömt det när den kom. Det fanns inga G-sync-skärmar att köpa med de specarna jag ville ha vid det tillfället - vet inte om det finns idag - så jag hade inte kunnat köpa någon G-sync skärm ens om jag varit intresserad)