Permalänk
Medlem
Skrivet av mfm:

Fast FreeSync är inte lika bra som G-sync i dagens läge, så din förutsättning stämmer inte.

Hur vet du det samt i vilket väsentligt är Freesync sämre än GSync? Och då talar jag inte om implementationen i enstaka produkter. Kan inte påstå att jag själv är direkt insatt i detta men sett till att NVidia kunde införa stöd för FreeSync bara genom en drivrutinsuppdatering antyder för mig att skillnaderna mellan dom är små och att det tidigare snarare handlat om att NVidia blockerat möjligheten. Även nu lär dom ju inte direkt anstränga sig för att FreeSync ska fungera bättre med deras GPUer än vad GSync gör, lite som att man kan köra Windows på en Mac men Apple inte direkt satsar allt på att göra det till en optimal upplevelse.

Permalänk
Medlem

@Laxpudding: Det är förvisso sant men iom att diskussionen iaf delvis handlar om framtiden för respektive teknologi så känns frågeställningen i sig relevant. Är din uppfattning att GSync i väsentliga delar är bättre än FreeSync så att det totalt sett skulle vara en försämring om NVidia bestämde sig för att helt skippa GSync till förmån för den öppna standarden FreeSync? I min värld har GSync primärt handlat om att stänga in kunder i en "NVidia only" värld snarare än att det skulle vara så mycket bättre än Freesync (i dagsläget). Att den nya GSync modulen dessutom tycks kräva en, enligt rapporterna, rätt så irriterande fläkt gör inte det hela mer lockande.

Kan väl för övrigt tillägga att jag själv är all-in på NVidia, primärt för att deras GPUer fortfarande är i särklass bäst gällane prestanda och att jag sen inte velat chansa gällande VRR teknologin (samt så klart att det helt enkelt inte funkade med Freesync på NVidia kort fram till för några månader sedan, iaf inte utan en massa hack).

Permalänk
Medlem

ja....

Hej där TS. Har ej läst igenom hela tråden då jag inte tycker det spelar så stor roll vad andra tycker - antar att du vill ha enskilda svar.

Jag köpte en G-sync skärm ENDAST för att jag nästan alltid kört Nvidia och jag kommer aldrig sluta.
De spelan jag spelar (PUBG/APEX/CS) gör sig riktigt fint....

Jag tycker att priserna på gsync-skärmarna är åt h*lvete för dyra - men när jag sitter och spelar så är jag mycket nöjd över mitt val.

Ett tag funderade jag på att bygga nytt (håller på att bygga semi-nytt till tjejen så hon också kan spela riktiga spel och inte bara minecraft "förlåt"). Det var nära att jag gick AMD vägen.. billiga processorer; billiga grafikkort och sen billiga skärmar med free-sync...
Har byggt mina egna burkar nu i över 18 år och en gång så blev det amd... en black phenom.. köpte även ett värsting gfx-kort på den tiden Radeon nånting nånting ... men det var första och sista gången.

Stabiliteten och vetskapen om att ha bra saker känns bra. Man är alltid lite osäker med AMD...tyvärr.. Men är man en väldigt ekonomiskt lagd person så finns det ju bara ett val- AMD...

Så vem är du ?

Mvh

Felskrivning
Permalänk
Medlem
Skrivet av pv2b:

Om vi tittar på två skärmar med exakt samma egenskaper och som är lika bra så borde alltså G-syncskärmen rent värdemässigt vara billigare, eftersom inlåsningen tar bort en del av värdet.

Varför skall den vara billigare när den har en extra funktion? Du kan ju fortfarande anv. skärmen med icke Nvidia-kort, dock inte den extra funktionen e.g. g-sync.

Visa signatur

Ryzen 5600x (Noctua NH-D15) || Kingston Fury 32GB 3600MHz
ASUS Prime X470 PRO || ASUS GeForce RTX 3080 Tuf OC
Fractal Design Define S (6x chassifläktar) || Corsair RM750X v2
FURY Renegade 2TB || WD Blue 1TB M.2 || LG C2 42" + XB271HUA

Permalänk
Hedersmedlem
Skrivet av frong:

Varför skall den vara billigare när den har en extra funktion? Du kan ju fortfarande anv. skärmen med icke Nvidia-kort, dock inte den extra funktionen e.g. g-sync.

Jag kanske uttryckte mig lite otydligt.

En bildskärm med G-sync är värd mindre än en bildskärm med FreeSync, eftersom man blir inlåst till Nvidia om man vill använda adaptiv synk.

En bildskärm med FreeSync kan man köra både med Nvidia och AMD, och även snart med Intel-grafikkort. Alltså är det, givet att bildskärmen annars är likadan, bättre.

En bildskärm med G-sync är dock så klart värd mer än en bildskärm som inte har någon teknik för adaptiv synk alls, vilket är vad du skriver, men inte det jag menade.

Permalänk
Bildexpert 📺
Skrivet av improwise:

Är din uppfattning att GSync i väsentliga delar är bättre än FreeSync så att det totalt sett skulle vara en försämring om NVidia bestämde sig för att helt skippa GSync till förmån för den öppna standarden FreeSync?

Freesync är inte en öppen standard. Det är ett registrerat varumärke från AMD.

(1) VESA Adaptive Sync är en öppen standard. Syftet med denna teknik var inte adaptiv synk så som vi använder det i spel utan är en metod för att dynamisk kunna ändra frekvenser på mobila enheter i syfte att spara energi utan att behöva synkronisera om signalen och att strypa signalen under omsynk.

(2) Nvidia valde en proprietär lösning de kallar "Nvidia G-Sync (TM)" för adaptiv synk.

(3) AMD svarade med att skapa "AMD Freesync (TM)", mer specifikt "AMD Radeon Freesync (TM)" som bygger på den öppna standard som finns i VESA Adaptive Sync. Men det är fortfarande AMD som styr över "Freesync (TM)".

(4) Och från januari 2019 anammade Nvidia till slut VESA Adaptive Sync under namnet "G-Sync Compatible". Fortfarande ett registrerat varumärke.

Nu är ju "Freesync" ett mycket roligare namn än "VESA Adaptive Sync" som skulle kunna vara namnet på en könssjukdom. Så Freesync-beskrivningen lär leva kvar länge till. Alla fattar ju vad det handlar om.

Och ja, som jag skrivit så många gånger nu. Produkter som bygger på VESA Adaptive Sync (oavsett om det kallas "AMD Freesync" eller just "VESA Adaptive Sync") har varit allt från så gott som oanvändbara till fullt funktionella. Produkter som bygger på G-Sync har hittills av de jag sett varit konsekventa i hur de fungerar och hur de beter sig.

Permalänk

Asus ROG Swift PG278QR den då? 5490 på webhallen nu

eller ska man undvika TN ?

Permalänk
Bildexpert 📺
Skrivet av pv2b:

En bildskärm med G-sync är värd mindre än en bildskärm med FreeSync, eftersom man blir inlåst till Nvidia om man vill använda adaptiv synk.

Det där är ett sätt att resonera som i praktiken inte fungerar. Det riskerar sluta med att dåliga beslut fattas. Man måste alltid avgöra kvaliteten på produktnivå.

En produkt med uselt fungerande ”AMD Freesync”, exempelvis Samsung C32GH70 som smetar och flimrar vid adaptiv sync, är inte på något sätt mer värt en G-Syncskärm för dig som strävar efter adaptiv synk. Den kommer fortfarande flimra och smeta lika mycket oavsett om du använder GPU från Nvidia, AMD eller Intel.

Ifall produkten använder ”AMD Freesync” och den är i praktiskt hänseende snarlik med motsvarande G-Syncprodukt, exempelvis LG:s 34GK950-modeller (48–144 Hz eller 30–120 Hz med bättre kontroll över eftersläp) så kan man börja resonera i dessa termer.

Men sådana beslut kan man endast fatta efter kännedom om produkterna.

Permalänk
Bildexpert 📺
Skrivet av Cityfella:

eller ska man undvika TN ?

Eller så ska du välja TN på en spelskärm ifall du har krav på minsta möjliga eftersläpsnivåer som prioritet #1.

Permalänk
Medlem
Skrivet av Laxpudding:

Freesync är inte en öppen standard. Det är ett registrerat varumärke från AMD.

(1) VESA Adaptive Sync är en öppen standard. Syftet med denna teknik var inte adaptiv synk så som vi använder det i spel utan är en metod för att dynamisk kunna ändra frekvenser på mobila enheter i syfte att spara energi utan att behöva synkronisera om signalen och att strypa signalen under omsynk.

(2) Nvidia valde en proprietär lösning de kallar "Nvidia G-Sync (TM)" för adaptiv synk.

(3) AMD svarade med att skapa "AMD Freesync (TM)", mer specifikt "AMD Radeon Freesync (TM)" som bygger på den öppna standard som finns i VESA Adaptive Sync. Men det är fortfarande AMD som styr över "Freesync (TM)".

(4) Och från januari 2019 anammade Nvidia till slut VESA Adaptive Sync under namnet "G-Sync Compatible". Fortfarande ett registrerat varumärke.

Nu är ju "Freesync" ett mycket roligare namn än "VESA Adaptive Sync" som skulle kunna vara namnet på en könssjukdom. Så Freesync-beskrivningen lär leva kvar länge till. Alla fattar ju vad det handlar om.

Och ja, som jag skrivit så många gånger nu. Produkter som bygger på VESA Adaptive Sync (oavsett om det kallas "AMD Freesync" eller just "VESA Adaptive Sync") har varit allt från så gott som oanvändbara till fullt funktionella. Produkter som bygger på G-Sync har hittills av de jag sett varit konsekventa i hur de fungerar och hur de beter sig.

Tack för ett bra svar. FreeSync är väl dock gratis att implementera till skillnad från GSync som väl kostar en slant. Dock ingår väl modulen i det också då men har svårt att avgöra i vilken mån den är "överprisad" eller inte. Som jag förstått det så är även NVidias process för att något ska få bli GSync också lite tightare vilket jag antar förklarar varför Freesync i praktiken ofta är lite mer hit and miss än GSync. Men om det sen innebär att det måste vara så eller om det är implementationen som är för dålig är mer än jag vet.

Hur ser det ut mellan antalet skärmar som faktiskt är Freesync och som "bara" är VESA Adaptive Sync? Dvs i vilkenk utsträckning kan man faktiskt köpa VESA Adaptive Sync som inte är just Freesync?

Permalänk
Medlem
Skrivet av blunden:

Det är minst lika troligt att de känner sig tvungna att göra det då Intel kommer att ha stöd för FreeSync/VESA Adaptive Sync. Då blir Nvidia de enda som inte har det, vilket inte ser så bra ut.

Att de behöver ha det tror jag säkert. De behöver dock inte marknadsföra det som G-sync, de hade kunnat bara kalla det "Adaptive sync" eller vad som helst.

Citat:

Nej, "med all sannolikhet" känns fel att säga när du bara spekulerar fritt utan att underbygga det på något sätt. Som redan nämnts fortsätter Nvidia att inte bara lägga pengar på att fortsätta underhålla stödet för G-Sync, de lägger vad som troligen är hyfsat stora summor på att vidareutveckla tekniken. Jag tvivlar starkt på att de skulle göra det om planen vore att sakta men säkert fasa ut G-Sync.

Det är skillnad på hårdvaran och marknadsföringen. Marknadsföringen är uppenbarligen inte avslutad. Den gamla hårdvarulösningen - att sälja en FPGA-krets att hänga på förutom den vanliga display-controllern - tror jag är stendöd. Gör de något nytt så är det i form av en egen display-controller. Gör de det på det sättet har jag svårt att se att det rent tekniskt kommer att ha något med den gamla lösningen att göra. Kommer de i det läget att låsa sin display-controller så att den bara stöder Adaptive Sync med Nvidia-GPUer? Det vore i så fall inte bra, men vad jag vet har de inte sagt något sådant. Om HDR-funktionerna inte fungerar är en annan sak, där är standarderna inte riktigt framme än så NVidia kan få gå före med sin lösning om de vill.

Citat:

Uhm, nej det gör den inte. Det faktum att så få skärmar levde upp till Nvidias krav för G-Sync Compatible är snarare bevis för motsatsen.

Du menar det där legendariska att de hade testat 400 skärmar och godkänt 12, medan det var 150 kvar att testa? Jag har nämnt det här i annan tråd tidigare, men...

När NVidia sa det fanns det 568 skärmar på AMDs lista över Freesync-skärmar - ganska nära de där 400 testade plus 150 kvar att testa, eller hur? Av dessa har 68 st bara Freesync över HDMI, vilket inte är någon standard och NVidia därför inte stöder. Av de 500 som återstår (Display+HDMI eller bara DisplayPort) har 263 ett frekvens-spann som är under 1:2.4, det minsta som NVidia stöder (AMD stöder vilket spann som helst och kör frame doubling hela vägen ner till 1:2.0, åtminstone för Vega). Alltså blir det 237 skärmar kvar. Om Nvidia säger sig ha testat 400 skärmar och har 150 kvar, måste de alltså ha testat skärmar som faller på något av de två kriterierna ovan - närmare bestämt måste c:a 80% av vad de "testat" vara skärmar där det hade räckt att läsa specen för att inse att det inte skulle fungera. Undrar speciellt hur de testade alla skärmar som bara har HDMI och ingen DisplayPort - "nähä, sladden passade inte i porten här heller, det blir underkänt på den"?

(Eftersom Nvidia inte godkänt någon VA-skärm, tror jag att hela deras testning bestod i att läsa specar och stryka alla som bara körde HDMI, hade ett för litet spann på uppdateringsfrekvensen eller var VA. Bland de som var kvar - 126 stycken - valde de ut ett lagom antal för att sälja in idén att deras krav var så höga. Men det där är en gissning, det skulle kunna vara så att de verkligen testat ett 70-tal skärmar och fått fram 12. De kan dock inte rimligen ha testat 400 skärmar om de har 150 kvar, om du inte inkluderar HDMI-skärmarna i vad de testat, så det är en sanning med mycket modifikation att säga det i vilket fall som helst).

Citat:

Fördelen för G-Sync förblir densamma då det fortfarande inte finns någon vettig kvalitetsstämpel för FreeSync-skärmar.

Freesync 2 är det, men egentligen är jag inte så intresserad av något sådant. Man kan snabbt grovsortera genom att bara titta på spannet i uppdateringsfrekvens, och sedan läsa recensioner.

Citat:

Full disclosure: Jag har en G-Sync-skärm som kan ses i signaturen (köpte den begagnad dock så har inte betalt lika mycket som många andra för den). Gör det att jag är partisk? Det är möjligt, men jag försöker ändå att analysera det så objektivt som möjligt. Önskar jag att FreeSync vore lika bra och det därmed vore onödigt att betala extra för den bästa upplevelsen? Hemskt gärna! Vi är dock inte där än och jag tror att det lär dröja ett bra tag tills vi är det, om det ens går.

Min inställning i frågan är i princip att tekniken att använda en extern FPGA (G-sync) inte är ett dugg bättre än att göra det i display-controllern (standarden Adaptive Sync) - det är bara dyrare. Däremot gör priset att G-sync bara finns där på skärmar som är avsedda att spela på, medan Adaptive Sync finns överallt. På det sättet var märket G-sync en indikation på att "det här är en spelskärm", medan Freesync inte var det. På så sätt kommer G-sync att fortsätta som märke, även om tekniken under förändras. Lite som att iMacen en gång hade PowerPC-processorer, idag har x86 och imorgon kanske ARM.

Om Nvidia vill fortsätta marknadsföra skärmar som G-sync som ett tecken på att de är spelskärmar så är väl det bra. Om de tänker göra fler skärmar som inte fungerar med AMD-kort så är det ett problem, men den dagen den sorgen.

(Om vi nu skall deklarera vad vi har, så har min skärm Freesync. Det var dock inget jag brydde mig om när jag köpte den - vet inte om jag ens visste det någonsin, men jag hade absolut glömt det när den kom. Det fanns inga G-sync-skärmar att köpa med de specarna jag ville ha vid det tillfället - vet inte om det finns idag - så jag hade inte kunnat köpa någon G-sync skärm ens om jag varit intresserad)

Visa signatur

5900X | 6700XT

Permalänk
Hedersmedlem
Skrivet av Laxpudding:

Det där är ett sätt att resonera som i praktiken inte fungerar. Det riskerar sluta med att dåliga beslut fattas. Man måste alltid avgöra kvaliteten på produktnivå.

En produkt med uselt fungerande ”AMD Freesync”, exempelvis Samsung C32GH70 som smetar och flimrar vid adaptiv sync, är inte på något sätt mer värt en G-Syncskärm för dig som strävar efter adaptiv synk. Den kommer fortfarande flimra och smeta lika mycket oavsett om du använder GPU från Nvidia, AMD eller Intel.

Ifall produkten använder ”AMD Freesync” och den är i praktiskt hänseende snarlik med motsvarande G-Syncprodukt, exempelvis LG:s 34GK950-modeller (48–144 Hz eller 30–120 Hz med bättre kontroll över eftersläp) så kan man börja resonera i dessa termer.

Men sådana beslut kan man endast fatta efter kännedom om produkterna.

Absolut. Det jag menar är att om båda produkterna i alla andra hänseenden är lika så är G-sync något som drar ner värdet jämfört med FreeSync. Nu är det precis som du själv vet inte i praktiken så att det finns två exakt likadana produkter med G-sync eller FreeSync, däremot kan det vara så att man tittar på två bildskärmar som båda är skärmar som man kan tänka sig köpa. De kan alltså vara "lika nog" att vara jämförbara utifrån ens egna individuella kriterier. Då kan G-sync vs FreeSync vara en utslagsfaktor, och G-sync är enligt mig något som borde motivera ett lägre pris än FreeSync, snarare än tvärtom.

Givet så klart att den hypotetiska FreeSync-skärmen är vettig. Det finns faktiskt bra FreeSync-skärmar också.

Men självklart ska man helst inte köpa en dålig skärm med FreeSync istället för en bra skärm med G-sync. Men ännu hellre en bra skärm med FreeSync.

Sedan är det ju synd att det finns en massa dåliga FreeSync-skärmar. Det är tyvärr baksidan av en öppen standard.

Permalänk
Bildexpert 📺
Skrivet av improwise:

FreeSync är väl dock gratis att implementera till skillnad från GSync som väl kostar en slant. Dock ingår väl modulen i det också då men har svårt att avgöra i vilken mån den är "överprisad" eller inte. Som jag förstått det så är även NVidias process för att något ska få bli GSync också lite tightare vilket jag antar förklarar varför Freesync i praktiken ofta är lite mer hit and miss än GSync.

Jag har gått igenom det i denna artikel: https://www.sweclockers.com/artikel/26863

En G-syncskärm är i princip en Nvidia-skärm. Du kan inte skapa en G-Syncprodukt utan att Nvidia är inblandade och nästan gör jobbet åt dig med hur modulen programmeras efter panelens egenskaper för exempelvis variabel overdrive.

En AMD Freesync-skärm är fortfarande inte "gratis". Tekniken är licensfri. Men någonstans måste AMD rimligtvis ta betalt för att de certifierar eller "certifierar" produkter och tillåter användning av "AMD Freesync"-varumärket. Med tanke på hur det ser ut med riktigt uselt fungerande Freesync-produkter kan man ifrågasätta vad denna certifiering går ut på. Vilket vi gjort och alltså inte får svar på.

Skrivet av improwise:

Hur ser det ut mellan antalet skärmar som faktiskt är Freesync och som "bara" är VESA Adaptive Sync? Dvs i vilkenk utsträckning kan man faktiskt köpa VESA Adaptive Sync som inte är just Freesync?

Ingen aning eftersom VESA Adaptive och AMD Freesync blandas samman som ett på exempelvis Prisjakt. Jag utgår från vilka logotyper som sitter på kartongen. Men detta är inte alltid uppenbart. Skärmar kan ha VESA Adaptive Sync som funktion utan att det står något på kartongen, hemsidan eller handboken. Men den finns där därför att funktionen är inbyggd i den generiska systemkrets som driver skärmen.

Permalänk
Medlem

@Wezzor: Om ngt händer så köper man en ny skärm eller kompletterar med en annan skärm.
Din befintliga kommer ju inte gå sönder om det nu mot all förmodan skulle vara så att en standard för adaptiv synk skulle "försvinna".
Lite som att vara orolig för att kontakttypen på skärmen skulle försvinna om ett par år...

Vi snackar inte ett par millar i pengar utan det ett par tusingar för en ny skärm.
Jag har nvidia och köpte G-sync och valde just den skärmen jag har pga panelen.

Visa signatur

WS: R7 5800X, 32GB, Suprim X 3080, Acer X38P+Acer XB271HU
FS: HPE ML110 Gen10 Xeon Silver, Qnap TS-h973AX ~100TB
NW: Fortigate, Ruckus, Zyxel XS1930HP 10Gb

Permalänk
Medlem
Skrivet av pv2b:

Jag kanske uttryckte mig lite otydligt.

En bildskärm med G-sync är värd mindre än en bildskärm med FreeSync, eftersom man blir inlåst till Nvidia om man vill använda adaptiv synk.

En bildskärm med FreeSync kan man köra både med Nvidia och AMD, och även snart med Intel-grafikkort. Alltså är det, givet att bildskärmen annars är likadan, bättre.

En bildskärm med G-sync är dock så klart värd mer än en bildskärm som inte har någon teknik för adaptiv synk alls, vilket är vad du skriver, men inte det jag menade.

Jaha, då är jag med!

Visa signatur

Ryzen 5600x (Noctua NH-D15) || Kingston Fury 32GB 3600MHz
ASUS Prime X470 PRO || ASUS GeForce RTX 3080 Tuf OC
Fractal Design Define S (6x chassifläktar) || Corsair RM750X v2
FURY Renegade 2TB || WD Blue 1TB M.2 || LG C2 42" + XB271HUA

Permalänk
Bildexpert 📺
Skrivet av mpat:

Min inställning i frågan är i princip att tekniken att använda en extern FPGA (G-sync) inte är ett dugg bättre än att göra det i display-controllern (standarden Adaptive Sync) - det är bara dyrare.

G-Syncmodulens FPGA är display-controllern/scalern. Det är inte mer externt än något annat.

Dyrare ja - det är den etablerade nackdelen med FPGA:er vs. generiska systemkretsar. Precis som den etablerade fördelen är att med en FPGA kan du programmera om kretsen efter behov. Vilket är hela poängen med en FPGA till att börja med. Och varför Nvidia har valt just FPGA. Och vad praxis också visar när produkterna jämförs. För att nå samma kontroll över panelen som Nvidia får med sin FPGA är att skapa separata systemkretsar där det går en kretsmodell för varje LCD-panelmodell.

Att Nvidia skulle välja FPGA för att kunna ta mer betalt/högre priser faller på sin egen rimlighet, särskilt med FPGA:n i 4K/144-skärmarna (Asus PG27UQ m.fl) som normalt kostar mer än vad skärmarna gör. Hade Nvidia enbart varit ute efter att dra in mer stålar hade de tagit en generisk systemkrets de med. En sundare strategi om man vill dra in stålar är att minimera sina egna kostnader – inte att öka dem.

Permalänk
Bildexpert 📺
Skrivet av pv2b:

Sedan är det ju synd att det finns en massa dåliga FreeSync-skärmar. Det är tyvärr baksidan av en öppen standard.

Precis! Men också varför det är viktigt att skilja på G-sync vs. Freesync och produkt vs. produkt. För det är ju här jämförelsen vacklar när praktiken är över hela kartan hur väl det fungerar.

Permalänk
Medlem
Skrivet av mpat:

Att de behöver ha det tror jag säkert. De behöver dock inte marknadsföra det som G-sync, de hade kunnat bara kalla det "Adaptive sync" eller vad som helst.

Genom att marknadsföra det som G-Sync Compatible kan de skapa en stämpel som som har mervärde och som skärm-tillverkare kanske till och med skulle vilja betala för i form av en certifiering. FreeSync kunde ha varit den kvalitetsstämpeln men tyvärr har AMD förmodligen inte tillräckligt med pengar för att kunna lägga den tiden som behövs på det.

Skrivet av mpat:

Det är skillnad på hårdvaran och marknadsföringen. Marknadsföringen är uppenbarligen inte avslutad. Den gamla hårdvarulösningen - att sälja en FPGA-krets att hänga på förutom den vanliga display-controllern - tror jag är stendöd. Gör de något nytt så är det i form av en egen display-controller. Gör de det på det sättet har jag svårt att se att det rent tekniskt kommer att ha något med den gamla lösningen att göra. Kommer de i det läget att låsa sin display-controller så att den bara stöder Adaptive Sync med Nvidia-GPUer? Det vore i så fall inte bra, men vad jag vet har de inte sagt något sådant. Om HDR-funktionerna inte fungerar är en annan sak, där är standarderna inte riktigt framme än så NVidia kan få gå före med sin lösning om de vill.

Se inlägget för @Laxpudding nedan. Du verkar ha missuppfattat vilken komponent G-Sync-modulen ersätter och varför de använder en FPGA.

Skrivet av mpat:

Du menar det där legendariska att de hade testat 400 skärmar och godkänt 12, medan det var 150 kvar att testa? Jag har nämnt det här i annan tråd tidigare, men...

När NVidia sa det fanns det 568 skärmar på AMDs lista över Freesync-skärmar - ganska nära de där 400 testade plus 150 kvar att testa, eller hur? Av dessa har 68 st bara Freesync över HDMI, vilket inte är någon standard och NVidia därför inte stöder. Av de 500 som återstår (Display+HDMI eller bara DisplayPort) har 263 ett frekvens-spann som är under 1:2.4, det minsta som NVidia stöder (AMD stöder vilket spann som helst och kör frame doubling hela vägen ner till 1:2.0, åtminstone för Vega). Alltså blir det 237 skärmar kvar. Om Nvidia säger sig ha testat 400 skärmar och har 150 kvar, måste de alltså ha testat skärmar som faller på något av de två kriterierna ovan - närmare bestämt måste c:a 80% av vad de "testat" vara skärmar där det hade räckt att läsa specen för att inse att det inte skulle fungera. Undrar speciellt hur de testade alla skärmar som bara har HDMI och ingen DisplayPort - "nähä, sladden passade inte i porten här heller, det blir underkänt på den"?

(Eftersom Nvidia inte godkänt någon VA-skärm, tror jag att hela deras testning bestod i att läsa specar och stryka alla som bara körde HDMI, hade ett för litet spann på uppdateringsfrekvensen eller var VA. Bland de som var kvar - 126 stycken - valde de ut ett lagom antal för att sälja in idén att deras krav var så höga. Men det där är en gissning, det skulle kunna vara så att de verkligen testat ett 70-tal skärmar och fått fram 12. De kan dock inte rimligen ha testat 400 skärmar om de har 150 kvar, om du inte inkluderar HDMI-skärmarna i vad de testat, så det är en sanning med mycket modifikation att säga det i vilket fall som helst).

Jag tror också att de till stor del direkt kunde diskvalificera majoriteten av skärmarna de inkluderade i siffran de nämnde. Ser dock inget fel i det nödvändigtvis då även recensioner visat gång på gång hur undermålig FreeSync-funktionaliteten tyvärr är på många skärmar. Att de skippar skärmar som inte följer VESA Adaptive Sync-standarden, åtminstone i ett första skede, är också förståeligt, även om de absolut kunde få vara tydligare med att det var anledningen.

Om det stämmer att de inte testat någon skärm med en VA-panel är det absolut en intressant detalj som borde grävas djupare i. Det förändrar dock inte det faktum att massor av skärmar har en undermålig implementation av adaptiv synk med problem så uppenbara att vem som helst skulle upptäcka dem efter lite lättare QC-tester.

Skrivet av mpat:

Freesync 2 är det, men egentligen är jag inte så intresserad av något sådant. Man kan snabbt grovsortera genom att bara titta på spannet i uppdateringsfrekvens, och sedan läsa recensioner.

Förutom att även FreeSync 2-skärmar har massor av uppenbara problem så att kalla det en kvalitetsstämpel blir nästan larvigt. Det var dock mycket riktigt tänkt att vara just en sådan stämpel som jag förstår det.

Håller helt med om att man kan sortera bort många skärmar ganska snabbt och sedan ta hjälp av recensioner. Det förändrar dock inte det faktum att G-Sync i princip alltid levererar vad man förväntar sig, precis som man förväntar sig av en kvalitetsstämpel.

Skrivet av mpat:

Min inställning i frågan är i princip att tekniken att använda en extern FPGA (G-sync) inte är ett dugg bättre än att göra det i display-controllern (standarden Adaptive Sync) - det är bara dyrare. Däremot gör priset att G-sync bara finns där på skärmar som är avsedda att spela på, medan Adaptive Sync finns överallt. På det sättet var märket G-sync en indikation på att "det här är en spelskärm", medan Freesync inte var det. På så sätt kommer G-sync att fortsätta som märke, även om tekniken under förändras. Lite som att iMacen en gång hade PowerPC-processorer, idag har x86 och imorgon kanske ARM.

Du verkar som sagt ha missuppfattat varför en FPGA används. Se senare inlägg från @Laxpudding.

Skrivet av mpat:

Om Nvidia vill fortsätta marknadsföra skärmar som G-sync som ett tecken på att de är spelskärmar så är väl det bra. Om de tänker göra fler skärmar som inte fungerar med AMD-kort så är det ett problem, men den dagen den sorgen.

Det vet vi redan att de kommer att göra då de presenterade uppdaterade G-Sync-moduler nyligen.

Skrivet av mpat:

(Om vi nu skall deklarera vad vi har, så har min skärm Freesync. Det var dock inget jag brydde mig om när jag köpte den - vet inte om jag ens visste det någonsin, men jag hade absolut glömt det när den kom. Det fanns inga G-sync-skärmar att köpa med de specarna jag ville ha vid det tillfället - vet inte om det finns idag - så jag hade inte kunnat köpa någon G-sync skärm ens om jag varit intresserad)

Jag skrev bara den biten för att undvika att det senare skulle användas som motivering till att bortse från det jag skrivit.

Visa signatur

Antec P280 | Corsair RM750x | ASUS ROG Crosshair VIII Dark Hero | Ryzen 9 5900X | G.Skill Trident Z RGB 3200MHz CL14 @3600MHz CL16 2x16GB | ASUS RTX 3080 TUF OC | WD SN850 1TB | Samsung 970 Pro 1TB | Samsung 860 Pro 1TB | Samsung 850 Pro 1TB | Samsung PM863a 3.84TB | Sound Blaster Z | 2x ASUS PG279Q

Permalänk
Medlem
Skrivet av Laxpudding:

Att Nvidia skulle välja FPGA för att kunna ta mer betalt/högre priser faller på sin egen rimlighet, särskilt med FPGA:n i 4K/144-skärmarna (Asus PG27UQ m.fl) som normalt kostar mer än vad skärmarna gör. Hade Nvidia enbart varit ute efter att dra in mer stålar hade de tagit en generisk systemkrets de med. En sundare strategi om man vill dra in stålar är att minimera sina egna kostnader – inte att öka dem.

Nej, det har jag inte skrivit heller. Jag antog att NVidia gjorde en FPGA för att de räknade med att volymerna skulle vara för små för att utveckla en egen controller i första generationen (testkostnaden för ett chip på en modern process närmar sig det absurda). Menar du att det finns något i vad de gör som kräver en FPGA av prestandaskäl?

Visa signatur

5900X | 6700XT

Permalänk
Medlem

ok om du vill betala för G-sync men se till att skärmen stödjer VESA Adaptive Sync. så du inte blir beroende av nvidia vid köp av grafikkort.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av blunden:

Genom att marknadsföra det som G-Sync Compatible kan de skapa en stämpel som som har mervärde och som skärm-tillverkare kanske till och med skulle vilja betala för i form av en certifiering. FreeSync kunde ha varit den kvalitetsstämpeln men tyvärr har AMD förmodligen inte tillräckligt med pengar för att kunna lägga den tiden som behövs på det.

Men de kunde kalla den något annat. Strunt samma, jag tror inte att vi kommer längre i den här diskussionen.

Citat:

Se inlägget för @Laxpudding nedan. Du verkar ha missuppfattat vilken komponent G-Sync-modulen ersätter och varför de använder en FPGA.

Såg hans inlägg, och vi har nog missförstått varandra (jag har absolut inte sagt att NVidia drev upp sina egna kostnader), men vi får se vad han svarar. Min tolkning var att de körde med en FPGA av volym-skäl, men om det fanns något annat skäl så vore det intressant.

Citat:

Jag tror också att de till stor del direkt kunde diskvalificera majoriteten av skärmarna de inkluderade i siffran de nämnde. Ser dock inget fel i det nödvändigtvis då även recensioner visat gång på gång hur undermålig FreeSync-funktionaliteten tyvärr är på många skärmar. Att de skippar skärmar som inte följer VESA Adaptive Sync-standarden, åtminstone i ett första skede, är också förståeligt, även om de absolut kunde få vara tydligare med att det var anledningen.

Om det stämmer att de inte testat någon skärm med en VA-panel är det absolut en intressant detalj som borde grävas djupare i. Det förändrar dock inte det faktum att massor av skärmar har en undermålig implementation av adaptiv synk med problem så uppenbara att vem som helst skulle upptäcka dem efter lite lättare QC-tester.

Det jag retar mig på vad gäller NVidia är texten på sliden "400 tested | 12 passed". De skriver det eftersom de vet att det är det som kommer att citeras, och just specifikt den biten kan omöjligen vara sann. Men men, det är väl en dålig förlorare på marknadsavdelningen som skrivit det.

Det andra är reaktionen att att en skärm som har ett för litet intervall för adaptiv synk är värdelös. Min skärm, som jag nämnde tidigare har Freesync, har det med intervallet 40-60Hz (4K). Det är inget annat fel på synken, några blinkningar eller så. Denna funktion gör att jag kan ställa in spelen så att frameraten håller sig över 40 i värsta läget. Utan den funktionen hade jag behövt ställa in samma spel så att frameraten var minst 60 (och sen köra Vsync) för att få samma upplevelse. Jag får alltså 50% mer ögongodis, så att säga, för en total kostnad av 0 kr. Om jag skulle lösa det utan Adaptive Sync - dvs få fram 50% högre framerate - så hade det blivit en 2080 Ti. Det hade lågt räknat varit 8000 kr dyrare, vilket är rent korkade pengar med tanke på hur lite jag spelar.

Detta är för mig den stora vinsten med Freesync. Jag köper inte en skärm för att bara på den, utan för att ha till en massa saker inklusive spel. Att jag kan få en gratis-funktion som sparar mig 8000 kr är jättebra. Om du istället vill fokusera på att ha 30-144Hz, med andra specar på skärmen (säkert lägre upplösning, med tanke på vad DP 1.2 klarar) så är det utmärkt, köp vad du vill ha - men funktionen har ett värde inom andra användningsområden än just specifikt det.

(Naturligtvis är det en falsk besparing, för jag hade aldrig lagt de pengarna på ett grafikkort, men det illustrerar poängen)

Citat:

Det vet vi redan att de kommer att göra då de presenterade uppdaterade G-Sync-moduler nyligen.

Det jag har sett om G-sync moduler är att de rebrandade G-sync HDR till G-sync Ultimate och att det skulle vara nya moduler för detta. Inga detaljer om dem.

Visa signatur

5900X | 6700XT

Permalänk
Bildexpert 📺
Skrivet av mpat:

Nej, det har jag inte skrivit heller. Jag antog att NVidia gjorde en FPGA för att de räknade med att volymerna skulle vara för små för att utveckla en egen controller i första generationen (testkostnaden för ett chip på en modern process närmar sig det absurda). Menar du att det finns något i vad de gör som kräver en FPGA av prestandaskäl?

Ah, sorry - my mistake om jag tillskrev dig en åsikt där. Syftet med FPGA är från Nvidias sida att kunna skapa en variabel overdrive för hur varje LCD-panelmodell responderar vid olika frekvens. Men det är också ungefär så mycket de säger. De har inte lämnat några djupare tekniska detaljer, utan det mesta av informationen kommer från de som har öppnat skärmarna och konstaterat att det är rätt komplex/dyr FPGA i G-Sync HDR-skärmarna: https://www.sweclockers.com/nyhet/25927

Rimligtvis bör Nvidia inom sin tid (tja, det är 6 år nu) ta fram en egen G-Sync scaler/systemkrets som kan åstadkomma samma sak.

Permalänk
Medlem
Skrivet av sesese:

ok om du vill betala för G-sync men se till att skärmen stödjer VESA Adaptive Sync. så du inte blir beroende av nvidia vid köp av grafikkort.

Finns det någon skärm på marknaden som erbjuder denna möjlighet? Med samma logik bör man ju isf även ha samma krav gällande FreeSync för att inte bli beroende av AMD vid köp av grafikkort (i dagsläget är det väl bara AMD och NVidia som erbjuder GPUer där frågan är relevant).

Permalänk
Medlem
Skrivet av mpat:

Men de kunde kalla den något annat. Strunt samma, jag tror inte att vi kommer längre i den här diskussionen.

Nej, troligen inte.

Skrivet av mpat:

Såg hans inlägg, och vi har nog missförstått varandra (jag har absolut inte sagt att NVidia drev upp sina egna kostnader), men vi får se vad han svarar. Min tolkning var att de körde med en FPGA av volym-skäl, men om det fanns något annat skäl så vore det intressant.

Det jag menade var att det lät som att du missförstod vilken funktion modulen fyllde, dvs. vilken hårdvara den ersätter.

Skrivet av mpat:

Det jag retar mig på vad gäller NVidia är texten på sliden "400 tested | 12 passed". De skriver det eftersom de vet att det är det som kommer att citeras, och just specifikt den biten kan omöjligen vara sann.

Ja, du har helt klart rätt i att de medvetet formulerat det så för att det blir enkelt att citera. "Tested" var förmodligen fel ord då det blir missvisande som du säger, vilket även det förmodligen är något det var medvetna om.

Skrivet av mpat:

Det andra är reaktionen att att en skärm som har ett för litet intervall för adaptiv synk är värdelös. Min skärm, som jag nämnde tidigare har Freesync, har det med intervallet 40-60Hz (4K). Det är inget annat fel på synken, några blinkningar eller så. Denna funktion gör att jag kan ställa in spelen så att frameraten håller sig över 40 i värsta läget. Utan den funktionen hade jag behövt ställa in samma spel så att frameraten var minst 60 (och sen köra Vsync) för att få samma upplevelse. Jag får alltså 50% mer ögongodis, så att säga, för en total kostnad av 0 kr. Om jag skulle lösa det utan Adaptive Sync - dvs få fram 50% högre framerate - så hade det blivit en 2080 Ti. Det hade lågt räknat varit 8000 kr dyrare, vilket är rent korkade pengar med tanke på hur lite jag spelar.

Detta är för mig den stora vinsten med Freesync. Jag köper inte en skärm för att bara på den, utan för att ha till en massa saker inklusive spel. Att jag kan få en gratis-funktion som sparar mig 8000 kr är jättebra. Om du istället vill fokusera på att ha 30-144Hz, med andra specar på skärmen (säkert lägre upplösning, med tanke på vad DP 1.2 klarar) så är det utmärkt, köp vad du vill ha - men funktionen har ett värde inom andra användningsområden än just specifikt det.

(Naturligtvis är det en falsk besparing, för jag hade aldrig lagt de pengarna på ett grafikkort, men det illustrerar poängen)

Anledningen till att de kräver en större adaptive sync range är att man då kan använda frame doubling för en bättre upplevelse då skärmar tenderar att fungera sämre i form av eftersläpningar etc. i låg uppdateringsfrekvens. Det är också ganska ovanligt att kunna kontrollera sin framerate inom ett så lågt intervall att man kan dra full nytta av adaptive sync.

Det är också viss skillnad på att ha en så liten range på en 4K-skärm som maximalt klarar 60 Hz (vid en upplösningen där de flesta ändå kommer ha svårt att nå högre frame rate) och en som klarar 120 Hz eller mer men trots det har en väldigt begränsad range. Det är snarare den senare typen av skärmar folk klagar på. Ett exempel är ASUS MG279Q som klarar 144 Hz men som har en FreeSync range satt till 35-90Hz (vilket förvisso är bättre än 48-75 Hz som flera skärmar haft historiskt). Nu går det visserligen ofta att ändra med med CRU men sådant fungerar inte alltid felfritt och det ska inte behövas. Det känns också lite som att man lurar konsumenten som av naturliga skäl antar att "144 Hz FreeSync monitor" innebär en skärm som kan köra FreeSync upp till 144 Hz. Range för G-Sync-modellen med liknande eller samma panel? 30-165 Hz.

Skrivet av mpat:

Det jag har sett om G-sync moduler är att de rebrandade G-sync HDR till G-sync Ultimate och att det skulle vara nya moduler för detta. Inga detaljer om dem.

Sant förvisso.

Visa signatur

Antec P280 | Corsair RM750x | ASUS ROG Crosshair VIII Dark Hero | Ryzen 9 5900X | G.Skill Trident Z RGB 3200MHz CL14 @3600MHz CL16 2x16GB | ASUS RTX 3080 TUF OC | WD SN850 1TB | Samsung 970 Pro 1TB | Samsung 860 Pro 1TB | Samsung 850 Pro 1TB | Samsung PM863a 3.84TB | Sound Blaster Z | 2x ASUS PG279Q

Permalänk
Avstängd

Vågar nog inte skriva detta.
Jag köpte en ny skärm för 3 månader sedan med G synk. Jag hm.... vad ???? ja ja detta behöver man inte he he he
Ja jag tycker detta är bara en fluga just nu. Intresset kommer inte vara stort om några år med G synk.
Man slänger pengar i sjön bara för att man vill ha detta extra. Inte värt det alls.
Den enda gång jag ser att G synk funkar så man ser det är ju den där demo klockan som de har släppt.
Oj vad de lurar er helt tycker jag. Man sitter där och tittar på denna pendel som svajar farm och tillbaka och tänker fa- vad fint.
Men i spel där du är i gång och spelar som Satan och är inne i spelet. Du kommer inte ens märka någon skillnad.
Samma med den nya tekniken som nu nvidia har kommit med nu. Inte fa- sitter du och kollar på reflekser och dyligt eller om solen lyser lite snyggare in i ett rum. Man glor efter fara så man inte blir dödad.

Ärligt talat. när jag använde min nya skärm första tiden så satt jag och tänkte. Är G synk igång he he he he

Permalänk
Medlem
Skrivet av Bananen12:

Men i spel där du är i gång och spelar som Satan och är inne i spelet. Du kommer inte ens märka någon skillnad.

Själv tycker jag att man märker en stor skillnad. Det är sååå skönt att slippa tearing samtidigt som man kan njuta av hög uppdateringsfrekvens på höga grafikinställningar utan att störa sig på variationen i frame rate.

Det är nog ganska individuellt då vissa hävdar att de inte ens ser tearing.

Visa signatur

Antec P280 | Corsair RM750x | ASUS ROG Crosshair VIII Dark Hero | Ryzen 9 5900X | G.Skill Trident Z RGB 3200MHz CL14 @3600MHz CL16 2x16GB | ASUS RTX 3080 TUF OC | WD SN850 1TB | Samsung 970 Pro 1TB | Samsung 860 Pro 1TB | Samsung 850 Pro 1TB | Samsung PM863a 3.84TB | Sound Blaster Z | 2x ASUS PG279Q

Permalänk
Medlem
Skrivet av Bananen12:

Vågar nog inte skriva detta.
Jag köpte en ny skärm för 3 månader sedan med G synk. Jag hm.... vad ???? ja ja detta behöver man inte he he he
Ja jag tycker detta är bara en fluga just nu. Intresset kommer inte vara stort om några år med G synk.
Man slänger pengar i sjön bara för att man vill ha detta extra. Inte värt det alls.
Den enda gång jag ser att G synk funkar så man ser det är ju den där demo klockan som de har släppt.
Oj vad de lurar er helt tycker jag. Man sitter där och tittar på denna pendel som svajar farm och tillbaka och tänker fa- vad fint.
Men i spel där du är i gång och spelar som Satan och är inne i spelet. Du kommer inte ens märka någon skillnad.
Samma med den nya tekniken som nu nvidia har kommit med nu. Inte fa- sitter du och kollar på reflekser och dyligt eller om solen lyser lite snyggare in i ett rum. Man glor efter fara så man inte blir dödad.

Ärligt talat. när jag använde min nya skärm första tiden så satt jag och tänkte. Är G synk igång he he he he

Om du inte märker skillnad i spel så har du fel nställningar, klena datorkomponenter som inte klarar tillräckligt med FPS för att hamna över vanliga 60Hz eller så tittar du på en stillbild.
För jag märker stor skillnad med G-sync mot min gamla. Till en början var Overwatch obehagligt för allt gick så snabbt. Men man vänjer sig, sen kan man inte spela utan det.

Så nej, det är inte en fluga.

Permalänk
Avstängd
Skrivet av Trackmaster:

Om du inte märker skillnad i spel så har du fel nställningar, klena datorkomponenter som inte klarar tillräckligt med FPS för att hamna över vanliga 60Hz eller så tittar du på en stillbild.
För jag märker stor skillnad med G-sync mot min gamla. Till en början var Overwatch obehagligt för allt gick så snabbt. Men man vänjer sig, sen kan man inte spela utan det.

Så nej, det är inte en fluga.

Jo det är det.
Se på din text så skriver ju du det jag säger utan att veta om det.
De som sitter på bra komponenter i dag och som ligger runt 80-120+ FPS behöver inte G Synk.
Sen en bra skärm.

De som sitter på mindre grafikkort och gammal cpu. Där hjälper G Synk till.

Permalänk
Medlem
Skrivet av Lodisen:

https://www.prisjakt.nu/produkt.php?p=4925319

Cerifierad av nVidia för G-sync, och den är mer framtidssäker då det är 4k 144hz

Skärmen hinner bli gammal innan man ens kan driva något modernt spel i 4k 144hz. Jag tycker 1440p är en bra kompromiss, är riktigt nöjd med min skärm.

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Medlem
Skrivet av Bananen12:

Jo det är det.
Se på din text så skriver ju du det jag säger utan att veta om det.
De som sitter på bra komponenter i dag och som ligger runt 80-120+ FPS behöver inte G Synk.
Sen en bra skärm.

De som sitter på mindre grafikkort och gammal cpu. Där hjälper G Synk till.

Du har nog inte förstått vad G-sync gör. G-sync synkroniserar FPS med din skärm så du alltid har samma Hz som din dator klarar har du 70 fps ena sekunden, så får du 70Hz, har du 100 fps andra sekunden så får du 100Hz med skärmen.
Har du inte någon form av Adaptive sync så gör den inte det. Då måste du ha stabil fps med vad som ställs in din Hz på skärmen för att inte få tearing i bilden.

Så nej det är inte en fluga.