Freesync eller Adaptive-sync på en G-sync skärm?

Permalänk
Medlem

Freesync eller Adaptive-sync på en G-sync skärm?

Vad förhindrar en G-sync skärm rent tekniskt att köra Freesync eller VESA Adaptive-sync. Får inte en G-sync skärm göra detta pga Nvidia eller AMD?

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem

Mer eller mindre inget. Bara nvidia's egen girighet. De vill tvinga alla att använda sin alternativ istället för att använda öppna standarder.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem

Så om en skärm ska få innehålla en gsync-modul får den ej använda någon annan adaptive-sync teknik, inte ens VESA adaptive-sync (vad det nu är)?

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem
Skrivet av Bernd_P1:

Mer eller mindre inget. Bara nvidia's egen girighet. De vill tvinga alla att använda sin alternativ istället för att använda öppna standarder.

Eller så kan man uttrycka det som att det är två konkurrerande standarder. Nvidia utvecklade G-Sync på eget bevåg ur egen ficka och vill så klart behålla teknologin för sig själva (de är ett vinstdrivande företag). När AMD såg vad Nvidia lyckats med så lanserade de FreeSync och sedan dess har fanboys forumfäktat...

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Medlem

Själva gsync modulen tror jag inte de tjänar så mycket på men att GSYNC kräver nvidia kort och vice versa är mera viktigt för dem och det vill de jätte gärna hålla fast vid även om Nvidia lätt kunde ge stöd i sina kort för Freesync också, så vore det ju som att ge gratis marknadsandelar bort åt konkurrenten typ. Det är vi konsumenter som förlorar som vanligt.

Lustigt hur man lyckats få Nvidia att verka dryg på denna punkt då det var de som först tog fram denna typ av lösning som är en otroligt bra sådan också men så countrade AMD med en öppen gratis standard och får Nvidia att verka dryga då de vägrar ge sig (förstår nog dem men ändå är det lite lustigt det hela).

Det bästa vore om man skulle lyckas få en skaplig sorts standard att kunna mixa både AMD och Nvidia kort med varann och ändå kunna låta båda samarbeta (lite lika som SLI/Crossfire men inte riktigt lika bra optimerat vore förstås att vänta sig), dock har ju Nvidia mera att förlora på det än AMD pga Nvidias gsync är dyrare och icke standard lösning.

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc A750 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB | Windows 10 & 11 x64 Professional

Permalänk
Medlem
Skrivet av cyprus:

Så om en skärm ska få innehålla en gsync-modul får den ej använda någon annan adaptive-sync teknik, inte ens VESA adaptive-sync (vad det nu är)?

Adaptive sync = freesync
För AMD så får de det men nVidia vill inte.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av RPGWiZaRD:

Själva gsync modulen tror jag inte de tjänar så mycket på men att GSYNC kräver nvidia kort och vice versa är mera viktigt för dem och det vill de jätte gärna hålla fast vid även om Nvidia lätt kunde ge stöd i sina kort för Freesync också, så vore det ju som att ge gratis marknadsandelar bort åt konkurrenten typ. Det är vi konsumenter som förlorar som vanligt.

Lustigt hur man lyckats få Nvidia att verka dryg på denna punkt då det var de som först tog fram denna typ av lösning som är en otroligt bra sådan också men så countrade AMD med en öppen gratis standard och får Nvidia att verka dryga då de vägrar ge sig (förstår nog dem men ändå är det lite lustigt det hela).

Det bästa vore om man skulle lyckas få en skaplig sorts standard att kunna mixa både AMD och Nvidia kort med varann och ändå kunna låta båda samarbeta (lite lika som SLI/Crossfire men inte riktigt lika bra optimerat vore förstås att vänta sig), dock har ju Nvidia mera att förlora på det än AMD pga Nvidias gsync är dyrare och icke standard lösning.

var snäll och titta på priserna på skärmarna av samma modell där enda skillnaden är "Freesync" och "G-Sync". bruka hamna runt 2000 till 3000 kr.
så Nvidia tjänner dubbelt och kunden få betala dubbelt. Skärmtillverkaren måste först köpa in G-Sync modulen och ge kostnaden vidare till kunden. så i princip blir det du som betala dubbelt.
men största "skämten" är G-Sync på bärbara. då finns det nämligen ingen modul och man kör det via andra vägar. så finns egentligen ingen ursäkt för modulen annat än att stänga in sina kunder.

Skrivet av Bascule666:

Eller så kan man uttrycka det som att det är två konkurrerande standarder. Nvidia utvecklade G-Sync på eget bevåg ur egen ficka och vill så klart behålla teknologin för sig själva (de är ett vinstdrivande företag). När AMD såg vad Nvidia lyckats med så lanserade de FreeSync och sedan dess har fanboys forumfäktat...

roligt att just du kalla andra för fanboys när det är du som måste komma med ursäkt för ett företag. Finns INGEN anledning varför Nvidia inte kunde stöda både sin egen format och den öppna standarden adaptiv sync.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem

Jag vet inte om jag var oklar (C2H5OH). Förbjuder Nvidia explicit skärmtillverkarna att tillämpa Vesa Adaptive Sync (Freesync) om de ska få använda Gsync-modulen i skärmen. Jag förstår att Nvidia (särskilt) och AMD vill låsa in sina grafikkort till en skärm. Men borde inte t.ex Asus eller Acer stödja båda standarder när man ändå har en Gsync-modul i skärmen?

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem
Skrivet av Bernd_P1:

Mer eller mindre inget. Bara nvidia's egen girighet. De vill tvinga alla att använda sin alternativ istället för att använda öppna standarder.

Jo jag vet att Nvidia är giriga, men de är ju jäkligt bra också. Jag tycker inte att inlåsningen till skärmar är så jäkla kul. Jag bytte grafikkort från R9 290X (det mest prisvärda jag NÅGONSIN köpt) och en Freesync-skärm (AOC G2460PF), till ett 1080Ti och Gsync ACER XB271HU.

Nu hade jag en del problem med freesync med den skärmen, men uppgraderingen kostade 14666Kr. Alldeles för mycket pengar kan man tycka för tre tum + IPS + en del kraft. Hade varit bra om man kunde slänga i ett AMD NAVI eller någon värsting-GPU från AMD om två år och få adaptive-sync att funka, men icke. Inlåst

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem
Skrivet av cyprus:

Jag vet inte om jag var oklar (C2H5OH). Förbjuder Nvidia explicit skärmtillverkarna att tillämpa Vesa Adaptive Sync (Freesync) om de ska få använda Gsync-modulen i skärmen. Jag förstår att Nvidia (särskilt) och AMD vill låsa in sina grafikkort till en skärm. Men borde inte t.ex Asus eller Acer stödja båda standarder när man ändå har en Gsync-modul i skärmen?

Ja och nej. Finns väl inga papper på att Nvidia har direkt förbjudit tillverkarna att få det och funka i samma skärm. Men Tycket att det prata en väldigt tydligt språk när skärm tillverkarna släppa 2 versioner av en skärm, en med freesync och en med g-sync, och enda skillnaden blir vilken teknik som används same att g-sync skärmen i snitt kosta 2000 till 3000 kr mer.
en sak att komma ihåg är också att öppna standarder kosta tillverkarna "inget" då de inte behöver betala någon licensavgift (t.ex. adaptiv sync, Displayport mm) medans slutna standarder också kräver det (t.ex. HDMI, G-sync mm.)

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem
Skrivet av Bascule666:

Eller så kan man uttrycka det som att det är två konkurrerande standarder. Nvidia utvecklade G-Sync på eget bevåg ur egen ficka och vill så klart behålla teknologin för sig själva (de är ett vinstdrivande företag). När AMD såg vad Nvidia lyckats med så lanserade de FreeSync och sedan dess har fanboys forumfäktat...

Känns konstigt att kalla G-Sync för en standard då den är proprietär. (för NVidia kanske det är en standard men inte för resten av världen)
VESA är en internationell standard, AMD använder sig av Adaptive Sync standarden (lanserades även tillsammans med DP 1.2a) så nej jag tror inte att AMD blev avundsjuka och helt plötsligt utvecklade och lanserade en ny standard tillsammans med VESA som dom kort därefter använde sig av.

AMD kallar sin implementering av Adaptive Sync för FreeSync, kravet är GPU med stöd/DP1.2a, nästa generation av FreeSync kallas FreeSync2 kravet där är antagligen bara hårdare krav på skärmtillverkaren (latenser, upplösning med mera) så att användare ska få en bättre upplevelse.

NVidia hade väll 90% av marknaden en gång i tiden och dom har säkert behållt, blir isf en väldigt ensidig forumfäktning där 9/10 har ett NVidia kort och det bör ju knappt existera, men gång på gång så är AMD trådarna fyllda med rappakalja, man kan ju undra var det kommer ifrån.

Permalänk
Medlem
Skrivet av Bernd_P1:

var snäll och titta på priserna på skärmarna av samma modell där enda skillnaden är "Freesync" och "G-Sync". bruka hamna runt 2000 till 3000 kr.
så Nvidia tjänner dubbelt och kunden få betala dubbelt. Skärmtillverkaren måste först köpa in G-Sync modulen och ge kostnaden vidare till kunden. så i princip blir det du som betala dubbelt.
men största "skämten" är G-Sync på bärbara. då finns det nämligen ingen modul och man kör det via andra vägar. så finns egentligen ingen ursäkt för modulen annat än att stänga in sina kunder.

Men min poäng här som jag trodde jag inte skulle behöva förklara i detalj då jag tycker det är så självklart att mängden GSYNC moduler/skärmar som säljs är försvinnande liten i förhållande till antalet GPUer som företaget säljer. Att utveckla GSYNC har ju kostat och kostar dem en hel del också, Nvidia har alla möjliga system som GameWorks, HairWorks, PhysX förut osv. vars huvudsakliga syfte är att locka till sig fler kunder så marknadsandelarna för GPUerna växer, GSYNC har också samma syfte, att stärka GPU försäljningen, det är hur Nvidia fungerar och AMD kontrade med Freesync för det var såpass nyttig egenskap att de blev rädda att de skulle förlora lite kunder annars då det är ju klart att Nvidia aldrig skulle ge AMDs kort stöd för GSYNC även om det är tekniskt möjligt.

Jag försvarar inte Nvidia men jag ville korrigera att Nvidia knappast tjänar någon betydlig summa på antalet sålda gsync moduler, utan det är bara ett sätt bland många andra att försöka locka till sig mera GPU kunder. Hade AMD kommit ut med tekniken först hade de varit i samma position som Nvidia är nu med att inte ge någon alls stöd åt sin konkurrent, de gör inte gentjänster åt varandra då man tävlar om samma kunder. Som sagt därför är konsumenterna förlorarna. Lösningen borde ha först kommit från skärmtillverkarna eller som display standard för att vi skulle ha undvikit dessa två läger.

Sen är det ju förstås taktiskt smart att AMD drar nytta av VESA Freesync standarden istället för att utveckla en egen propritär lösning till GSYNC, det ligger i deras taktik just nu att försöka få Nvidia se ut som den stora stygga vargen som mjölkar kunder och är giriga.

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc A750 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB | Windows 10 & 11 x64 Professional

Permalänk
Medlem
Skrivet av RPGWiZaRD:

Men min poäng här som jag trodde jag inte skulle behöva förklara i detalj då jag tycker det är så självklart att mängden GSYNC moduler/skärmar som säljs är försvinnande liten i förhållande till antalet GPUer som företaget säljer. Att utveckla GSYNC har ju kostat och kostar dem en hel del också, Nvidia har alla möjliga system som GameWorks, HairWorks, PhysX förut osv. vars huvudsakliga syfte är att locka till sig fler kunder så marknadsandelarna för GPUerna växer, GSYNC har också samma syfte, att stärka GPU försäljningen, det är hur Nvidia fungerar och AMD kontrade med Freesync för det var såpass nyttig egenskap att de blev rädda att de skulle förlora lite kunder annars då det är ju klart att Nvidia aldrig skulle ge AMDs kort stöd för GSYNC även om det är tekniskt möjligt.

Jag försvarar inte Nvidia men jag ville korrigera att Nvidia knappast tjänar någon betydlig summa på antalet sålda gsync moduler, utan det är bara ett sätt bland många andra att försöka locka till sig mera GPU kunder. Hade AMD kommit ut med tekniken först hade de varit i samma position som Nvidia är nu med att inte ge någon alls stöd åt sin konkurrent, de gör inte gentjänster åt varandra då man tävlar om samma kunder. Som sagt därför är konsumenterna förlorarna. Lösningen borde ha kommit från skärmtillverkarna för att vi skulle ha undvikit dessa två läger.

Nej. bara nej. nvidia har inte tagit fram PhysX. dem har bara köpt upp det:
https://en.wikipedia.org/wiki/PhysX
dessutom har dem blockerat PhysX för AMD användare. Innan Nvidia köpte upp det så funkade fint att köra PhysX även på AMD's GPU:er. Men sen stängde Nvidia av den funktionen. vilket också leda till att PhysX belasta CPU:n mer vilket leda till prestandasförlust för AMD GPU:er.
Och nej, AMD "kontrade" inte med Freesync. Freesync är bara AMD's merknadsföringsnamn på den öppna adaptive v-sync standarden. se även inlägget ovanför din.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem

Så det är alltså skärmtillverkarna som vill tjäna pengar på olika modeller som inte stödjer båda tekniker. Nvidia har inget att säga till om, de bara säljer sin GSync-modul till skärmtillverkarna utan krav. Jag pratar om skärmtillverkare INTE grafikkort. Har man en Gsync-modul i skärmen borde det vara trivialt för en skärmtillverkare att stödja Adaptive Sync (eller Freesync) genom Displayport kan man tycka.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem
Skrivet av cyprus:

Så det är alltså skärmtillverkarna som vill tjäna pengar på olika modeller som inte stödjer båda tekniker. Nvidia har inget att säga till om, de bara säljer sin GSync-modul till skärmtillverkarna utan krav. Jag pratar om skärmtillverkare INTE grafikkort. Har man en Gsync-modul i skärmen borde det vara trivialt för en skärmtillverkare att stödja Adaptive Sync (eller Freesync) genom Displayport kan man tycka.

åter igen. finns inga direkta bevis för det då papper som skulle bevisa det står under NDA. men tror inte att tillverkarna är så jätte sugen att tillverka 2 exakt lika skärmar bara att en har en viss modul i sig. det är bara extra kostnader för de. de skulle nog blir jätte glad om dem slapp det och kunde göra en skärm som stödja båda. Så finns igen väg att säga det med 100% säkerhet men det är nog Nvidia som är boven då dem inte vill stödja öppna standarder som är fritt för skärmtillverkarna att använda.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem
Skrivet av Bernd_P1:

var snäll och titta på priserna på skärmarna av samma modell där enda skillnaden är "Freesync" och "G-Sync". bruka hamna runt 2000 till 3000 kr.
så Nvidia tjänner dubbelt och kunden få betala dubbelt. Skärmtillverkaren måste först köpa in G-Sync modulen och ge kostnaden vidare till kunden. så i princip blir det du som betala dubbelt.
men största "skämten" är G-Sync på bärbara. då finns det nämligen ingen modul och man kör det via andra vägar. så finns egentligen ingen ursäkt för modulen annat än att stänga in sina kunder.

roligt att just du kalla andra för fanboys när det är du som måste komma med ursäkt för ett företag. Finns INGEN anledning varför Nvidia inte kunde stöda både sin egen format och den öppna standarden adaptiv sync.

Skrivet av cyprus:

Jo jag vet att Nvidia är giriga, men de är ju jäkligt bra också. Jag tycker inte att inlåsningen till skärmar är så jäkla kul. Jag bytte grafikkort från R9 290X (det mest prisvärda jag NÅGONSIN köpt) och en Freesync-skärm (AOC G2460PF), till ett 1080Ti och Gsync ACER XB271HU.

Nu hade jag en del problem med freesync med den skärmen, men uppgraderingen kostade 14666Kr. Alldeles för mycket pengar kan man tycka för tre tum + IPS + en del kraft. Hade varit bra om man kunde slänga i ett AMD NAVI eller någon värsting-GPU från AMD om två år och få adaptive-sync att funka, men icke. Inlåst

Skrivet av lappen81:

Eh va?

Jag tror inte att du kan kalla G-Sync för en standard om den är proprietär. (för NVidia kanske det är en standard men inte för resten av världen)
VESA är en internationell standard, AMD använder sig av Adaptive Sync standarden (lanserades även tillsammans med DP 1.2a) så nej jag tror inte att AMD blev avundsjuka och helt plötsligt utvecklade och lanserade en ny standard kort därefter.

AMD kallar sin implementering av Adaptive Sync för FreeSync, kravet är GPU med stöd/DP1.2a, nästa generation av FreeSync kallas FreeSync2 kravet där är antagligen bara hårdare krav på skärmtillverkaren (latenser, upplösning med mera) så att användare ska få en bättre upplevelse.

NVidia hade väll 90% av marknaden en gång i tiden och dom har säkert behållt, blir isf en väldigt ensidig forumfäktning där 9/10 har ett NVidia kort

Alltså, nu ska vi ta det lite lugnt här...

Du har ett företag som lägger ner X antal miljoner dollar på att utveckla en helt ny teknologi för att synkronisera grafikkortets output med skärmens input, en innovation som gör en extremt stor skillnad för alla som spelar spel på PC. Vad man kommer fram till att för att få den bästa prestandan och det mest konsekventa resultatet är att skärmen behöver en ny kretsuppsättning som ditt företag tillhandahåller. Priset är X dollar. Du jobbar intimt med skärmtillverkarna för att nå optimala resultat. Allt detta har kostat dig en bra hög med pengar.

Några månader senare kommer en konkurrent med en hyfsad kopia av din ansträngning. Inte lika bra men utan behov av extra kretsar i skärmarna. Lösningen är ganska ok men med en del problem. Samarbete mellan "uppfinnaren" av standarden och skärmtillverkarna är ganska skakig, minst sagt.

Varför i hela friden skulle du låta din konkurrent få del av kakan? Om man är idealist och värnar om öppen mjukvara kanske detta är en konstig fråga men Nvidia lever på att tjäna pengar precis som ALLA andra bolag. Varför skulle man släppa några innovationer gratis, det vore fullständigt korkat.

Det är därför Nvidia aldrig kommer att köra Adaptive Sync och för att få glädjen av att köra G-Sync så får du betala vad det kostar. Med tanke på att G-Sync har funkat så otroligt mycket bättre än FreeSync sedan det släpptes är jag beredd att säga att det var värt det. Inga barnsjukdomar, inga "mystiska" skuggningar", inga sladdproblem, mm. mm. G-Sync funkar rakt av utan strul men med en högre prislapp, du väljer vad som är värt mest.

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Medlem
Skrivet av Bascule666:

Alltså, nu ska vi ta det lite lugnt här...

Du har ett företag som lägger ner X antal miljoner dollar på att utveckla en helt ny teknologi för att synkronisera grafikkortets output med skärmens input, en innovation som gör en extremt stor skillnad för alla som spelar spel på PC. Vad man kommer fram till att för att få den bästa prestandan och det mest konsekventa resultatet är att skärmen behöver en ny kretsuppsättning som ditt företag tillhandahåller. Priset är X dollar. Du jobbar intimt med skärmtillverkarna för att nå optimala resultat. Allt detta har kostat dig en bra hög med pengar.

Några månader senare kommer en konkurrent med en hyfsad kopia av din ansträngning. Inte lika bra men utan behov av extra kretsar i skärmarna. Lösningen är ganska ok men med en del problem. Samarbete mellan "uppfinnaren" av standarden och skärmtillverkarna är ganska skakig, minst sagt.

Varför i hela friden skulle du låta din konkurrent få del av kakan? Om man är idealist och värnar om öppen mjukvara kanske detta är en konstig fråga men Nvidia lever på att tjäna pengar precis som ALLA andra bolag. Varför skulle man släppa några innovationer gratis, det vore fullständigt korkat.

Det är därför Nvidia aldrig kommer att köra Adaptive Sync och för att få glädjen av att köra G-Sync så får du betala vad det kostar. Med tanke på att G-Sync har funkat så otroligt mycket bättre än FreeSync sedan det släpptes är jag beredd att säga att det var värt det. Inga barnsjukdomar, inga "mystiska" skuggningar", inga sladdproblem, mm. mm. G-Sync funkar rakt av utan strul men med en högre prislapp, du väljer vad som är värt mest.

Nej jag struntar i om Nvidia stödjer Freesync Lsync eller Psync likaså om AMD skulle betala Nvidia för att stödja Gsync. Jag pratar om att SKÄRMTILLVERKARNA ej får stödja annat än G-sync på en G-sync skärm. Är det fastslaget att Nvidia håller skärmtillverkarna i ett strupgrepp vad gäller G-sync och att släppa in annan teknik?

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem
Skrivet av Bernd_P1:

Mer eller mindre inget. Bara nvidia's egen girighet. De vill tvinga alla att använda sin alternativ istället för att använda öppna standarder.

Tycker öppna källor har ofta mer problem än sin egen exklusiva av densamme.

G-Sync är kung!

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av cyprus:

Så det är alltså skärmtillverkarna som vill tjäna pengar på olika modeller som inte stödjer båda tekniker. Nvidia har inget att säga till om, de bara säljer sin GSync-modul till skärmtillverkarna utan krav. Jag pratar om skärmtillverkare INTE grafikkort. Har man en Gsync-modul i skärmen borde det vara trivialt för en skärmtillverkare att stödja Adaptive Sync (eller Freesync) genom Displayport kan man tycka.

Såvitt jag förstår så är "Gsync-modulen" i praktiken en komplett ersättare till panelens ordinarie drivkretsar, och såvitt jag läst är Nvidia rätt strikta kring hur skärmtillverkarna får använda modulen.
Allt sker i nära samarbete med Nvidia, och de slutvaliderar den färdiga produkten... Och jag gissar att de även har restriktioner på att skärmtillverkaren inte får bygga på någon extra funktionalitet "utanför" gsync-modulen.
Dvs Nvidia snarare än skärmtillverkarna är "boven" i det här dramat såvitt jag uppfattat det hela.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av cyprus:

Nej jag struntar i om Nvidia stödjer Freesync Lsync eller Psync likaså om AMD skulle betala Nvidia för att stödja Gsync. Jag pratar om att SKÄRMTILLVERKARNA ej får stödja annat än G-sync på en G-sync skärm. Är det fastslaget att Nvidia håller skärmtillverkarna i ett strupgrepp vad gäller G-sync och att släppa in annan teknik?

Vet ej

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Medlem
Skrivet av Roger W:

Såvitt jag förstår så är "Gsync-modulen" i praktiken en komplett ersättare till panelens ordinarie drivkretsar, och såvitt jag läst är Nvidia rätt strikta kring hur skärmtillverkarna får använda modulen.
Allt sker i nära samarbete med Nvidia, och de slutvaliderar den färdiga produkten... Och jag gissar att de även har restriktioner på att skärmtillverkaren inte får bygga på någon extra funktionalitet "utanför" gsync-modulen.
Dvs Nvidia snarare än skärmtillverkarna är "boven" i det här dramat såvitt jag uppfattat det hela.

Så Nvidia har skärmtillverkarna i ett punggrepp. (Eller strupgrepp, eller något annat slags grepp.)

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem
Skrivet av cyprus:

Nej jag struntar i om Nvidia stödjer Freesync Lsync eller Psync likaså om AMD skulle betala Nvidia för att stödja Gsync. Jag pratar om att SKÄRMTILLVERKARNA ej får stödja annat än G-sync på en G-sync skärm. Är det fastslaget att Nvidia håller skärmtillverkarna i ett strupgrepp vad gäller G-sync och att släppa in annan teknik?

Nej! Det är inte fastslaget.

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Medlem
Skrivet av Vangen:

Tycker öppna källor har ofta mer problem än sin egen exklusiva av densamme.

G-Sync är kung!

kanske dags att uppgradera för dig till Windows 10 S då

https://www.microsoft.com/sv-se/windows/windows-10-s

tänk och slippa alla dessa förbaskade öppna program och alla risker de innebär.

du få bara använda det som finns i windows store dvs det microsoft har godkänt.

låter ju perfekt för dig

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem
Skrivet av cyprus:

Så Nvidia har skärmtillverkarna i ett punggrepp. (Eller strupgrepp, eller något annat slags grepp.)

troligen ja. har dem gjord såna avtal med tillverkarna så dem mest troligen under NDA (Non-disclosure agreement) dvs skulle tillverkarna berätta att Nvida förbjuder de att använda G-Sync och Adaptiv Sync i samma skärm så kommer Nvidia stämmer de.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Bildexpert 📺

G-sync är rätt mycket mer än enbart själva adaptiva synkroniseringen. Det är en bokstavlig G-sync-modul med komplett kretsuppsättning/scaler som reglerar hela panelen. Så att konstruera en skärm som är både och är ungefär lika praktiskt som ett moderkort som har dubbla CPU-socklar och dubbla kretsuppsättningar för att köra både AMD och Intel samtidigt.

Det gör man inte. Man bygger två separat datorer istället. Ena baserad på Intel och andra på AMD. Samma sak hos skärmtillverkarna. Man bygger två separata skärmar istället. En skärm baserad på G-Syncmodulen och den andra på någon annan tillverkares kretsuppsättningar och scaler.

Det är också förklaringen till att nya G-Sync-modeller är likadana i fråga om anslutningar med en enda Displayport och en enda strypt HDMI. Det är vad Nvidia ger med G-Syncmodulen. Kör man något annat kan man ha anslutningar lite som man vill.

Permalänk
Medlem
Skrivet av Laxpudding:

G-sync är rätt mycket mer än enbart själva adaptiva synkroniseringen. Det är en bokstavlig G-sync-modul med komplett kretsuppsättning/scaler som reglerar hela panelen. Så att konstruera en skärm som är både och är ungefär lika praktiskt som ett moderkort som har dubbla CPU-socklar och dubbla kretsuppsättningar för att köra både AMD och Intel samtidigt.

Det gör man inte. Man bygger två separat datorer istället. Ena baserad på Intel och andra på AMD. Samma sak hos skärmtillverkarna. Man bygger två separata skärmar istället. En skärm baserad på G-Syncmodulen och den andra på någon annan tillverkares kretsuppsättningar och scaler.

Det är också förklaringen till att nya G-Sync-modeller är likadana i fråga om anslutningar med en enda Displayport och en enda strypt HDMI. Det är vad Nvidia ger med G-Syncmodulen. Kör man något annat kan man ha anslutningar lite som man vill.

Varför skulle inte en premium skärm från någon tillverkare och då pratar vi om >10000kr kunna stödja båda standarder. Jag vet att att Gsync är en separat modul ( den fanns väl till och med att köpa och installera på någon Asus-skärm till en början). Jag tycker inte din jämförelse med dubbla CPU-socklar och dubbla kretsuppsättningar kostnadsmässigt kan jämföras med G-sync modul plus en scaler för freesync. Jag tror skärmtillverkarna tyvärr har ett avtal med Nvidia. Vill ni ha G-sync-modul i er skärm så gäller den tekniken och igen annan.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Inaktiv
Skrivet av Herr Kantarell:

Adaptive sync = freesync
För AMD så får de det men nVidia vill inte.

Adaptive-Sync och FreeSync inte samma sak, men de bygger på samma teknik.

"Could you please explain the difference between AMD FreeSync and VESA Adaptive-Sync?
– VESA DisplayPort Adaptive-Sync is a new component of the DisplayPort 1.2a specification that allows a graphics card to control the refresh rate of a display over a DisplayPort link. As it seems there is some confusion, I want to emphasize that DisplayPort Adaptive-Sync is not FreeSync. By itself, DisplayPort Adaptive-Sync is a building block that provides a standard framework a source device, e.g. a graphics card, can depend on to execute dynamic refresh rates.
DisplayPort Adaptive-Sync is an important development in our industry, however, because there now exists an industry-standard framework that dynamic refresh rate technologies, like Project FreeSync, can rely on to deliver end-user benefits: no tearing, minimal input latency, smooth framerates, etc. Make no mistake, providing dynamic refresh rates to users still takes a lot of ‘secret sauce’ from the hardware and software ends of our products, including the correct display controllers in the hardware and the right algorithms in AMD Catalyst."

https://linustechtips.com/main/topic/155709-amd-freesync-inte...

Permalänk
Bildexpert 📺
Skrivet av cyprus:

Jag tror skärmtillverkarna tyvärr har ett avtal med Nvidia. Vill ni ha G-sync-modul i er skärm så gäller den tekniken och igen annan.

Så kan det säkert vara. Teknik, affärer och avtal går hand i hand. Produktegenskaper är resultat av såväl tekniska som ekonomiska och marknadsmässiga beslut. Jag skulle till och med säga att G-sync är steget längre, att det är Nvidia som i hög grad utvecklar G-sync-skärmen åt tillverkarna.

Men det är fortfarande ett praktisk teknisk hinder att bygga en skärm som låter dig välja mellan två olika scalers och kretsuppsättningar. Det har hittills mig veterligen aldrig tillverkats någon kommersiell produkt avsedd för en volymmarknad som har den möjligheten. Precis som med moderkort som hanterar två olika sorters CPU:er från två olika tillverkare samtidigt. Hur många sådana finns det?