Nvidias G-Sync HDR-modul kostar mer än 5 500 kronor för slutkund

Permalänk
Medlem

Faktiskt beredd pröjsa för en fet skärm men 25 lax är för mycket. Nä, ring mig när vi närmar oss 17, 18.

Permalänk
Medlem
Skrivet av Ozzed:

Satan! 5 papp är vad jag la på min skärm, och detta vill de ha för en komponent i skärmen? Ja då ser vi ju tydligt vad som händer när det saknas konkurrens. Jisses alltså.

Fast detta handlar väl inte om konkurrens utan mer att G-Sync HDR modulen verkligen är Cutting Edge teknik som är dyrt om några år kommer säkert en billig ASIC lösning men idag så är det bara Nvidia G-Sync Modul som klarar av 4K 120 Hz.

Visa signatur

i5 10600K, Z490 Tomahawk, Corsair RMX750, GTX 1060 6GB

Permalänk
Medlem
Skrivet av Laxpudding:

Jag tror du egentligen tänker följande ”Det finns få eller inga AAA-speltitlar vilkas grafikmotorer kan köras i 4K/144 Hz under Ultra eller Very High Settings med nuvarande grafikkort”.

Ja jo, visst. Men vem köper liksom en 4k 144hz skärm för ~25000 för att spela CS?

Permalänk
99:e percentilen
Skrivet av hg:

Ja jo, visst. Men vem köper liksom en 4k 144hz skärm för ~25000 för att spela CS?

Du argumenterar som om en dator bara kan användas till ett enda syfte. För mig hade just 4K @ 144 Hz IPS varit helt perfekt, eftersom jag ägnar 90 % av tiden vid datorn åt annat än spel, och när jag spelar, då spelar jag enbart CS. Varken i spel eller annan användning är jag beredd att gå ner från åtminstone 120 Hz.

Dessutom går det med ett rejält grafikkort utmärkt att spela många tyngre spel i 4K med lite lägre (men knappt fulare) grafikinställningar, inte minst tack vare G‑Sync.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem

Känns som att många klagar bara för att det är häftigt att klaga på Nvidia. Det är väl ganska klart att man inte skapar en dyr krets som kostar som en helt okej normal skärm om man kunde göra exakt samma sak nästintill gratis.

Permalänk
Avstängd

Om man skall köpa en skärm så botde man inte välja gsync hdr med dem här priserna när freesync är ett grafikkort billigare.

Skickades från m.sweclockers.com

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Avstängd

@Ozzed: Du konkurrerar med dina egna produkter. Likaså måste intel slå sina tidigare processorer med tillräcklig marginal för att konsumenten ska vilja betala tusenlappar för en uppgradering. Visst kan de släppa en skärm för 56000 i monokrom 720p eller vilja ha 14 papp för en gsyncmodul, men då köps den inte.

Om du är den enda producenten av tandkräm och därmed tar 14 millar för en tub får du den inte såld för det.

Permalänk
Medlem
Skrivet av Jacob:

Intel (Altera) Arria 10 tillverkas på TSMC:s 20nm.

Tyckte att det stod Intel's 20nm process. Läste väl slarvigt.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Mr[M]:

fast är det ny teknik tycker båda har funnits ganska länge

Klart det är. I alla fall till en viss mån är det.

Ju större upplösning, uppdateringsfrekvens och färgrymd, ju mer bandbredd krävs det. Ju mer bandbredd som krävs ju mer data ska hanteras i skärmen varje sekund.

Det är inte konstigare att något som för 20 år sedan krävde en datahall kan idag implementeras i en mycket enklare och billigare lösning.

Om du tror att det är samma hårdvara för Gsync i dessa skärmar som i en billigare så tror jag du misstar dig, således är det ny teknik och det är logiskt att det kommer kosta mer.

Att sedan Nvidia tar ut extra för att de är först med tekniken är inte konstigt. Men även om de tog bort sin "cut" hade detta varit dyrare än befintliga lösningar.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av FredrikMH:

Klart det är. I alla fall till en viss mån är det.

Ju större upplösning, uppdateringsfrekvens och färgrymd, ju mer bandbredd krävs det. Ju mer bandbredd som krävs ju mer data ska hanteras i skärmen varje sekund.

Det är inte konstigare att något som för 20 år sedan krävde en datahall kan idag implementeras i en mycket enklare och billigare lösning.

Om du tror att det är samma hårdvara för Gsync i dessa skärmar som i en billigare så tror jag du misstar dig, således är det ny teknik och det är logiskt att det kommer kosta mer.

Att sedan Nvidia tar ut extra för att de är först med tekniken är inte konstigt. Men även om de tog bort sin "cut" hade detta varit dyrare än befintliga lösningar.

Själv tycker jag HDR har funnits rätt länge och Gsync, men om du säger att det är ny teknik och mycket Färgrymden så är det så

Visa signatur

Ryzoen 3700x x370 AsusCrosshair, Gskill 16Gb 3600Mhz,27tum 144hz 1440p Freesync, 6700XT
bettan dog i5 2500k 4.3Ghz, 16GBram 1600mhz,
Ibland förstår jag inte hur folk tänker.

Permalänk
Medlem
Skrivet av Mr[M]:

Själv tycker jag HDR har funnits rätt länge och Gsync, men om du säger att det är ny teknik och mycket Färgrymden så är det så

Det är ungefär som att sägs att det funnits elfordon länge (sen 1800 tal) funnits lastbilar länge och bilar som kan köra 0-100 på under 5 sekunder länge. Men när tesla lyckades kombinera allt detta med sin tesla semi truck så förväntar man sig att den ska kosta som en vanlig golf.

Permalänk
Bildexpert 📺

@Mr[M]: Det är skillnad på HDR och HDR.

Vad som funnits ett tag inom HDR är vanligvis 4K i 10 eller 12 bitar i film och frekvenser om 24,25 och 30 Hz. Detta ryms med 4:2:2 subsampling inom en pixelklocka på 300 MHz till 450 MHz, vilket är vad en hel del TV-apparater har som faktiskt gräns. Till de senaste TV-apparaterna som har kapacitet på 600 MHz för 4:2:2 och 10 bitars HDR i 60 Hz.

Nu är kravet att köra HDR i 144 Hz och då går det ganska snabbt att räkna ut att kravet är långt högre än vad som tidigare erbjudits.

Permalänk
Medlem

Har förtvivlat svårt att förstå hur så många är helt frågandes till varför ny teknik är dyr i början. FoU kostar enorma pengar och samma sak gäller ju i princip vartenda område. Tacka alla early adopters som många gånger betalar för att priserna sen blir mer rimliga för den breda massan...

Permalänk
Medlem

WHOAT?! Ok, detta visar TYDLIGT varför öppna standarder där alla har möjlighet att tillsammans arbeta för att få ner produktioonskostnader etc är hundra gånger bättre för konsumenter. EN MODUL för samma pengar som de flesta ger för en hel skärm! Wow!

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Avstängd

Snart kan man mining:na med skärmen.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem

@Laxpudding: Märker man någonsin fläkten i skärmen?

Permalänk
Medlem
Skrivet av superegg:

Snart kan man mining:na med skärmen.

Hahaha precis min tanke xD

Visa signatur

i7 5820K @ 4,5 gHZ / HyperX 32gb 2133MHz / ASUS X99-A / Gainward RTX 3080 Phoenix 10GB / Samsung 970 EVO Plus 500GB / Samsung C49RG9x

Permalänk
Medlem
Skrivet av inquam:

WHOAT?! Ok, detta visar TYDLIGT varför öppna standarder där alla har möjlighet att tillsammans arbeta för att få ner produktioonskostnader etc är hundra gånger bättre för konsumenter. EN MODUL för samma pengar som de flesta ger för en hel skärm! Wow!

Är det inte bättre för konsumenter att kunna köpa produkten? De öppna standarderna har nämligen inte lyckats producera några.

Skickades från m.sweclockers.com

Permalänk
99:e percentilen
Skrivet av _Merc_:

Om man skall köpa en skärm så botde man inte välja gsync hdr med dem här priserna när freesync är ett grafikkort billigare.

Vilken motsvarande skärm med FreeSync tycker du man borde köpa istället?

(Jag tycker inte att PG27UQ är ett värt köp om man inte bara helt enkelt tycker det är kul att prova ny teknik, men jag påstår inte heller att ”[FreeSync] är ett grafikkort billigare”.)

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Bildexpert 📺
Skrivet av jensa86:

@Laxpudding: Märker man någonsin fläkten i skärmen?

Ja, när datorn är tyst hörs fortfarande fläkten. Så det beror på hur tyst dator man har.

Permalänk
Medlem

10AX048H2F34E1HG var ingen billig sak att köpa.
https://www.digikey.com/product-detail/en/intel-fpgas-altera/...

Pris för oss vanliga döda typ 2,604$ per st (typ 23000kr/st). givet vis har Nvidia rabatt men ändå....

Visa signatur

"Gravity is a myth, the earth sucks."

Permalänk
Medlem

Vad ska man säga?
Proprietära lösningar blir oftast så här, ingen kan väl vara förvånad?

Nvidia alltså, vilka skojare...

Min Spontana tanke är att de som köper dessa skärmar har mer pengar är förstånd.
Finns säkert ett antal människor som "behöver" dessa skärmar, jaja, och jag "behöver" en Ferrari =D

Visa signatur

Atari Mega 2

Permalänk
99:e percentilen
Skrivet av Laxpudding:

Ja, när datorn är tyst hörs fortfarande fläkten. Så det beror på hur tyst dator man har.

Haha, då är ju hela produkten tämligen värdelös för hemmabruk. Tror inte någon som är beredd att lägga 26 000 spänn på en skärm sitter med stockkylare och referenslövblås direkt.

Tror du att det snart kommer 4K 120+ Hz-skärmar som faktiskt går att använda i verkligheten?

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem

Har använt AMD-grejer senaste 15 åren. Gjorde en vändning förra året och köpte ett GTX 1070. Planerar att köpa ny skärm och nytt grafikkort igen nästa år, och hade tänkt mig ett nytt Nvidia-kort och en skärm med G-synk, men med dessa hutlösa priser så blir det tillbaka till AMD igen.

Nvidia skjuter sig själva i foten. Deras tankegång är att låsa in kunderna som har deras grafikkort till att köpa skärmar med G-synk, och därmed inkassera ytterligare. Vad de inte verkar förstå är att många kommer avstå från att köpa deras grafikkort istället när det blir dags att uppgradera. Varför ska man köpa deras grafikkort som redan är dyrare i prestanda/krona kontra AMD, och sedan betala 5000 kr extra när man ska köpa skärm? Tänker inte sponsra Nvidia på det sättet utan då kan jag likväl spendera mina tusenlappar på andra grejer och helt enkelt köra med Freesync istället.

Det här börjar likna Apple-fasoner, och det är jag högst allergisk emot.

Permalänk
Medlem

Riktig super (inte high) end entusiast skärm. Sitter du på 2 st hårt klockade 1080 ti så kan det här vara skärmen för dig.
Är man en sådan person kommer nog priset i andra hand...för oss andra så kan vi vänta nått år så kommer priserna bli mer humana.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Avstängd
Skrivet av Alling:

Vilken motsvarande skärm med FreeSync tycker du man borde köpa istället?

(Jag tycker inte att PG27UQ är ett värt köp om man inte bara helt enkelt tycker det är kul att prova ny teknik, men jag påstår inte heller att ”[FreeSync] är ett grafikkort billigare”.)

Själv om jag skulle köpa en ny skärm hade jag inte valt en 4k skärm än med tanke på priset

jag hade valt https://www.prisjakt.nu/produkt.php?e=4348856 1440p HDR 600 priset ligger på runt 5600-7000 vilket är några grafikkort billigare.

Jag hittar ingen Freesync skärm med 144hz o en HDR 1000, så vi får se när dem kommer.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Bildexpert 📺
Skrivet av Alling:

Tror du att det snart kommer 4K 120+ Hz-skärmar som faktiskt går att använda i verkligheten?

Min prognos är fortfarande i mars 2020!

https://www.sweclockers.com/artikel/20927-bildanslutningar-de...

Permalänk
Medlem
Skrivet av Mortac:

Har använt AMD-grejer senaste 15 åren. Gjorde en vändning förra året och köpte ett GTX 1070. Planerar att köpa ny skärm och nytt grafikkort igen nästa år, och hade tänkt mig ett nytt Nvidia-kort och en skärm med G-synk, men med dessa hutlösa priser så blir det tillbaka till AMD igen.

Nvidia skjuter sig själva i foten. Deras tankegång är att låsa in kunderna som har deras grafikkort till att köpa skärmar med G-synk, och därmed inkassera ytterligare. Vad de inte verkar förstå är att många kommer avstå från att köpa deras grafikkort istället när det blir dags att uppgradera. Varför ska man köpa deras grafikkort som redan är dyrare i prestanda/krona kontra AMD, och sedan betala 5000 kr extra när man ska köpa skärm? Tänker inte sponsra Nvidia på det sättet utan då kan jag likväl spendera mina tusenlappar på andra grejer och helt enkelt köra med Freesync istället.

Det här börjar likna Apple-fasoner, och det är jag högst allergisk emot.

Du behöver inte betala 5000:- extra om du ska köpa en skärm med g-sync. Ja, om du inte planerat en av de första 4K skärmarna med 144Hz för ett slutpris på 25k då. Jag är även tveksam på att du kommer kunna köpa motsvarande denna skärmen med freesync nästa år, om det är vad du har i tankarna.

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
99:e percentilen
Skrivet av _Merc_:

Själv om jag skulle köpa en ny skärm hade jag inte valt en 4k skärm än med tanke på priset

jag hade valt https://www.prisjakt.nu/produkt.php?e=4348856 1440p HDR 600 priset ligger på runt 5600-7000 vilket är några grafikkort billigare.

Jag hittar ingen Freesync skärm med 144hz o en HDR 1000, så vi får se när dem kommer.

Jag hade inte heller köpt 4K idag. Men som du ser, det finns ingen motsvarande skärm med FreeSync och därför blir det i bästa fall oseriöst att säga att FreeSync är ”ett grafikkort billigare”. Du måste ju förstå att du inte kan jämföra 1440p och 4K rätt av, när det sistnämnda ligger precis på gränsen för vad dagens teknik klarar av.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Bildexpert 📺

Anta att någon kretstillverkare rakt ur det blå byggde en ASIC, den första av sitt slag för att köra 4K/144 och byggde detta på öppna standarder. Vi vet av inläggen här på i tråden att den skulle bli hundra gånger bättre än Nvidias lösning, vilket förstås är uppskattat.

Men vad skulle en ASIC:n med adaptive sync och 4K/144 kosta per styck? Hur mycket billigare skulle skärmen bli ifall den i övrigt var identisk sånär som G-Sync-modulen?

Fram med miniräknarna nu!