Tråden om LG:s nya ultrawides (34GK950G and 34GK950F)

Permalänk
Medlem

Nu finns @laxpudding test ute på sidan, spännande läsning!
Upplevde du någon ghosting på f varianten i snabba fps spel?

Skickades från m.sweclockers.com

Permalänk
Bildexpert 📺
Skrivet av jeppejc:

Nu finns @laxpudding test ute på sidan, spännande läsning!
Upplevde du någon ghosting på f varianten i snabba fps spel?

Ja, alla snabba shooters ger synliga eftersläp på alla IPS-paneler och VA-paneler. Mest en fråga om var man lägger sin egen preferens. Där bör man välja en TN-panel med eftersläpsreducering ifall eftersläpsnivåerna är av högsta prioritet.

Permalänk
Medlem
Skrivet av Laxpudding:

Ja, alla snabba shooters ger synliga eftersläp på alla IPS-paneler och VA-paneler. Mest en fråga om var man lägger sin egen preferens. Där bör man välja en TN-panel med eftersläpsreducering ifall eftersläpsnivåerna är av högsta prioritet.

Tack!
Där avgjorde du att det blir en TN panel framöver 😁👌🏻

Skickades från m.sweclockers.com

Permalänk
Medlem

Någon input angående LG 34GK950G vs Alienware AW3418DW ?

Visa signatur

Workstation: i9-13900K @ 6.1 GHz - Asus Z790 ProArt - G.Skill 6400MHz 2x32 GB - Asus TUF 4080 16 GB
Samsung 990 Pro MVMe 1 TB - Kingston Renegade MVMe 4 TB - Asus 990 Pro NVMe 4TB
ASUS ROG Strix Aura 1000W - EK-Nucleus AIO CR360 - LianLi O11 Dynamic EVO
LG 38GL950G - Sound Blaster Katana V2X Soundbar - Corsair RGB Strafe - G-Wolves Sköll
Server: i7-6700K @ 4.2GHz - Asus Maximus VIII - Corsair DDR4 4x16 GB - Samsung 950 MVMe 256GB - Samsung EVO 1 TB

Permalänk
Medlem
Skrivet av jeppejc:

Tack!
Där avgjorde du att det blir en TN panel framöver 😁👌🏻

Skickades från m.sweclockers.com

Kan rekommendera XB272 så får du även GSync på köpet vilket kan vara trevlig. Vet inte om det kanske finns något ännu bättre idag. Större än 27" för FHD skulle jag nog inte rekommendera.

Permalänk
Medlem

Jag blev lite sådär nojjig nu.. Kanske värt o skippa 10bit och 24 mer hz o ta gsync.. I videon sägs de ju att färgerna är mer exakta i gsync varianten? Slipper massa buggar o så.. Idiotiskt egentligen att dem inte har 10bit där när andra skärmar med likadan modul har det..

Permalänk
Bildexpert 📺

@Hagge: Den gamla G-Syncmodulen har inte bandbredden för att köra 10-bitars. Kanske vid ≈85 Hz i teorin. Men det är inte ens säkert själva modulen hanterar en 10-bitars signal till att börja med. Och den nya modulen hade lagt på flera tusenlappar till priset och kanske krävt en fläkt.

Permalänk
Medlem
Skrivet av Laxpudding:

@Hagge: Den gamla G-Syncmodulen har inte bandbredden för att köra 10-bitars. Kanske vid ≈85 Hz i teorin. Men det är inte ens säkert själva modulen hanterar en 10-bitars signal till att börja med. Och den nya modulen hade lagt på flera tusenlappar till priset och kanske krävt en fläkt.

Vet inte om det är jag som underskattar problematiken kring GSync (VRR) men det känns lite 90-tal över GSync 1.0 modulen och att 2.0 modulen inte direkt heller imponerar om det måste till störande fläktar etc i något så stort som en skärm för att få till det. Kan dock förstå att det kanske finns en viss problematik i att det förmodligen är en standardmodul som ser likadan ut i en 24" som i en 43" skärm osv.

Permalänk
Bildexpert 📺

@improwise: Har inte koll på eventuella versionsnummer på G-syncmodulen, särskilt inte som det är en FPGA med antagligen tweakad firmware för egentligen varje skärm.

Med första G-syncmodulen "version 1" som inte hanterade ljud och endast hade en Displayport kom väl runt 2013 och version 2 av denna (med ljud och strypt HDMI samt "överklockning") kom kring 2015 på skärmar som Asus PG279Q m.fl. Denna modul var fram till i höstas den enda kretsuppsättning på marknaden som körde full DP 1.2/HBR2-hastighet och klev förbi 600 MHz pixelklocka.

Det är ju först nu, det senaste halvåret som någon annan än just Nvidias G-Syncmodul har lyckats köra mer än 600 MHz. Har svårt att se vad som skulle vara 90-tal med det?

Permalänk
Medlem

@Laxpudding: 90-tal som i betydelsen något som borde vara bättre än det är. Lite som att inte kunna köra ett tåg rakt fram på en egen räls 2019 när man kunde skicka folk till månen för 50 år sen Sen kan det som sagt vara så att jag underskattar prestandan osv som behövs för detta, kanske är svårare än vad jag fått för mig. Helt klart är det något som bromsar hela "spelskärmsmarknaden" där det talas länge om nya kommande skärmar men där dom sedan verkar försvinna under många års tid. Gissar att det kanske är pixelklockan/bandbredden som i praktiken är problemet, rätt meningslöst göra en skärm som kan allt om man ändå inte kan få över en sådan signal (eller saknar en GPU som kan skapa den).

Permalänk
Medlem

Får känslan av att det forfarande är 2015 modellerna Asus PG279Q och Acer XB271HU som är bland det bästa man kan köpa vilket även avspeglas i betygen båda dessa fått både här på Sweclockers och på andra ställen. Bra paneler med bra ljusstyrka, stabil överklockning till 165 hz osv. Inte utan problem så klart men samtidigt verkar dom inte ha några problem som inte andra liknande skärmar har. Ja, förutom storleken då, 27" är kanske inte så imponerande 2019. Men kanske att det är bättre att köra med flera 27" snarare än en större skärm....om än inte opimalt på något sätt med kanter och annat.

Permalänk
Medlem
Skrivet av Laxpudding:

@Hagge: Den gamla G-Syncmodulen har inte bandbredden för att köra 10-bitars. Kanske vid ≈85 Hz i teorin. Men det är inte ens säkert själva modulen hanterar en 10-bitars signal till att börja med. Och den nya modulen hade lagt på flera tusenlappar till priset och kanske krävt en fläkt.

En fråga då, hur kommer det säg att alla andra Gsync skärmar, UW, har 10bit?
Aw348dw
X34p
T.o.m. Asus pg348q som är 100hz men där kanske det stämmer med hz, men ändå?
Alla dessa har ju 10bit? 8+FRC då men ändå?

Permalänk
Medlem
Skrivet av Hagge:

En fråga då, hur kommer det säg att alla andra Gsync skärmar, UW, har 10bit?
Aw348dw
X34p
T.o.m. Asus pg348q som är 100hz men där kanske det stämmer med hz, men ändå?
Alla dessa har ju 10bit? 8+FRC då men ändå?

För att panelen är bättre än GSync modulen? I 950G (som denna tråd handlar om ) så är det ju en 144 hz panel som bara kan köras i 120 hz då GSync modulen påverkar. Dvs, ingen har väl fått 10 bitar att funka på AWn etc?

Permalänk
Medlem
Skrivet av improwise:

För att panelen är bättre än GSync modulen? I 950G (som denna tråd handlar om ) så är det ju en 144 hz panel som bara kan köras i 120 hz då GSync modulen påverkar. Dvs, ingen har väl fått 10 bitar att funka på AWn etc?

Jo, klart panelen är bättre här, eller aa, nyare. Men det är ju exakt likadan modul. Och min AW kunde jag byta till 10bit.. Så att LG inte implementerat 10bit handllar inte om modulen skulle jag tro? :S

Permalänk
Bildexpert 📺
Skrivet av Hagge:

Alla dessa har ju 10bit? 8+FRC då men ändå?

Två – tja – tre olika saker. Panelprecision, färgdjup i signalen samt källmaterialet.

10 bitar i form 8 bit+FRC är en specifikation, en pappersuppgift, på vad tillverkaren anser att själva LCD-panelen kan alstra nyanser med 8 bitars precision. Sedan kompletteras detta med temporala halvtonsmönster (FRC) för att approximera 10 bitars precision. Hur detta sedan blir i praktiken måste testas från fall till fall. Verkligheten befinner sig ganska ofta långt ifrån specifikationen. Men de här 34-tumspanelerna har det än så länge inte varit några synliga problem i alla fall.

10 bitar i signalen handlar om antalet nyanssteg i själva bildsignalen. Där räcker inte bandbredden till för att köra 10 bitar och 3440x1440 i 120 Hz med "gamla" G-syncmodulen.

Och det tredje är att 10 bitars precision i källmaterialet och mjukvara. Så gott som all mjukvara i Windows arbetar 8 bitars precision. Jag tror inte många eller ens några(?) spel renderas med mer än 8 bitars precision, texturer är i 8 bitars etc. Det verkar också som såväl Nvidia som AMD:s grafikkort håller sig till 8 bitars precision förutom i pro-korten, Radeon Pro, Quadro etc.

Det är egentligen först med HDR som källor med 10 bitars precision börjar bli brett tillgängliga.

Permalänk
Medlem
Skrivet av Laxpudding:

Två – tja – tre olika saker. Panelprecision, färgdjup i signalen samt källmaterialet.

10 bitar i form 8 bit+FRC är en specifikation, en pappersuppgift, på vad tillverkaren anser att själva LCD-panelen kan alstra nyanser med 8 bitars precision. Sedan kompletteras detta med temporala halvtonsmönster (FRC) för att approximera 10 bitars precision. Hur detta sedan blir i praktiken måste testas från fall till fall. Verkligheten befinner sig ganska ofta långt ifrån specifikationen. Men de här 34-tumspanelerna har det än så länge inte varit några synliga problem i alla fall.

10 bitar i signalen handlar om antalet nyanssteg i själva bildsignalen. Där räcker inte bandbredden till för att köra 10 bitar och 3440x1440 i 120 Hz med "gamla" G-syncmodulen.

Och det tredje är att 10 bitars precision i källmaterialet och mjukvara. Så gott som all mjukvara i Windows arbetar 8 bitars precision. Jag tror inte många eller ens några(?) spel renderas med mer än 8 bitars precision, texturer är i 8 bitars etc. Det verkar också som såväl Nvidia som AMD:s grafikkort håller sig till 8 bitars precision förutom i pro-korten, Radeon Pro, Quadro etc.

Det är egentligen först med HDR som källor med 10 bitars precision börjar bli brett tillgängliga.

Tack för förklaringen Uppskattas enormt

Permalänk
Medlem

Nu har TFT Central testat den nya firmware-versionen till 34GK950F och resultaten är oerhört positiva!

I artikeln kan man läsa att F-versionen med den gamla firmware hade en signalprocesslagg på 9.7ms. Med uppdaterat firmware uppmäts den nu till låga 0.2ms istället! Detta är alltså bara är 0.2ms sämre än G-modellen och en förbättring på hela 9.5ms!

Responstiden mäts till 8.2ms (G2G).

Så F-modellen presterar nu likvärdigt som G-modellen och har inte längre någon märkbar "input lag."

Det finns således inte längre någon större anledning till att köpa G-modellen såvida du inte har ett äldre Nvidia-kort som du inte planerar att uppgradera på länge (eftersom adaptiv synk inte fungerar på Nvidia-kort äldre än 10x-serien). Och såvida du inte gillar att betala ett par tusen extra för ljusringen på baksidan av skärmen.

Nu vet jag att Laxpudding noterat att färgerna är mer korrekta i G-modellen, men det tror jag inte nämns i TFT Centrals artikel, så vet inte hur omfattande det är (jag har inte läst hela artiklarna för F- och G-versionen sedan oktober så ni får kolla själva). Det är hur som helst inget jag personligen skulle värdera högre än övriga fördelar som F-modellen nu har när det kommer till spelande. Men det får väl varje köpare själv besluta om.

Artikeln från TFT Central kan f.ö. läsas i sin helhet här.

Permalänk
Medlem
Skrivet av Mortac:

Nu har TFT Central testat den nya firmware-versionen till 34GK950F och resultaten är oerhört positiva!

I artikeln kan man läsa att F-versionen med den gamla firmware hade en signalprocesslagg på 9.7ms. Med uppdaterat firmware uppmäts den nu till låga 0.2ms istället! Detta är alltså bara är 0.2ms sämre än G-modellen och en förbättring på hela 9.5ms!

Responstiden mäts till 8.2ms (G2G).

Så F-modellen presterar nu likvärdigt som G-modellen och har inte längre någon märkbar "input lag."

Det finns således inte längre någon större anledning till att köpa G-modellen såvida du inte har ett äldre Nvidia-kort som du inte planerar att uppgradera på länge (eftersom adaptiv synk inte fungerar på Nvidia-kort äldre än 10x-serien). Och såvida du inte gillar att betala ett par tusen extra för ljusringen på baksidan av skärmen.

Nu vet jag att Laxpudding noterat att färgerna är mer korrekta i G-modellen, men det tror jag inte nämns i TFT Centrals artikel, så vet inte hur omfattande det är (jag har inte läst hela artiklarna för F- och G-versionen sedan oktober så ni får kolla själva). Det är hur som helst inget jag personligen skulle värdera högre än övriga fördelar som F-modellen nu har när det kommer till spelande. Men det får väl varje köpare själv besluta om.

Artikeln från TFT Central kan f.ö. läsas i sin helhet här.

Innebär detta mindre chans till ghosting och eftersläp?!
Eller vad innebär detta exakt?

Skickades från m.sweclockers.com

Permalänk
Bildexpert 📺
Skrivet av jeppejc:

Innebär detta mindre chans till ghosting och eftersläp?!
Eller vad innebär detta exakt?

Att tiden från att en elektriskt bildsignal når skärmen till att det börjar omvandlas till fysiskt ljus har minskat ganska drastiskt.

Eftersläpen och ghosting kommer (bland annat) av trögheten i LCD-kristallerna som gör att det tar tid att gå från exempelvis svart till vitt. Denna har inte ändrats utan ligger kvar på samma nivå. Men fördröjningen, latensen, från att signalen når skärmen till att att LCD-kristallen faktiskt börjar vrida sig har minskat rejält.

Huruvida detta sedan påpekar hur du spelar och din upplevelse kan diskuteras. Det mesta av nuvarande evidens (det jag kan finna – jag är lekman, inte akademiker) pekar på att allt som sker inom ett fönster av 100 ms är för våra hjärnor ett och samma. Det vill säga att effekten här är främst en fråga om att placebo. Tester visar att det är bättre siffror, alltså tycker jag att skärmen blivit bättre. Men hade ingen berättat om de bättre siffrorna hade jag antagligen inte märkt något.

Jag tror dock att vi förändrat detta genom en hel del genom ihärdig spelande. Frågan är bara hur mycket? Jag är skeptiskt till att denna förbättring går att påvisa på något sätt genom kontrollerade studier. Mer forskning behövs. Som alltid.

Permalänk
Medlem
Skrivet av Laxpudding:

Att tiden från att en elektriskt bildsignal når skärmen till att det börjar omvandlas till fysiskt ljus har minskat ganska drastiskt.

Eftersläpen och ghosting kommer (bland annat) av trögheten i LCD-kristallerna som gör att det tar tid att gå från exempelvis svart till vitt. Denna har inte ändrats utan ligger kvar på samma nivå. Men fördröjningen, latensen, från att signalen når skärmen till att att LCD-kristallen faktiskt börjar vrida sig har minskat rejält.

Huruvida detta sedan påpekar hur du spelar och din upplevelse kan diskuteras. Det mesta av nuvarande evidens (det jag kan finna – jag är lekman, inte akademiker) pekar på att allt som sker inom ett fönster av 100 ms är för våra hjärnor ett och samma. Det vill säga att effekten här är främst en fråga om att placebo. Tester visar att det är bättre siffror, alltså tycker jag att skärmen blivit bättre. Men hade ingen berättat om de bättre siffrorna hade jag antagligen inte märkt något.

Jag tror dock att vi förändrat detta genom en hel del genom ihärdig spelande. Frågan är bara hur mycket? Jag är skeptiskt till att denna förbättring går att påvisa på något sätt genom kontrollerade studier. Mer forskning behövs. Som alltid.

Tack för en underbar förklaring!
När du testade skärmen var det tydlig eftersläp vid fps spel?

Sitter i valet och kvalet angående att köpa skärmen då jag nyligen köpte en asus 32VQ som jag snabbt fick returnera pga väldiga eftersläp, på denna skärm var det nästan som vilden blev suddig när du tex snurrade runt i Call of Duty

Skickades från m.sweclockers.com

Permalänk
Bildexpert 📺
Skrivet av jeppejc:

När du testade skärmen var det tydlig eftersläp vid fps spel?

Tydliga eftersläp jämfört med vad?

Orsaken till att jag föredrar UFO:t på https://www.testufo.com/ghosting är att vem som helst kan jämföra med sin egen skärm. Så jämför dessa med din skärm och avgör åt vilket håll det drar:

Permalänk
Medlem
Skrivet av Laxpudding:

Tydliga eftersläp jämfört med vad?

Orsaken till att jag föredrar UFO:t på https://www.testufo.com/ghosting är att vem som helst kan jämföra med sin egen skärm. Så jämför dessa med din skärm och avgör åt vilket håll det drar:

https://cdn.sweclockers.com/artikel/bild/68076?l=eyJyZXNvdXJjZSI6IlwvYXJ0aWtlbFwvYmlsZFwvNjgwNzYiLCJmaWx0ZXJzIjpbIndtIiwidD1vcmlnaW5hbCJdLCJwYXJhbXMiOltdLCJrZXkiOiI2MGQxZWY2ZDVjYzNmM2E1ODRlNTE4MTFjMTFiMjI5NSJ9

I jämförelse med Asus 32VQ, där det var väldigt tydliga eftersläp.

Permalänk
Medlem
Skrivet av jeppejc:

I jämförelse med Asus 32VQ, där det var väldigt tydliga eftersläp.

Nu har jag ingen 32VQ men det bör väl även påpekas att inställningar i skärm och dator kan påverka detta.

Permalänk

Nu har jag fått använt min skärm tillräckligt mycket för att kunna ge mitt första intryck av den.
Jag har en LG34GK950G.
Först av allt så är jag grymt nöjd med storleken, känns riktigt nice vid spel o redigering av film.
(lite ovant med så stor panel sedan jag gick från en ASUS 24" VG248QE 144Hz").

När det kommer till spelandet/färgåtergivning/uppdateringsfrekvens/eftersläpningar etc etc..
Med handen på hjärtat kan jag ej se något negativt överhuvutaget med min skärm.

Vid spelande i BF5(enda spelet jag lirar)med 120mhz, ULTRA 3440x1440 med DX12 så har jag en riktigt flytande bra/skarp upplevelse av vad jag ser framför mig, upplever Inga eftersläpningar.

Vid videoredigering/bild hantering så finns det inte heller här något negativt att säga enligt mig,
i jämnförelse med min föregående skärm så är detta ett J-VLA lyft för min del.
Färgåtergivning känns mycket bättre i alla anseenden.
För att inte prata om storleken som gör allt mycket lättare för ändamålet.

Skärmens meny är väldigt enkel att använda och man kan spara 2st olika profiler om så vill.
Det finns några förvalda profiler att välja på som snabbt ger en bekvämare slösurf/läsnings upplevelse så man slipper anstränga ögonen så mycket som i "Gaming profilerna med högre contrast"

Skärmen har en riktigt snygg RGB belysning på baksidan där man kan välja bland flertalet färger och rörelse mönster, det går att justera ljusstyrka och det går även att stänga av den helt om så önskas.

Det enda "negativa" som jag kan tänka mig att andra kan klaga på är det så kallade "ips glow".
Har denna IPS GLOW? Svar ja, jag har det mästadels i hörnena på vänster sida.
Detta är dock inget jag ser överhuvudtaget vid min typ av användning så jag har aldrig riktigt
förstått problematiken eller vad det är som stör vid användning/endamålet av skärmen?
Hur som, smaken är som baken, delad.

Skärmen står även riktigt stabilt på sin deskreta spagat liknande V-fot.
Själva infästningen från foten/juster halsen som fästs i skärmen känns dock si sådär kvalitetsmässigt måste jag medge, var riktigt nojig att den skulle lossna i början men har insett att detta inte är någonting att ora sig för men hade uppskattat om det faktiskt fanns skruvhål som var avsett för just detta, att fästa fast skärmen i foten, nu är det något glappigt "klick-in-system".

Vad mer kan det finnas att säga om skärmen...
Förutom att jag är riktigt jävla apnöjd med inköpet av just denna skärm så tycker väl jag att prislappen är lite väl saftig, tycker dock det är värt det om man råkar ha råd just den månaden.
Denna skärmen mötte iallafall alla mina förväntningar och mycket mer där till.
Aloha!

Visa signatur

Ninja Turtle Power, OYEAH!

Permalänk
Medlem

Känns så orättvist när man ser att skärmen finns i lager överallt i USA och är "on sale" just nu för $799 (~7500 kr). Suck.

Permalänk
Medlem
Skrivet av Mortac:

Känns så orättvist när man ser att skärmen finns i lager överallt i USA och är "on sale" just nu för $799 (~7500 kr). Suck.

Dock är det väl som tidigare konstaterat att man inte kan jämföra priser rakt av med USA men visst, både prissättning och lagersituation i Sverige kan förbättras. Om jag minns rätt så har LG tidigare knappt funnits på svenska marknaden i form av att sälja monitorer, har för mig att @laxpudding ryat om svårigheterna att få testexemplar tidigare.

Permalänk
Bildexpert 📺

800 dollar plus moms blir ungefär en 9500 kronor med moms - inte helt orimlig pris ifall LG skulle få för sig liknande kampanj i Norden. Vilket inte verkar vara inom synhåll med tanke på tillgängligheten.

@improwise: Stämmer - det var först under 2018 LG Norden valde att börja med datorskärmarna på nytt. Vilket i praktiken verkar gå lite sådär.

Permalänk
Medlem
Skrivet av Laxpudding:

800 dollar plus moms blir ungefär en 9500 kronor med moms - inte helt orimlig pris ifall LG skulle få för sig liknande kampanj i Norden. Vilket inte verkar vara inom synhåll med tanke på tillgängligheten.

@improwise: Stämmer - det var först under 2018 LG Norden valde att börja med datorskärmarna på nytt. Vilket i praktiken verkar gå lite sådär.

Det skapar ju lite oro kring hur det är med reservdelar osv om något skulle gå fel. LG som företag finns ju väl etablerat men om typ ingen där jobbar med skärmar på riktigt kan det bli en del svettiga servicerundor föreställer jag mig (ren gissning dock).

Permalänk
Medlem

Och där blev datumet framflyttat en månad till. Nu är det mitten av april som gäller. Funderar allvarligt på att avbeställa skärmen faktiskt.

Permalänk
Medlem

Amazon.de har skärmen listad (ej i lager) för knappt 10.400 kr inkl. frakt.
Bör väl rimligtvis vara så att Amazon får skärmarna tidigare, eller som senast samtidigt som Inet?