LG Ultragear 27GL850 är nästa skärmtest

Har haft mitt exemplar liggandes i lådan i 3 veckor nu. Väntar bara på den 17:e då min 3900x kommer från Elgiganten. Sjukt intressant för övrigt att Elgiganten valde att sänka priset på bägge dessa produkter med ca 700 jämfört med nästa billigaste alternativ. Bägge två var restade när jag la beställningen, känns som att de inte har problem med att sälja produkterna ändå.

Har lagt en beställning på skärmen som beräknas anlända runt den 27 december från Elgiganten. Är sjukt tagged men lite orolig kring den relativt låga kontrasten i förhållande till många andra monitors på marknaden. Vore intressant om ni kunde kika lite närmare på just kontrasten och eventuellt göra en jämförelse med andra liknande skärmar som Asus PG279Q/PG279QE, Asus VG27AQ och Lenovo Y27q-20 (samma panel).
Vidare vore det intressant om ni kunde ge lite tips på vilka inställningar/funktioner/profiler som ni rekommenderar man bör använda för att få ut det mesta av skärmen! Typ vad man ska justera för att optimera skärmen för fps, bildredigering, filmtittande m.m.
Det skulle uppskattas om ni även kunde ta reda på lite mer info kring hur de olika revisionerna som skärmen släppts i skiljer sig från varandra!

Sjukt nöjd med min, ett av mina bättre monitorköp någonsin, ska bli kul att se vad ert omdöme blir!

Skrivet av FluxReaver:

Har lagt en beställning på skärmen som beräknas anlända runt den 27 december från Elgiganten. Är sjukt tagged men lite orolig kring den relativt låga kontrasten i förhållande till många andra monitors på marknaden. Vore intressant om ni kunde kika lite närmare på just kontrasten och eventuellt göra en jämförelse med andra liknande skärmar som Asus PG279Q/PG279QE, Asus VG27AQ och Lenovo Y27q-20 (samma panel).
Vidare vore det intressant om ni kunde ge lite tips på vilka inställningar/funktioner/profiler som ni rekommenderar man bör använda för att få ut det mesta av skärmen! Typ vad man ska justera för att optimera skärmen för fps, bildredigering, filmtittande m.m.
Det skulle uppskattas om ni även kunde ta reda på lite mer info kring hur de olika revisionerna som skärmen släppts i skiljer sig från varandra!

Kan bara instämma.
En liten inställningshjälp eller rent av guide, gärna med era egna settings vid testet vore sjukt uppskattat.

@laxpudding

Jag skulle gärna vilja vet om NULL har någon effekt. På gsync med modul och även gsync utan modul eller fungerar det enbart med de som har modul?
Jag upplever själv någon form av förbättring, men är det inbillning är frågan?

"
How To Enable NVIDIA NULL For G-SYNC Monitors Correctly
Here is the proper method to enable NVIDIA NULL correctly for G-SYNC monitors :

Download and install GeForce Game Ready 441.08 driver or newer.
Open the NVIDIA Control Panel, and click on Manage 3D settings.
Scroll down the Global Settings tab to Low Latency Mode.
When you click on the options, you will have three choices :
Off : The game’s engine will automatically queue 1-3 frames for maximum render throughput
On : Limits the number of queued frames to 1
Ultra : Submits the frame just in time for the GPU to start rendering
Select the Ultra option for NVIDIA NULL
NVIDIA Control Panel NULL enable

Scroll down to Vertical Sync and select On.
NVIDIA V-SYNC enable

Navigate to Set up G-SYNC on the left navigation list of the NVIDIA Control Panel.
NVIDIA GSYNC setup

Enable G-SYNC for both windowed and full screen mode.
Note : If your monitor supports both G-SYNC and ULMB, make sure G-SYNC is selected under the Monitor Technology drop-down list in Manage 3D settings.
In your games, you must disable V-SYNC. This will allow the NVIDIA Control Panel to correctly enable NULL for your G-SYNC monitor.
That’s it! Now you can enjoy ultra low latency response times with a tear-free gaming experience on your G-SYNC monitor!
"

Skrivet av Laxpudding:

Det fungerar för att tydliggöra skillnaden mellan två skärmar. Men fungerar aldrig för att ge en objektiv jämförelse. Du kan aldrig med en normal kamera få ett linjärt förhållande i den opto-elektriska omvandlingen.

Eller ja – du kan. Fast då är de inte en kamera utan ljusmätare och sådan äger jag en he dell av. Men det är inte kameror. Och viceversa.

Förr låste man alltid mot grå kort när man fotade manuellt. Men idag med digitala omfånget struntar man i att kameror läser snön grå mm. Har ni ingen gammal tävlingsfotograf på redaktionen som kan zonsystemet och förstår att utnyttja det?

@grahnen: Ultra low latency/Maximum Pre-Rendered Frames-funktioen med Nvidia är ett intressant uppslag. Fast mer av vikt för individuella speltitlar och egentligen inget för skärmarna som sådan. Detta handlar om vad som sker innan bilden blir en signal som skickas över till skärm.

Nästan alla spelskärmar idag har latenser en bra bit under 10 ms, så det är tydligt att problemet inte längre ligger i skärmen utan just allt som sker innan det når skärmen:

https://www.techarp.com/computer/nvidia-null-g-sync-guide/

Senast redigerat 2019-12-10 21:49

@nikitalord: Du missar en fundamental sak här. Gråkort handlar om att finna rätt belysning och exponering av belysta föremål. Gråkort används när du fotograferar ett motiv och hur motivet reflekterar ljuset från vanligtvis studiolampor. Jag har till exempel gråkort framme i merparten av mina videos jag lägger upp här.

Gråkort kan inte på något sätt användas när du plåtar av en skärm. Du fotograferar rakt in i ljuskällan. Ljuskällan är motivet.

Slutresultatet alltid bli godtyckligt baserat på kamerans opto-elektriska respons, men också postprocessningen av bilden och hur den reproduceras och den elektro-optiska responsen du har på varje skärm där. Du kan inte ens med en perfekt sRGB-EOTF representera hur ögat kommer uppfatta svart på två skärmar.

Plåtar man "svart" på en skärm så kommer det inte att alstra samma nivåer eftersom den är kombination av ljusstyrka, kontrastförhållande och hur ljuset läcker igenom i vinklar, vilket i sin tur uppfattas olika av kamerans konstruktion och optiken som används. Fotografering är alltid ett godtyckligt och begränsat urval av det ljus som finns.

Men också reproduktionen är problematiskt eftersom det är omöjligt att återskapa den situation som råder när bilden tas.

Två skärmar återger svart olika. Ifall en av dem lyser i svart med 0,35 nits (350 nits på typisk IPS md 1000:1) och den andra med kanske 0,47 nits (346 nits på 735:1 enligt rtings.com test av 27GL850) kommer detta godtyckligt registreras i kamerasensorns till olika nivåer baserat på kamerans OETF. För att sedan omvandlas godtyckligt baserat på exponeringen och den postprocessning fotografen valt. För att sist lika godtyckligt reproduceras på skärm.

Den här bilden på rtings på ojämnheterna har ett väldigt ljus bildinnehåll och kommer att lysa med allt från kanske 10 till 70 nits helt beroende på vilken skärm du tittar på och hur den är inställd. Finns inte en chans i världen att detta kan representera hur 0,35 respektive 0,47 nits uppfattas av ögat på plats.

Så man använder den här typen av bilder endast för att exemplifiera skillnader. Av pedagogiska skäl. Björntjänsten från rtings.com är att de presenterar det ett sätt som gör att det tolkas som en absolut jämförelse. Men det kommer aldrig* att finnas några absoluta jämförelser alstrade av en vanlig kamera som du sedan kan betrakta på en skärm.

*Tja, en dag kanske vi har kameror som fångar ljus helt perfekt OETF enligt PQ med minst 14 bitars luminansnivåer som sedan reproduceraspå skärmar med lika perfekt PQ-EOTF. Då kanske man kan lyckas. Dream on.

Senast redigerat 2019-12-10 21:51

@Laxpudding: Tror vi har lite olika bakgrund, men som du vet ser kameran alltid 18% grått om nu inte något hänt på den fronten de senaste 20 åren. Exponera, lås, fota och resultat blir bättre och mer rättvisande än att köra någon form av godtycklig exponeringsautomatik som kommer ändra sig efter ljuskällan. Men vi lämnar detta.
Jag ser fram mot skärm testerna hoppas fortfarande på någon jämförelse med något alternativ tex Benq som tex Inet, Atea mfl får in i lager imorgon.

@Laxpudding:
Som nämnts tidigare (Acers xb270hu eller xb271hu) eller ( Asus PG279Q) som kör typ samma panel, lite olika rev. möjligen. Frågan är hur denna ställer sig till dessa.

Hur bra fungerar gsync "compatible" jämfört med dessa som har en modul i sig av äldre generation. Vilket "hz omfång" har gsync och freesync på denna.

Det är smidigt att inte vara låst till nvidia, men fungerar det lika bra som dessa äldre skärmar som nämndes ovan. Nvidia NULL fungerar det eller måste det vara en modul i.

Har funderat pa ett par av 32versionen av denna. Sa ser fram emot den har videon!

Skrivet av Laxpudding:

Däremot tar jag gärna bilder av det slaget för att illustrera och förtydliga något jag observerar. Likt för artikeln ovan. Men aldrig i syfte att skapa någon slags objektiv jämförelse. För då lurar man såväl sig själv och läsarna.

Det var främst detta jag var ute efter.
Du tar en bild, observerar hur det ser ut IRL. Justerar bilden så att den ser ungefär likadan ut.
Så att man vet lite i förväg vad man ger sig in på när man köper en skärm.
Det finns såklart många olika paneler, men jag tänker att om ni skickar upp en bild som är ljusjusterad, samtidigt som alla andra reviewers världen över gör samma sak (vilket de flesta redan verkar göra) så kan man fatta sin egna bild efter det.

Objektivt eller ej. Man ser stor skillnad mellan paneler, även om det inte är exakta representationer över verkliga livet.

Obs, jag tänker specifikt på backlight bleed och inte att framhäva IPS-glow på de paneler som har IPS.

Skrivet av omnia:

Har funderat pa ett par av 32versionen av denna. Sa ser fram emot den har videon!

Är dom på ingående? 32" vore väldigt trevligt.

Skrivet av huttala:

Du tar en bild, observerar hur det ser ut IRL. Justerar bilden så att den ser ungefär likadan ut.

Även känt som 100% godtycke.

Jag förstår vad du är ute efter, men jag säger att man riskerar skapa ett falskt intryck av att någonting är mer än vad det kan representera. Jag betraktar det som en björntjänst när folk börjar exponera bilder så som det ser ut på rtings i hopp om att dra slutsatser om vad man får på sin färdiga produkt och hur det ser ut på plats hemma på skrivbordet.

Skrivet av nikitalord:

@Laxpudding: Tror vi har lite olika bakgrund, men som du vet ser kameran alltid 18% grått om nu inte något hänt på den fronten de senaste 20 åren. Exponera, lås, fota och resultat blir bättre och mer rättvisande än att köra någon form av godtycklig exponeringsautomatik som kommer ändra sig efter ljuskällan. Men vi lämnar detta.

Det du skriver applicerar inte på situationen – och jag pratar om att låsa exponeringen i kameran vilket jag tydligt visade i tidigare postning. Kameran är fortfarande godtycklig baserat på dess opto-elektriska egenskaper som garanterat inte matchar vår syn. Fotografering är per definition alltid ett godtycke.

Men det är lugnt, jag har riktat kameror mot skärmar i över 15 år för det är en del av mitt jobb. Och lärt mig hur lite av klassiska gamla fotograknep som faktiskt är relevanta för situationen. Och måste hela tiden förklarar varför en kamera inte är ett mätverktyg. För väldigt många är bekväma med sin fotografkunskaper och (lite för) bekväma i sin tillit till kameran. Jag har lärt mig att inte vara det.

Skrivet av Klurig:

En liten inställningshjälp eller rent av guide, gärna med era egna settings vid testet vore sjukt uppskattat.

Det kommer en komplementerande artikel med genomgång av menyerna och användningen!

Exponera först på reflekterande ljus ut från skärmen på betraktar avstånd grå kort eller liknande, lås vänd fota om monitorn , kameran ser då det ögat såg .Ev kan fördel vara att köra exponeringen svartvit i en jämförelsen. Att bara godtyckligt fota och lägga upp bilder som man sett på forumen är lika dumt som att tro man kan fota solen eller annan ljuskälla. Så håller med godtyckligt omdöme är nog bättre än felaktiga bilder som bara skrämmer upp tänkta köpare.

Skrivet av Laxpudding:

Det du skriver applicerar inte på situationen – och jag pratar om att låsa exponeringen i kameran vilket jag tydligt visade i tidigare postning. Kameran är fortfarande godtycklig baserat på dess opto-elektriska egenskaper som garanterat inte matchar vår syn. Fotografering är per definition alltid ett godtycke.

Men det är lugnt, jag har riktat kameror mot skärmar i över 15 år för det är en del av mitt jobb. Och lärt mig hur lite av klassiska gamla fotograknep som faktiskt är relevanta för situationen. Och måste hela tiden förklarar varför en kamera inte är ett mätverktyg. För väldigt många är bekväma med sin fotografkunskaper och (lite för) bekväma i sin tillit till kameran. Jag har lärt mig att inte vara det.

Såg inte att du svarat samtidigt jag skrev har tyvärr ingen utrustning längre sålde av allt i slutet av 90 talet ev finns en lite sony i familjen som går att låsa, blir tid över kanske ett experiment görs på några dell 27 u serien

Skrivet av nikitalord:

Exponera först på reflekterande ljus ut från skärmen på betraktar avstånd grå kort eller liknande, lås vänd fota om monitorn, kameran ser då det ögat såg

Nej, det är inte alls så en kamera fungerar. Testa själv och se hur bra glow/bleeding-bilder du tar med den metoden...

Tyvärr inbillar sig många (alldeles för många) att kameror är som våra ögon eller ännu värre: inbillar sig att kameran är en absolut avbildare av verkligheten.

En kamera är inte byggd efter att spegla vår synförmåga. Den är inte byggt för att fånga ljuset i absoluta termer. Det är alltid ett urval. Du har alltid ett godtycke i en kamera. Det enda du åstadkommer som kunnig fotograf är att flytta godtycket någon annanstans, ned i tekniken, sensorer, optik och algoritmer i kameran – eller filmtypens responskurva i en analog kamera. Samt hela vägen tillbaka när bilden dessutom ska reproduceras på någon annans skärm.

Vilket är finemang när man ska plåta motiv eftersom den användningen per definition är en godtycklig process.

Skrivet av Laxpudding:

Nej, det är inte alls så en kamera fungerar. Testa själv och se hur bra glow/bleeding-bilder du tar med den metoden...

Tyvärr inbillar sig många (alldeles för många) att kameror är som våra ögon eller ännu värre: inbillar sig att kameran är en absolut avbildare av verkligheten.

En kamera är inte byggd efter att spegla vår synförmåga. Den är inte byggt för att fånga ljuset i absoluta termer. Det är alltid ett urval. Du har alltid ett godtycke i en kamera. Det enda du åstadkommer som kunnig fotograf är att flytta godtycket någon annanstans, ned i tekniken, sensorer, optik och algoritmer i kameran – eller filmtypens responskurva i en analog kamera. Samt hela vägen tillbaka när bilden dessutom ska reproduceras på någon annans skärm.

Vilket är finemang när man ska plåta motiv eftersom den användningen per definition är en godtycklig process.

Kan man inte räkna vad du ser på skärmen som godtycke då också i så fall?

Jag tittar på skärmen, som visar en svart bild. Tar kort på den. Justerar bilden lite efter ögonen. Tycker själv att det ser ungefär likadant ut som när jag tittar på skärmen i verkligheten (specifikt där det läcker bakgrundsljus, vilket jag tror är det folk vill se).
Då stämmer mina godtyckliga ögon överense med mitt godtyckliga foto.

Allt behöver ju inte vara 100% tekniskt exakt.

Ska man vara så petig kan du ju slänga alla färgkontroller åt skogen också med tanke på att det är felmarginaler på varenda panel och den du har för test kanske är jättebra medan andra är sämst, det är felmarginaler i din kalibrator, din kalibrator kan vara för gammal, ljuset i omgivningen kanske råkar störa kalibratorn, med mera. Du kan slänga alla foton du tar på ghosting åt skogen med, för du kanske tog det vid fel tillfälle i fel vinkel, det blir godtycke.
Ja... Det blir ju inte mycket kvar att recensera egentligen när det gäller skärmar.

Känns som man kan faktorera in "godtycke" i precis allt när man lägger sig på den nivån.

("aningen" sarkasm nedan)
Säg som det är. Du orkar inte med allt folk som kommer ta kort på skärmen i efterhand och säga att den är kass för att de tagit kort med mobilkameran och haft max ljusstyrka på skärmen i ett svart rum.
Bilden ser ju inte alls ut som den sweclockers tog, SKANDAL!! Sen får du massvis med frågor varför du fuskat med bilderna du tagit.

PS. Jag förstår varför du inte vill ta dessa bilder, men orsaken du lägger upp känns omotiverad.
PS2. Ja jag vet att jag är jobbig. Men såg att ni fortsatt diskutera kameratekniker så tänket att varför inte glida vidare i diskutionen.

Senast redigerat 2019-12-11 12:45

@huttala: lämnar tråden börjar nörda ner sig likt denna tråd vilket inte gagnar någon. https://www.sweclockers.com/forum/trad/1575816-knackande-ljud... undrar hur det gick efter alla goda råd.

@huttala: Kameran fungerar utmärkt för att illustrera skillnader som exemplifierar observationer du gör. Så länge man håller bilderna på den nivån och ambitionen är det fungerande pedagogiskt verktyg. Till exempel UFO-bilderna. De är inte absoluta jämförelser utan illustrerar effekten mellan de olika overdrive-lägena.

Poängen med att mäta färg är inte att skapa en absolut bild av hur varje skärms färgåtergivning ser ut. Utan är ett sätt se hur apparaten fungerar och vad man kan göra åt de problem som exemplaren visar upp. Mätningar är heller inga absoluta sanningar de heller. Däremot är det kvantifierade och därmed jämförbara storheter, inklusive kvantifiering av felmarginalerna till delta-E-nivåer.

Mäter man 0,45 nits i svärtan och 0,37 nits i hörnet på samma skärm så har man jämförbara storheter. Svärtan är 21,6% sämre i hörnet. Skärmen som kan lysa 400 nits är 25% ljusstarkare än den som mäter 300 nits. Och så vidare.

Den slutsatsen kan du inte dra från ett fotografi som är godtyckligt överexponerad. Vilket är problemet jag har med bilder på BLB-blödningar och Glow: de är alltid är överexponerade för att skillnaderna ska kunna synas på skärm. Själva bilden som rtings visar är en falsifiering av verkligheten.

Och min erfarenhet efter att ha testat falsifierade bilder av exakt just den typen är att det som först verkade vara en bra idé inte alls fungerade i praktiken. Jag tänker inte göra om samma misstag igen.

BLB is in the eye of the beholder.

Skrivet av nikitalord:

BLB is in the eye of the beholder.

Onekligen!

Jag är ganska fascinerad över all den energi det läggs på att leta efter ett specifikt fel, ställa in skärmarna på högsta ljusstyrka i mörkaste rummet, köra svarta testbilden, ta bilder som överexponerar allt och slutligen, dela med sig av bilderna och diskutera problemet man just lade någon timme eller två på att finna.

@Laxpudding: Håller fullt med lite som vissa ser inte skogen för alla trän som står iväg.
Kan det tänkas komma någon test av skärmen jag tjatar om, velar starkt på att skippa julklappar (avboka) som ändå inte nu troligen levereras förrän nästa år enl EG. Litar ju mer på dina recensioner än youtubarna.
https://www.youtube.com/watch?v=urAAAJMDpgY

Skulle vara så sjukt intressant och se en jämförelse mot VA paneler. Exempelvis LG 32GK650F, 850F och AOC CQ32G1. Står i valet o kvalet

Denna fråga kanske inte är relaterad till bara denna skärm, men hur fungerar VRR med flera olika skärmar? Blir frame rate olika mellan skärmar om olika program körs i full screen på respektive skärm?

Skickades från m.sweclockers.com

@Tobi the Dobi: VRR i sig påverkar inte frame rate eller antalet FPS, utan är en synkroniseringsmetod. Kör man fullscreen vs fönster (in windows) får man ofta olika siffror. Men det har inte med VRR att göra.