Asus ROG Swift PG27UQ: Stora kompromisser vid 144 Hz i 4K-upplösning

Permalänk
99:e percentilen
Skrivet av str8forthakill:

@Alling:
Dessa gaming skärmar klarar alla sina funktioner och full bildkvalitet vid 144Hz dock,

Det är ju direkt felaktigt. PG278Q har stöd för ULMB (vilket också framhävdes i marknadsföringen), men inte i 144 Hz. Och G‑Sync och ULMB fungerar aldrig samtidigt; är PG278Q därmed en … 0 Hz-skärm eftersom det inte finns någon uppdateringsfrekvens där alla funktioner stöds?

Citat:

PG27UQ klarar endast att leverera sin fulla bildkvalitet vid 82Hz. Lite orättvist mot resten av skärmarna att påstå något annat.

Det är bra att de trycker teknologin framåt, det som inte är bra är att de tryckte den så långt fram att slutprodukten inte blev vad som utlovats pga avsaknad av nästa generations DP/HDMI. Har skärmen ens stöd för framtida DP/HDMI standarder? Eller är det en permanent kompromissad produkt?

Är inte heller nöjd med PG27UQ. Dock håller jag inte med om att det är strikt dåligt att de pressat tekniken så långt att kompromisser tvingats göras. Koreaskärmarna var ett liknande fenomen då det begav sig för en handfull år sedan: De krävde DVI Dual Link för att överhuvudtaget fungera, saknade scaler och OSD samt hade bara en enda videoingång. Och framförallt, bara vissa exemplar kunde köras i 120 Hz (med vissa grafikkort och kablar).

Men de levererade (betydligt) högre upplösning än 1080p i (betydligt) högre uppdateringsfrekvens än 60 Hz innan det fanns ”på riktigt”. Tycker det är kul att det åtminstone finns möjlighet för den som vill att prova spjutspetsteknologi/-prestanda, även om det innebär kompromisser.

Tycker däremot att marknadsföringen av PG27UQ är missledande.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem

@laxpudding

3440 x 1440 x 200hz + hdr

Har jag förstått det rätt?
Kommer det inte fungera så bra eller räcker bandbredden till här om man vill köra RGB?
Teoretiskt undrar jag, skärmen har ett tag till den kommer och saker kan hända givetvis.

Syftar på asus pg35vq som ni förstår.

edit:
Såg ditt svar nu i tidigare inlägg 200hz ej hdr och ca 160hz hdr

Permalänk
Medlem

HDMI 2.1 med VRR känns mer lockande än Displayport 1.4 med nVidias GSync.
https://www.anandtech.com/show/12997/hdmi-forum-demonstrates-...

Och håller tummarna för att 2019 år modeller av LG Oled stödjer 120Hz med VRR ända ner till 24Hz, HDR10+ på det så är man hemma.

Permalänk
Medlem

"Denna klippning sker vid digital gräns 10–25 beroende på inställning och inträffar med alla YCbCr-signaler och subsamplingsnivåer. Det sker också över HDMI. Detta verkar vara ett konverteringsfel i hur skärmen expanderar om videoomfånget (16-235) i en YCbCr-signal till det 0-255-omfång som en dator använder."

Det här var ju inte så jävla skickligt får jag säga... jag menar vissa kompromisser förväntade jag mig men det där är ju helt klart ett konstruktionsfel.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem
Citat:

Detta verkar vara ett konverteringsfel i hur skärmen expanderar om videoomfånget (16-235) i en YCbCr-signal till det 0-255-omfång som en dator använder.

Ingen som reagerat på att 0-255 omfång = 8 bitar
Om nu detta är något som sker i skärmen, så kan man ju anta att skärmen helt enkelt kör 8 bitar. Det finns ju ingen anledning till att detta skall påverka en HDR signal, då 8 bitar inte ens är inblandade. Det verkar ju väldigt märkligt om skärmen skulle gå en omväg via 8 bitar av misstag, lixom?

edit : eller är det helt enkelt testat med 8 bitars material?

Permalänk
Medlem
Skrivet av Alling:

Det är ju direkt felaktigt. PG278Q har stöd för ULMB (vilket också framhävdes i marknadsföringen), men inte i 144 Hz. Och G‑Sync och ULMB fungerar aldrig samtidigt; är PG278Q därmed en … 0 Hz-skärm eftersom det inte finns någon uppdateringsfrekvens där alla funktioner stöds?

Är inte heller nöjd med PG27UQ. Dock håller jag inte med om att det är strikt dåligt att de pressat tekniken så långt att kompromisser tvingats göras. Koreaskärmarna var ett liknande fenomen då det begav sig för en handfull år sedan: De krävde DVI Dual Link för att överhuvudtaget fungera, saknade scaler och OSD samt hade bara en enda videoingång. Och framförallt, bara vissa exemplar kunde köras i 120 Hz (med vissa grafikkort och kablar).

Men de levererade (betydligt) högre upplösning än 1080p i (betydligt) högre uppdateringsfrekvens än 60 Hz innan det fanns ”på riktigt”. Tycker det är kul att det åtminstone finns möjlighet för den som vill att prova spjutspetsteknologi/-prestanda, även om det innebär kompromisser.

Tycker däremot att marknadsföringen av PG27UQ är missledande.

Dock kostade inte Korea skärmarna multum som denna Asus skärm, så då är det okej om allt inte var 100%.
Själv tycker jag Asus kör med falsk alternativ ful marknadsföring av den här skärmen, och priset på 25K är skrattretande, framförallt när den inte klarar allt som den lovar.

Visa signatur

Samsung Odyssey G9 240Hz HDR1000 5120x1440 9900K 5,3GHz 1,335v adaptive Asus Z390-I
Asus RTX 2070 Dual EVO Advanced 8GB G.Skill Trident Z RGB B-Die 3200MHz CL16 2x16GB Samsung 970 Evo 1TB
Seasonic Focus Plus Gold 850W 2 x Dell U2715H Corsair K65 Speed SteelSeries Rival 500 Bose Companion 5
Secretlab TITAN 2020 SoftWeave Corsair H100i RGB Platinum Noctua NF-A12x25 x 4 PnP Neo G Mini GB4: 6869 CB15: 233

Permalänk
Medlem

Kung Thomas! Kollar varje video som han publicerar. Man förstår hälften men man lär sig otroligt mycket. Pedagogiskt och lärorikt.

Skål och Glad Midsommar alla!

Visa signatur

Intel i7-4790K | Palit GeForce GTX 1080 Super Jetstream | Noctua NH-D15 | Corsair Vengeance Low Profile 32GB DDR3 PC3-12800 | Samsung SSD 840 EVO 250 GB | Asus Z97-A

Permalänk
Medlem

Jag har gett upp gällanded HDR i Windows för tillfället, tills microsoft fixar till funktionen så den aktiveras dynamiskt baserat på vilken signal appen/programmet skickar. Det är så sjukt dåligt att behöva slå på HDR globalt i windows nu och leva med deras värdelösa SDR->HDR convertering så att allt annat content ser ut som skräp.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av Lordsqueak:

Ingen som reagerat på att 0-255 omfång = 8 bitar
Om nu detta är något som sker i skärmen, så kan man ju anta att skärmen helt enkelt kör 8 bitar. Det finns ju ingen anledning till att detta skall påverka en HDR signal, då 8 bitar inte ens är inblandade. Det verkar ju väldigt märkligt om skärmen skulle gå en omväg via 8 bitar av misstag, lixom?

edit : eller är det helt enkelt testat med 8 bitars material?

HDR kräver väl 10 eller 12 bitars färgomfång om jag inte har missat någonting. Så är det i alla fall på min dator.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Tur man kollade på videon. Höll på att bli lurad att köpa en. 25k är mycket för en produkt som inte håller vad den lovar.

Visa signatur

r_wateralpha 0.3

Permalänk

Tur man inte väntade på den här, blev en aw3418dw i stället.

Visa signatur
Permalänk
Bildexpert 📺

Full levels/datornivåer:
8 bitar: 0 – 255
10 bitar: 0 – 1023
12 bitar: 0 – 4095

Limited/Video/Studio Levels, används inom video. YCbCr är normalt vidoenivåer.
8 bitar: 16 – 235
10 bitar: 64 – 940
12 bitar: 256 – 3760

dvs, vill man vet vad kodnivå 22 motsvaras i 10 bitar, gör 4x (kodnivå 88) och för 12 bitar 16x (kodnivå 352)

Videonivåer är fortfarande ett 0-255-omfång och det som flyttas är referensnivåer för svart och vitt. Information under referenssvart och ovanför referensvitt ska fortfarande finnas med. Men detta missuppfattas alldeles ofta och väldigt många skärmtillverkare klipper nivåerna vid referenserna.

Windows arbetar i datornivåer. När bilden ska skickas med videonivåer måste nivåerna komprimeras 0->16 och 255->235 för att sedan expanderas igen. Detta minskar det faktiska omfånget i signalen och skapar posterisering, så 10 bitar är att föredra även om Windows i sig är ett 8-bitarssystem.

Asus PG27UQ klarar den komprimeringen/expanderingen utan att tillföra synliga posterisering vi 10 eller 12 bitars signal. Den sätter också expansionen av nivåer rätt när du köra RGB-videonivåer.

Permalänk

Vänta vänta vänta.. ASDC, där C är 'framåt' och D är 'bakåt'? What the...

Undrar nu vad för andra knasiga layouts vissa personer kan tänkas köra med. Jag som trodde piltangenterna var konstigt nog...

Permalänk
Inofficiell ambassadör
Skrivet av Vangen:

Det här indikerar att konsoler kommer ha mer 4K fördel tills vi kan använda 4K/144Hz utan att behöva ha problem med begränsningar för PC.

Vad exakt blir fördelen? Konsolerna kan ju inte heller köra 4K/144Hz. De extremt få spel som ens körs i native 4K (inte checkerboarding eller andra uppskalningstekniker) på konsol går oftast i 30 fps/Hz … Här kan vi ju redan nu köra 4K, 98Hz och HDR på PC

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Bildexpert 📺

@Luciphear: Inte riktigt så. D-framåt och C-bakåt. Lillfingerstrejf respektive ringfingerstrejf på A och S.

Permalänk
99:e percentilen
Skrivet av Laxpudding:

Full levels/datornivåer:
8 bitar: 0 – 255
10 bitar: 0 – 1024
12 bitar: 0 – 4096

Limited/Video/Studio Levels, används inom video. YCbCr är normalt vidoenivåer.
8 bitar: 16 – 235
10 bitar: 64 – 940
12 bitar: 256 – 3760

Måste vara 1023 och 4095 som maximala värden för 10 respektive 12 bitar.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av Xyborg:

Vad exakt blir fördelen? Konsolerna kan ju inte heller köra 4K/144Hz. De extremt få spel som ens körs i native 4K (inte checkerboarding eller andra uppskalningstekniker) på konsol går oftast i 30 fps/Hz … Här kan vi ju redan nu köra 4K, 98Hz och HDR på PC

Med "fördel" menade jag att konsoler ligger steget före. För, visst dom kan ju inte uppleva 4k/120/144Hz det går inte i dagens läge.

Men konsoler har sin maximala gräns på spelbart 4K vilket är 60Hz och konsoler har inga kompromisser liksom dagens akuta läge PC verkar ha för att driva 4K/144Hz som är vårt maximala gentemot konsoler's respektive "4K/60Hz" att uppleva.

För PC däremot kan vi ju spela på betydligt högre FPS och uppdateringsfrekvens och idag ligger vi på den maximala 4K/144Hz för "spelbart" i jämförelse mot konsoler "60Hz" men det är en kompromiss i vägen idag, så PC enligt mig har en ospelbar stämpel på sig.

Detta hade jag eller vi inte väntat oss inför lanseringarna utav 4k/144Hz.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Bildexpert 📺
Permalänk
Medlem
Citat:

Kör du Nvidia-kort med G-Sync-kapacitet kan du inte kliva runt bandbreddsbegränsningarna som tvingar skärmen till YCbCr 4:2:2 för 144 Hz. Detta på grund av hur Nvidia styr över skärmen i den situationen. All skalning sker då i grafikkortet, som alltså alltid driver skärmen i 3 840 × 2 160 pixlar.

Om G-Sync HDR är som vanliga G-Sync så styrs detta av "Preferred refresh rate" inställningen i Nvidia Control Panel -> Manage 3D Settings. Är den inställd på "Highest available" så kommer Nvidia alltid försöka använda sig av högsta möjliga uppdateringsfrekvens som skärmen stödjer, oberoende av vilken spelet begär. Man kan stänga av detta beteende genom att sätta den inställningen på "Application-controlled", i vilket fall Nvidia kommer att använda den uppdateringsfrekvens spelet begär (vanligtvis 60 Hz).

Anledningen till denna inställning är för att uppdateringsfrekvensen som används benämner G-Syncs övre gräns där V-Sync kickar in. G-Sync är inte aktivt ända upp till uppdateringsfrekvensen som har begärts, utan endast 2-4 FPS/Hz nedanför, därefter inaktiverar G-Sync sig oberoende av V-Sync är aktiverat eller inte.

Så om "Preferred refresh rate" är inställd på "Application-controlled" och spelet begär 60 Hz så innebär detta att G-Sync är aktivt upp till ca 58 FPS/Hz max, därefter antingen synkas FPS:en mot 60 Hz via V-Sync (om aktivt), eller så börjar skärmen rivas i typiskt screen tearing-fashion. Detta inträffar både när skärmen då kör vid 60 FPS/Hz (V-Sync inaktiverat) eller övre än 60 FPS (skärmen är fortfarande begränsat till 60 Hz).

Utan att ha denna skärm själv och experimentera så kan jag inte säga säkert, men jag är 99% säker på att allt denna begränsningen med att Nvidia påtvingar 144 Hz ("Preferred Refresh Rate" = "Highest Available") är lösningsbart genom två steg:

1. Konfigurera om Nvidia Control Panel -> Manage 3D settings -> Preferred refresh rate till "Application-controlled". Detta kommer att göra att skärmen respekterar uppdateringsfrekvensen som spelet begär (vanligtvis 60 Hz).

2. Konfigurera spelet till rätt uppdateringsfrekvens om möjligt. För de spel som inte har denna möjlighet kan Special K användas för att åsidosätta spelets original-uppdateringsfrekvens till den bästa möjliga (98 Hz enligt artikeln).

3. Använd ett program eller verktyg (Special K fungerar bra) för att cappa frameraten på spelet till 96 Hz eller under, för att förhindra att V-Sync kickar in och G-Sync inaktiveras.

Ovanstående bör då resultera i att G-Sync samt skärmen konfigureras för 98 Hz, dvs upp till ca 96 FPS/Hz så kommer G-Sync vara aktivt och flitigt synkronisera uppdateringsfrevensen rätt. Vid 96-98 så inaktiveras G-Sync och V-Sync är här menat att användas för att synkronisera spelet till 98 Hz. Om V-Sync är inaktiverat så kommer skärmen börja riva och detta beteende kommer fortsätta över 98 Hz uppdateringsfrekvensen.

Och så får man 98 Hz 10-bit RGB HDR i exklusivt fullskärmsläge i spel.

Visa signatur

Detta är en signatur. Det finns många sådana, men denna är min.

Permalänk
Medlem
Skrivet av Alling:

Och G‑Sync och ULMB fungerar aldrig samtidigt

Detta stämmer vanligtvis, men inte alltid. masterotaku på Blur Busters forum har en tråd över hur man kan aktivera detta. Inte alltid möjligt på alla skärmar, men på en del är det: https://forums.blurbusters.com/viewtopic.php?f=4&t=2883

Visa signatur

Detta är en signatur. Det finns många sådana, men denna är min.

Permalänk
Medlem

@Laxpudding:
Sägs att Asus återkallar samtliga europeiska PG27UQ för firmware uppdatering som inte kan göras av slutanvändare, ska du tuffa på med reviewen eller börja om efteråt?

Permalänk
Medlem

@Laxpudding: Är problemen som uppstår med bandbredden enbart begränsade i källan/signalen eller finns det begränsningar även i skärmens kretsuppsättning?

Anledningen till att jag frågar är om man kommer att kunna utnyttja 144 Hz i 4K utan begränsningar med framtida grafikkort/kablar?

Permalänk
Inofficiell ambassadör
Skrivet av Shepard:

@Laxpudding: Är problemen som uppstår med bandbredden enbart begränsade i källan/signalen eller finns det begränsningar även i skärmens kretsuppsättning?

Anledningen till att jag frågar är om man kommer att kunna utnyttja 144 Hz i 4K utan begränsningar med framtida grafikkort/kablar?

Som jag förstått det: Begränsningen sitter i skärmens kretsar också. Oavsett framtida grafikkort blir det 4K + HDR i 98Hz som bäst

Skickades från m.sweclockers.com

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Avstängd

Fyfan vad fail.
Det lär dröja många år innan den ny DP standarden blir tillgänglig för konsumenter.
När den väl är ute så får man hoppas att skärmarna på 4k/144hz har gått ner i pris ordentligt.

Permalänk
Avstängd

@anon162230:
Kunde inte sagt det bättre själv.
För 25 tusen ska det vara perfekta grejer utan kompromisser.
Denna skärmen är ett skämt.

Permalänk
Medlem

Börjar mer och mer ledsna på dessa skärmar som beskrevs som det bästa sen skivat bröd.

För 25 lax för 27 tum, nästan en lusing per tum, så är det inte okej med ord som ”kompromiss”.

Först en del i artikelserien som hette typ ”glow” etc, men återigen, 25 lax för 27 tum, trodde då att man 2018 kunde tillverka utan glow/cloud/bleed, men icke?

Sen skummade jag bara artikeln, men det verkar ju vara sjukt mkt settings att fippla med? Herregud. Folk ifrågasätter konsol? Japp, jag kopplade in HDMI kabeln till ps4:an och spelar.

Kanske bara är jag, men vari ligger nöjet i att fippla med massa settings och läsa på om allt från Hz till chroma till bandbredden för att fatta hur man ska ställ in skärmen?

Ska det var så jävla svårt att bara få spela i 4K, 144hz HDR utan -kompromiss-??!!!!
Gah!

Det absolut bästa vore om man bara kunde ställa skärmen i 1080p/2k istället, men som jag återigen aldrig fattar så verkar ju skärmarna/tekniken inte funka 100% om man inte visar upp i skärmens ”native”.. tröttsamt.
Problemet att köra 1080 på en 4K skärm blir alltså att varje 1080-pixel ”använder” 4st 4K pixlar?

Disclaimer: detta är alltså inget emot artikelserien, utan en besvikelse på skärmen/tillverkarna.

Permalänk
Medlem

Tack för en underbar lärorik genomgång!

Permalänk
Inaktiv
Skrivet av BasseBaba:

Börjar mer och mer ledsna på dessa skärmar som beskrevs som det bästa sen skivat bröd.

För 25 lax för 27 tum, nästan en lusing per tum, så är det inte okej med ord som ”kompromiss”.

Först en del i artikelserien som hette typ ”glow” etc, men återigen, 25 lax för 27 tum, trodde då att man 2018 kunde tillverka utan glow/cloud/bleed, men icke?

Sen skummade jag bara artikeln, men det verkar ju vara sjukt mkt settings att fippla med? Herregud. Folk ifrågasätter konsol? Japp, jag kopplade in HDMI kabeln till ps4:an och spelar.

Kanske bara är jag, men vari ligger nöjet i att fippla med massa settings och läsa på om allt från Hz till chroma till bandbredden för att fatta hur man ska ställ in skärmen?

Ska det var så jävla svårt att bara få spela i 4K, 144hz HDR utan -kompromiss-??!!!!
Gah!

Det absolut bästa vore om man bara kunde ställa skärmen i 1080p/2k istället, men som jag återigen aldrig fattar så verkar ju skärmarna/tekniken inte funka 100% om man inte visar upp i skärmens ”native”.. tröttsamt.
Problemet att köra 1080 på en 4K skärm blir alltså att varje 1080-pixel ”använder” 4st 4K pixlar?

Disclaimer: detta är alltså inget emot artikelserien, utan en besvikelse på skärmen/tillverkarna.

Tycker du fokuserar för mycket på priset. När det gäller specs så e den bäst.

Permalänk
Medlem

Ja så går det ju om man skall strässa ut produkter inom dom är färdiga för marknaden,

Visa signatur

If it can't run Crisys its a calculater

The New Build The Torrent 2,0

Permalänk
Medlem

Stannar med min 1440p @ 165Hz i typ 5-10 år till då grafikkorten är bättre.

Skickades från m.sweclockers.com

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR