Asus avtäcker ROG Swift PG27UQX med 4K UHD, 144 Hz och Mini LED-teknik

Skrivet av JBE:

Du kan ju få exakt samma upplevelse på en 27" som en 32" om du bara sätter den lite närmare (och i korrekt höjd, nästan alla normalstora monitors måste pallas upp 10-20cm över maxhöjd för en svensk), förutsatt att du inte har problem att fokusera ögonen på normalt avstånd. (55-60cm för 27" kör jag ca från ögon->centrum av panelen). Det enda man förlorar är skrivbordsplats.

Det är inte så att pixlarna är osynliga på detta avstånd i 4k, man får fortfarande köra AA i spel etc. Skulle gott kunna ha 5k eller 8k på 27", personligen skulle jag inte vilja ha det med dagens grafikkort för det blir alldeles för tungdrivet, men kanske i framtiden eller med skalning.

Skönt att nån fattat detta, har ibland trott att jag var den enda. Nä men seriöst, du har så klart helt rätt, och detta är något som jag tror många missar. Detta medför dessutom att man kan ifrågasätta andra gamla sanninga som att man inte självklart behöver ha skrivbord som är 80 cm djupa osv som man alltid haft (om man nu inte har andra behov som kräver det). En mindre skärm som är närmare upplevs dessutom som lika stor som en större på längre avstånd ("å fan" ). Kan för övrigt tipsa om att att det finns bra skärmstativ som även kan monteras i skrivbordet numera för den som vill slippa kartongen på skrivbordet och ändå få skärmen på rätt höjd (delar även den uppfattningen att många skärmar är för lågt) utan krav på väggmontering.

Edit:
Och ja, som killen som rätt nyligen hade en 55" OLED på skrivbordet så kan jag se en viss ironi i att jag nu talar mig varm för fördelarna med små skärmar

Senast redigerat 2019-06-03 17:09

4k kommer vara stanardupplösning inom några år och 60hz lär bara gälla budget varianterna för någon tusenlapp.

Jag har absolut inget behov för 144hz.. men skulle gärna se att man kröp upp lite från 60 som känns lite på gränsen. 75-90hz kunde man väl sakta men säkert gått upp i som standard?

Skickades från m.sweclockers.com

Skrivet av H_Bozz:

4k kommer vara stanardupplösning inom några år och 60hz lär bara gälla budget varianterna för någon tusenlapp.

Jag har absolut inget behov för 144hz.. men skulle gärna se att man kröp upp lite från 60 som känns lite på gränsen. 75-90hz kunde man väl sakta men säkert gått upp i som standard?

Skickades från m.sweclockers.com

Tror det kommer dröja länge innan 4k blir någon standardupplösning.

Samtidigt har en tv som kostar ca 10 papp en nits på 1500 och de för runt 30 en nits på 4500.. men pc display varianten håller sig kvar på max 1000 nits, varför? Något teknik "proffs" som vet varför? Visst pc displays har många andra fördelar som alla vet, men varför ligger ljusstyrkan efter så markant?

Skrivet av improwise:

Det bör dock sägas att vad jag vet så är det inte skärmen i sig som behöver fläkten utan GSync HDR modulen.

Det bör definitivt sägas i allmänhet, och för att förklara varför det finns en fläkt.

Men det har föga betydelse för skärmens "vill ha"-faktor. I den kontexten blir det lite som att i en diskussion om betydelsen av passiv kylning på bärbara datorer säga att det inte är laptopen i sig som behöver fläkten, utan processorn. G‑Sync-modulen är ju en integrerad del av skärmen.

Skrivet av Alling:

Det bör definitivt sägas i allmänhet, och för att förklara varför det finns en fläkt.

Men det har föga betydelse för skärmens "vill ha"-faktor. I den kontexten blir det lite som att i en diskussion om betydelsen av passiv kylning på bärbara datorer säga att det inte är laptopen i sig som behöver fläkten, utan processorn. G‑Sync-modulen är ju en integrerad del av skärmen.

Min poäng var att alla skärmar som innehåller samma modul lär ha en liknande fläkt, så det blir i praktiken ett val mellan GSync HDR och något annat. Sett till att Nvidia styr GSync skärmarna så hårt så lär det väl lämna rätt lite utrymme för andra tillverkare att hitta andra kyllösningar.

Skrivet av improwise:

Min poäng var att alla skärmar som innehåller samma modul lär ha en liknande fläkt, så det blir i praktiken ett val mellan GSync HDR och något annat. Sett till att Nvidia styr GSync skärmarna så hårt så lär det väl lämna rätt lite utrymme för andra tillverkare att hitta andra kyllösningar.

Kanske det. TFT Central nämner dock FALD som den avgörande faktorn:

Skrivet av TFT Central:

It also does not need the active cooling fan that those FALD models included, as the backlight does not get as hot.

@snyggmikael:

Får jag gissa så är det pga närheten till skärmen, det är troligen mer jobbigt för ögonen än något annat att sitta och titta "rakt in i en ficklampa".

Skrivet av Alling:

Kanske det. TFT Central nämner dock FALD som den avgörande faktorn:

Snarare att den skärmen vad jag vet saknar det chip vi pratar om. Är lite fundersam själv till om det verkligen är GSynch chipet som styr FALD på denna skärm men ska ärligt erkänna att jag inte vet. Helt klart fungerar det iaf att köra FALD även om man inte kör GSync, ja, tom via HDMI porten om jag inte minns fel (som väl iof sitter i GSync modulen men som ju i övrigt inte får mkt kärlek).

Skrivet av Alling:

Har den en fläkt?

Skrivet av JonasT:

Jepp, dubbla fläktar.

Som Gigabyte Geforce GT430?

Skrivet av snyggmikael:

Samtidigt har en tv som kostar ca 10 papp en nits på 1500 och de för runt 30 en nits på 4500.. men pc display varianten håller sig kvar på max 1000 nits, varför? Något teknik "proffs" som vet varför? Visst pc displays har många andra fördelar som alla vet, men varför ligger ljusstyrkan efter så markant?

Finns inte många TV som når 1500 nits i verkliga situationer. Enstaka toppmodeller kan i korta perioder, några sekunder oftast, nå dit under omständigheter där man testar HDR med vit testbild som utgör 2% eller 10% av det totala ljusinnehållet. En typiskt film med mörk karaktär har en snittljusnivå på runt 25-30%

Någon konsumentprodukt som når 4500 nits känner jag inte till. Det lovas på några av de nyaste 8K-flaggskeppen nivåer åt det hållet, men då under samma omständigheter som ovan. Små ytor i korta sekvenser. Annars ligger det mer runt 1000 nits i praktiken på de bättre modellerna inom rimlig månadslön.

Dolby Pulsar är den som annars kommer på tal för 4000 nits och mastring av filmer. Den är vätskekyld med separat kylsystem som ofta byggs in i angränsande rum pga av oväsen. Pulsaren är "the shit" och därför vill tillverkarna gärna hävda 4000 nits.

Asus PG27UQ (och högst rimligt Acer X27) håller verkligen 1000 nits-nivån utan att droppa med tiden. Vilket få TV-apparater gör. De fluktuerar mer. Vilket gör det till en lämplig monitor för HDR-mastring för den "fattige" som inte har miljonen (eller så) för en pulsar.

@improwise: G-Syncmodulen är hela skärmcontrollen/scalern etc. Även om du inte specifikt kör just G-Sync är det den som reglerar allt.

Skrivet av Laxpudding:

@improwise: G-Syncmodulen är hela skärmcontrollen/scalern etc. Även om du inte specifikt kör just G-Sync är det den som reglerar allt.

Fast det behöver väl inte innebära att det är FALD som gör att det behövs en fläkt? FALD är väl snarare avsaknad av ljus snarare än mer ljus, dvs bättre svärta som ger bättre kontrast?

Ska vi gissa på 45 000 för denna? Deras kommande 35" 200Hz VA panel lär gå loss på runt 35 000, eftersom Acers variant går att förboka för 33 000 kr just nu.

Skrivet av osgorth:

Kul att utvecklingen går framåt. Om ett par år kanske de lyckas prestera en skärm som inte behöver aktiv kylning, och då kan det bli intressant. Tills dess: helt ointressant, oavsett pris, prestanda och kvalitet.

Tycker snarare motsatsen, eftersom tillverkarna sätter högre och högre monster priser på sina produkter.
För att utvecklingen ska gå framåt, så ska det enligt mig, även avspegla sig på priset.

Bli inte förvånad om den här skärmen går loss på norr om 45 000 kr.

Där kom skärmen man letat efter sedan 2012!.. Kanske ses 2023!

Skrivet av improwise:

Fast det behöver väl inte innebära att det är FALD som gör att det behövs en fläkt? FALD är väl snarare avsaknad av ljus snarare än mer ljus, dvs bättre svärta som ger bättre kontrast?

Fläkten på PG27UQ och X27 är till för att kyla FPGA:n till G-sync-modulen. Den nya varianten med Mini-LED kan mycket väl behöva fläkt för att kyla själva Mini-LED:n

Skrivet av Oh Geesus:

De borde istället lägga krutet på att uppdatera IPS-skärmarna under 10 000 kronor så att vi slipper paneler från 2015 med horribel kvalitetskontroll.

Skickades från m.sweclockers.com

Jo, har kollat på skärmar till mitt nästa datorköp och vill ha en IPS skärm.
Har inte haft någon koll på vad som finns på marknaden innan nu.
Men när man kollar vilka som är "bra" så verkar det inte hänt något alls sedan 2015-2016.

Skrivet av improwise:

Fast det behöver väl inte innebära att det är FALD som gör att det behövs en fläkt? FALD är väl snarare avsaknad av ljus snarare än mer ljus, dvs bättre svärta som ger bättre kontrast?

I en vanlig edge-lit monitor sitter det ett fåtal leds runt kanten, långt bort från elektroniken som typiskt sitter i mitten/bak. De är alltid på, men värmen från dessa kyls enkelt passivt geonom att bara lämna lite hål i monitorns kant/ovansida tex.

I full array local dimming är det exponentiellt många fler leds, och de sitter ju ur värmesynpunkt så osmidigt det kan bli, dvs över hela baksidan så att de värmer elektronikens område. FALD kan ju dimmas så att det är avsaknad av ljus, men hur ofta ser du på en full svart skärm? I praktiken är nog en genomsnittlig led på med varierande styrka.
FALD i kombination med en monster fpga gör att de satt 2st fläktar i pg27uq tex. FALD hade antagligen i sig kunnat passivkylas, kanske fpga med (ibland går fläktarna knappt, så) men kombinationen i en trång och relativt tät plastkropp gör att vissa delar måste aktivt kylas (fpga+något mer, vet ej exakt vad fan#2 sitter på).

En sån här sak sitter i den, bland annat, med 25.6Gb/s kapacitet, + 3GB ddr4.
https://www.intel.com/content/www/us/en/products/programmable...

Skrivet av snyggmikael:

Samtidigt har en tv som kostar ca 10 papp en nits på 1500 och de för runt 30 en nits på 4500.. men pc display varianten håller sig kvar på max 1000 nits, varför? Något teknik "proffs" som vet varför? Visst pc displays har många andra fördelar som alla vet, men varför ligger ljusstyrkan efter så markant?

I sovrummet har jag en Sony 65" AF8. Den är eller snarare tillhörde Sonys topmodell på OLED. Den peakar på runt 700 Nits. Visst jag har helt kassa ögon men jag kan tycka det är påfrestande att se isolerade ljuskällor i filmer än mer i HDR klipp/demo. Rummet är dock en "cave" och kan stänga ut allt ljus så det påverkar nog. Så att ha högre ljusstyrka känns inte bra för ögonen om du nu inte har skärmen utomhus, eller i ett ljust vardagsrum och du inte kan/vill dämpa ljus insläppet.

Skrivet av JBE:

I en vanlig edge-lit monitor sitter det ett fåtal leds runt kanten, långt bort från elektroniken som typiskt sitter i mitten/bak. De är alltid på, men värmen från dessa kyls enkelt passivt geonom att bara lämna lite hål i monitorns kant/ovansida tex.

I full array local dimming är det exponentiellt många fler leds, och de sitter ju ur värmesynpunkt så osmidigt det kan bli, dvs över hela baksidan så att de värmer elektronikens område. FALD kan ju dimmas så att det är avsaknad av ljus, men hur ofta ser du på en full svart skärm? I praktiken är nog en genomsnittlig led på med varierande styrka.
FALD i kombination med en monster fpga gör att de satt 2st fläktar i pg27uq tex. FALD hade antagligen i sig kunnat passivkylas, kanske fpga med (ibland går fläktarna knappt, så) men kombinationen i en trång och relativt tät plastkropp gör att vissa delar måste aktivt kylas (fpga+något mer, vet ej exakt vad fan#2 sitter på).

En sån här sak sitter i den, bland annat, med 25.6Gb/s kapacitet, + 3GB ddr4.
https://www.intel.com/content/www/us/en/products/programmable...

Well, är väl svårt att veta utan att skruva isär och testa, men jag vet iaf att fläkten på in X27 jobbar klart mer när jag spelar än om jag typ bara köra jobbdatorn via HDMI (eftersom det bara finns en DP port) även fast FALD är aktivt i båda fallen. I normal "lågintensiv" drift låter det ung som en stationär dator med bra kylning (dvs en tyst men inte ljudlös stationär dator).

Mer Asus Vaporware/pappersreleaser, tror på det när de går att beställa.

PG35VQ nån? Var det inte typ 2 år sen de började prata om dem...
Lol.

@Laxpudding Har Asus gått ut med om skärmen kommer ha DP 2.0 :)?

@Fredzon: Asus har vad jag vet inte gott ut med någon information mer än vad nyheten länkar till. Men DP 2.0 finns inte ens färdigt och det dröjer alltså som regel 1-2 år – ofta längre – från att en spec blir spikad tills hårdvara som bygger på specen är redo.