Asus avtäcker ROG Swift PG27UQX med 4K UHD, 144 Hz och Mini LED-teknik

Permalänk
Medlem
Skrivet av JBE:

Du kan ju få exakt samma upplevelse på en 27" som en 32" om du bara sätter den lite närmare (och i korrekt höjd, nästan alla normalstora monitors måste pallas upp 10-20cm över maxhöjd för en svensk), förutsatt att du inte har problem att fokusera ögonen på normalt avstånd. (55-60cm för 27" kör jag ca från ögon->centrum av panelen). Det enda man förlorar är skrivbordsplats.

Det är inte så att pixlarna är osynliga på detta avstånd i 4k, man får fortfarande köra AA i spel etc. Skulle gott kunna ha 5k eller 8k på 27", personligen skulle jag inte vilja ha det med dagens grafikkort för det blir alldeles för tungdrivet, men kanske i framtiden eller med skalning.

Skönt att nån fattat detta, har ibland trott att jag var den enda. Nä men seriöst, du har så klart helt rätt, och detta är något som jag tror många missar. Detta medför dessutom att man kan ifrågasätta andra gamla sanninga som att man inte självklart behöver ha skrivbord som är 80 cm djupa osv som man alltid haft (om man nu inte har andra behov som kräver det). En mindre skärm som är närmare upplevs dessutom som lika stor som en större på längre avstånd ("å fan" ). Kan för övrigt tipsa om att att det finns bra skärmstativ som även kan monteras i skrivbordet numera för den som vill slippa kartongen på skrivbordet och ändå få skärmen på rätt höjd (delar även den uppfattningen att många skärmar är för lågt) utan krav på väggmontering.

Edit:
Och ja, som killen som rätt nyligen hade en 55" OLED på skrivbordet så kan jag se en viss ironi i att jag nu talar mig varm för fördelarna med små skärmar

Permalänk
Inaktiv

4k kommer vara stanardupplösning inom några år och 60hz lär bara gälla budget varianterna för någon tusenlapp.

Jag har absolut inget behov för 144hz.. men skulle gärna se att man kröp upp lite från 60 som känns lite på gränsen. 75-90hz kunde man väl sakta men säkert gått upp i som standard?

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av anon56869:

4k kommer vara stanardupplösning inom några år och 60hz lär bara gälla budget varianterna för någon tusenlapp.

Jag har absolut inget behov för 144hz.. men skulle gärna se att man kröp upp lite från 60 som känns lite på gränsen. 75-90hz kunde man väl sakta men säkert gått upp i som standard?

Skickades från m.sweclockers.com

Tror det kommer dröja länge innan 4k blir någon standardupplösning.

Permalänk

Samtidigt har en tv som kostar ca 10 papp en nits på 1500 och de för runt 30 en nits på 4500.. men pc display varianten håller sig kvar på max 1000 nits, varför? Något teknik "proffs" som vet varför? Visst pc displays har många andra fördelar som alla vet, men varför ligger ljusstyrkan efter så markant?

Permalänk
99:e percentilen
Skrivet av improwise:

Det bör dock sägas att vad jag vet så är det inte skärmen i sig som behöver fläkten utan GSync HDR modulen.

Det bör definitivt sägas i allmänhet, och för att förklara varför det finns en fläkt.

Men det har föga betydelse för skärmens "vill ha"-faktor. I den kontexten blir det lite som att i en diskussion om betydelsen av passiv kylning på bärbara datorer säga att det inte är laptopen i sig som behöver fläkten, utan processorn. G‑Sync-modulen är ju en integrerad del av skärmen.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av Alling:

Det bör definitivt sägas i allmänhet, och för att förklara varför det finns en fläkt.

Men det har föga betydelse för skärmens "vill ha"-faktor. I den kontexten blir det lite som att i en diskussion om betydelsen av passiv kylning på bärbara datorer säga att det inte är laptopen i sig som behöver fläkten, utan processorn. G‑Sync-modulen är ju en integrerad del av skärmen.

Min poäng var att alla skärmar som innehåller samma modul lär ha en liknande fläkt, så det blir i praktiken ett val mellan GSync HDR och något annat. Sett till att Nvidia styr GSync skärmarna så hårt så lär det väl lämna rätt lite utrymme för andra tillverkare att hitta andra kyllösningar.

Permalänk
99:e percentilen
Skrivet av improwise:

Min poäng var att alla skärmar som innehåller samma modul lär ha en liknande fläkt, så det blir i praktiken ett val mellan GSync HDR och något annat. Sett till att Nvidia styr GSync skärmarna så hårt så lär det väl lämna rätt lite utrymme för andra tillverkare att hitta andra kyllösningar.

Kanske det. TFT Central nämner dock FALD som den avgörande faktorn:

Skrivet av TFT Central:

It also does not need the active cooling fan that those FALD models included, as the backlight does not get as hot.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem

@snyggmikael:

Får jag gissa så är det pga närheten till skärmen, det är troligen mer jobbigt för ögonen än något annat att sitta och titta "rakt in i en ficklampa".

Permalänk
Medlem
Skrivet av Alling:

Kanske det. TFT Central nämner dock FALD som den avgörande faktorn:

Snarare att den skärmen vad jag vet saknar det chip vi pratar om. Är lite fundersam själv till om det verkligen är GSynch chipet som styr FALD på denna skärm men ska ärligt erkänna att jag inte vet. Helt klart fungerar det iaf att köra FALD även om man inte kör GSync, ja, tom via HDMI porten om jag inte minns fel (som väl iof sitter i GSync modulen men som ju i övrigt inte får mkt kärlek).

Permalänk
Relik 📜
Skrivet av Alling:

Har den en fläkt?

Skrivet av JonasT:

Jepp, dubbla fläktar.

Som Gigabyte Geforce GT430?

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Bildexpert 📺
Skrivet av snyggmikael:

Samtidigt har en tv som kostar ca 10 papp en nits på 1500 och de för runt 30 en nits på 4500.. men pc display varianten håller sig kvar på max 1000 nits, varför? Något teknik "proffs" som vet varför? Visst pc displays har många andra fördelar som alla vet, men varför ligger ljusstyrkan efter så markant?

Finns inte många TV som når 1500 nits i verkliga situationer. Enstaka toppmodeller kan i korta perioder, några sekunder oftast, nå dit under omständigheter där man testar HDR med vit testbild som utgör 2% eller 10% av det totala ljusinnehållet. En typiskt film med mörk karaktär har en snittljusnivå på runt 25-30%

Någon konsumentprodukt som når 4500 nits känner jag inte till. Det lovas på några av de nyaste 8K-flaggskeppen nivåer åt det hållet, men då under samma omständigheter som ovan. Små ytor i korta sekvenser. Annars ligger det mer runt 1000 nits i praktiken på de bättre modellerna inom rimlig månadslön.

Dolby Pulsar är den som annars kommer på tal för 4000 nits och mastring av filmer. Den är vätskekyld med separat kylsystem som ofta byggs in i angränsande rum pga av oväsen. Pulsaren är "the shit" och därför vill tillverkarna gärna hävda 4000 nits.

Asus PG27UQ (och högst rimligt Acer X27) håller verkligen 1000 nits-nivån utan att droppa med tiden. Vilket få TV-apparater gör. De fluktuerar mer. Vilket gör det till en lämplig monitor för HDR-mastring för den "fattige" som inte har miljonen (eller så) för en pulsar.

Permalänk
Bildexpert 📺

@improwise: G-Syncmodulen är hela skärmcontrollen/scalern etc. Även om du inte specifikt kör just G-Sync är det den som reglerar allt.

Permalänk
Medlem
Skrivet av Laxpudding:

@improwise: G-Syncmodulen är hela skärmcontrollen/scalern etc. Även om du inte specifikt kör just G-Sync är det den som reglerar allt.

Fast det behöver väl inte innebära att det är FALD som gör att det behövs en fläkt? FALD är väl snarare avsaknad av ljus snarare än mer ljus, dvs bättre svärta som ger bättre kontrast?

Permalänk
Medlem

Ska vi gissa på 45 000 för denna? Deras kommande 35" 200Hz VA panel lär gå loss på runt 35 000, eftersom Acers variant går att förboka för 33 000 kr just nu.

Visa signatur

Samsung Odyssey G9 240Hz HDR1000 5120x1440 9900K 5,3GHz 1,335v adaptive Asus Z390-I
Asus RTX 2070 Dual EVO Advanced 8GB G.Skill Trident Z RGB B-Die 3200MHz CL16 2x16GB Samsung 970 Evo 1TB
Seasonic Focus Plus Gold 850W 2 x Dell U2715H Corsair K65 Speed SteelSeries Rival 500 Bose Companion 5
Secretlab TITAN 2020 SoftWeave Corsair H100i RGB Platinum Noctua NF-A12x25 x 4 PnP Neo G Mini GB4: 6869 CB15: 233

Permalänk
Medlem
Skrivet av osgorth:

Kul att utvecklingen går framåt. Om ett par år kanske de lyckas prestera en skärm som inte behöver aktiv kylning, och då kan det bli intressant. Tills dess: helt ointressant, oavsett pris, prestanda och kvalitet.

Tycker snarare motsatsen, eftersom tillverkarna sätter högre och högre monster priser på sina produkter.
För att utvecklingen ska gå framåt, så ska det enligt mig, även avspegla sig på priset.

Bli inte förvånad om den här skärmen går loss på norr om 45 000 kr.

Visa signatur

Samsung Odyssey G9 240Hz HDR1000 5120x1440 9900K 5,3GHz 1,335v adaptive Asus Z390-I
Asus RTX 2070 Dual EVO Advanced 8GB G.Skill Trident Z RGB B-Die 3200MHz CL16 2x16GB Samsung 970 Evo 1TB
Seasonic Focus Plus Gold 850W 2 x Dell U2715H Corsair K65 Speed SteelSeries Rival 500 Bose Companion 5
Secretlab TITAN 2020 SoftWeave Corsair H100i RGB Platinum Noctua NF-A12x25 x 4 PnP Neo G Mini GB4: 6869 CB15: 233

Permalänk
Medlem

Där kom skärmen man letat efter sedan 2012!.. Kanske ses 2023!

Visa signatur

akademie

Permalänk
Bildexpert 📺
Skrivet av improwise:

Fast det behöver väl inte innebära att det är FALD som gör att det behövs en fläkt? FALD är väl snarare avsaknad av ljus snarare än mer ljus, dvs bättre svärta som ger bättre kontrast?

Fläkten på PG27UQ och X27 är till för att kyla FPGA:n till G-sync-modulen. Den nya varianten med Mini-LED kan mycket väl behöva fläkt för att kyla själva Mini-LED:n

Permalänk
Medlem
Skrivet av Oh Geesus:

De borde istället lägga krutet på att uppdatera IPS-skärmarna under 10 000 kronor så att vi slipper paneler från 2015 med horribel kvalitetskontroll.

Skickades från m.sweclockers.com

Jo, har kollat på skärmar till mitt nästa datorköp och vill ha en IPS skärm.
Har inte haft någon koll på vad som finns på marknaden innan nu.
Men när man kollar vilka som är "bra" så verkar det inte hänt något alls sedan 2015-2016.

Visa signatur

Registrerad 2001-12-24 15:10
Jul med Kalle Anka och Sweclockers

Permalänk
Medlem
Skrivet av improwise:

Fast det behöver väl inte innebära att det är FALD som gör att det behövs en fläkt? FALD är väl snarare avsaknad av ljus snarare än mer ljus, dvs bättre svärta som ger bättre kontrast?

I en vanlig edge-lit monitor sitter det ett fåtal leds runt kanten, långt bort från elektroniken som typiskt sitter i mitten/bak. De är alltid på, men värmen från dessa kyls enkelt passivt geonom att bara lämna lite hål i monitorns kant/ovansida tex.

I full array local dimming är det exponentiellt många fler leds, och de sitter ju ur värmesynpunkt så osmidigt det kan bli, dvs över hela baksidan så att de värmer elektronikens område. FALD kan ju dimmas så att det är avsaknad av ljus, men hur ofta ser du på en full svart skärm? I praktiken är nog en genomsnittlig led på med varierande styrka.
FALD i kombination med en monster fpga gör att de satt 2st fläktar i pg27uq tex. FALD hade antagligen i sig kunnat passivkylas, kanske fpga med (ibland går fläktarna knappt, så) men kombinationen i en trång och relativt tät plastkropp gör att vissa delar måste aktivt kylas (fpga+något mer, vet ej exakt vad fan#2 sitter på).

En sån här sak sitter i den, bland annat, med 25.6Gb/s kapacitet, + 3GB ddr4.
https://www.intel.com/content/www/us/en/products/programmable...

Permalänk
Medlem
Skrivet av snyggmikael:

Samtidigt har en tv som kostar ca 10 papp en nits på 1500 och de för runt 30 en nits på 4500.. men pc display varianten håller sig kvar på max 1000 nits, varför? Något teknik "proffs" som vet varför? Visst pc displays har många andra fördelar som alla vet, men varför ligger ljusstyrkan efter så markant?

I sovrummet har jag en Sony 65" AF8. Den är eller snarare tillhörde Sonys topmodell på OLED. Den peakar på runt 700 Nits. Visst jag har helt kassa ögon men jag kan tycka det är påfrestande att se isolerade ljuskällor i filmer än mer i HDR klipp/demo. Rummet är dock en "cave" och kan stänga ut allt ljus så det påverkar nog. Så att ha högre ljusstyrka känns inte bra för ögonen om du nu inte har skärmen utomhus, eller i ett ljust vardagsrum och du inte kan/vill dämpa ljus insläppet.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Skrivet av JBE:

I en vanlig edge-lit monitor sitter det ett fåtal leds runt kanten, långt bort från elektroniken som typiskt sitter i mitten/bak. De är alltid på, men värmen från dessa kyls enkelt passivt geonom att bara lämna lite hål i monitorns kant/ovansida tex.

I full array local dimming är det exponentiellt många fler leds, och de sitter ju ur värmesynpunkt så osmidigt det kan bli, dvs över hela baksidan så att de värmer elektronikens område. FALD kan ju dimmas så att det är avsaknad av ljus, men hur ofta ser du på en full svart skärm? I praktiken är nog en genomsnittlig led på med varierande styrka.
FALD i kombination med en monster fpga gör att de satt 2st fläktar i pg27uq tex. FALD hade antagligen i sig kunnat passivkylas, kanske fpga med (ibland går fläktarna knappt, så) men kombinationen i en trång och relativt tät plastkropp gör att vissa delar måste aktivt kylas (fpga+något mer, vet ej exakt vad fan#2 sitter på).

En sån här sak sitter i den, bland annat, med 25.6Gb/s kapacitet, + 3GB ddr4.
https://www.intel.com/content/www/us/en/products/programmable...

Well, är väl svårt att veta utan att skruva isär och testa, men jag vet iaf att fläkten på in X27 jobbar klart mer när jag spelar än om jag typ bara köra jobbdatorn via HDMI (eftersom det bara finns en DP port) även fast FALD är aktivt i båda fallen. I normal "lågintensiv" drift låter det ung som en stationär dator med bra kylning (dvs en tyst men inte ljudlös stationär dator).

Permalänk
Medlem

Mer Asus Vaporware/pappersreleaser, tror på det när de går att beställa.

Permalänk
Medlem

PG35VQ nån? Var det inte typ 2 år sen de började prata om dem...
Lol.

Visa signatur

Workstation: i9-13900K @ 6.1 GHz - Asus Z790 ProArt - G.Skill 6400MHz 2x32 GB - Asus TUF 4080 16 GB
Samsung 990 Pro MVMe 1 TB - Kingston Renegade MVMe 4 TB - Asus 990 Pro NVMe 4TB
ASUS ROG Strix Aura 1000W - EK-Nucleus AIO CR360 - LianLi O11 Dynamic EVO
LG 38GL950G - Sound Blaster Katana V2X Soundbar - Corsair RGB Strafe - G-Wolves Sköll
Server: i7-6700K @ 4.2GHz - Asus Maximus VIII - Corsair DDR4 4x16 GB - Samsung 950 MVMe 256GB - Samsung EVO 1 TB

Permalänk
Medlem

@Laxpudding Har Asus gått ut med om skärmen kommer ha DP 2.0 :)?

Permalänk
Bildexpert 📺

@Fredzon: Asus har vad jag vet inte gott ut med någon information mer än vad nyheten länkar till. Men DP 2.0 finns inte ens färdigt och det dröjer alltså som regel 1-2 år – ofta längre – från att en spec blir spikad tills hårdvara som bygger på specen är redo.