LG gör ultrabreda skärmar med AMD Freesync

Permalänk
Medlem

tråkigt att man inte kan ha FreeSync på lite äldre grafik kort :c

Visa signatur

En dator

Permalänk
Avstängd

Äntligen FreeSync!
Men skulle vilja se 24" modeller också.
Skulle vilja se att Intel hoppade på tåget också.

Permalänk
Skrivet av StuntmanMike:

Men hur funkar freesync? G-sync kräver ju 144hz(120?) för att fungera.. Hmm haft lite ångerst över att köpa nVidia nån månad innan AMD släpper nya kort och freesync men detta gör nog valet lättare..

Det finns 60hz skärmar med G-sync så 120/144hz är absolut inget krav.

Visa signatur

CPU: Ryzen 9 5900X MB: ASUS ROG Crosshair VIII Dark Hero GPU: GIGABYTE Radeon RX 6900 XT AORUS Ultimate Xtreme WaterForce WB RAM: 32GB 3200 MT/s CL 16 Trident Z RGB SSD: WD Black SN750 1 TB PSU: ASUS ROG Loki 1000W SFX-L Skärm: Alienware AW3423DW

Permalänk
Entusiast
Skrivet av GambitSWE:

Om jag inte är helt ute och cyklar, så har jag för mig att man kunde läsa här på SweC att nVidia skulle lägga till stöd för detta. Kommer ej ihåg om det var i samband med att AMD gick ut med sitt konkurrerande FreeSync, men har ett vagt minne om detta.

De var dock väldigt snabba på att dra tillbaks det uttalandet. Deras officiella ställning är för tillfället att de inte kan kommentera teknik som inte finns. Så de väljer att vara tysta tills de ser vad som händer. De har ju investerat mycket pengar i G-sync och att direkt slänga sig på Freesync är inte alltför bra för affärerna. Så de lär avvakta och se hur de ska göra baserat på hur det går för Freesync.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Riktigt intressant som spelskärm. 120hz behöver jag inte / är ändå svårt att komma upp i. Däremot måste dess belysning vara flimmerfri för att jag ska nappa. Kom igen nu BenQ.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av elajt_1:

Ja 21:9 är fint, men det kan knappast kompensera för 3st 16:9 skärmar i bredd, iallafall inte för spel

Beror ju på preferenser och behov. Livssituationen förändras och jag spelar knappt längre, men är ändå inte helt villig att släppa den extra bredden. Sen har jag alltid stört mig på att vissa saker hamnat för långt ut i det perifera synfältet då jag sitter ganska nära skärmarna så 21:9 känns som en perfekt kompromiss för mig.

Alla har olika behov och preferenser. Funkar något för dig så kör på det. Vare sig det handlar om 1 eller 3 skärmar. 60-, 120- eller 144hz. CRT-, TN-, STN-, TFT-, IPS-, OLED- eller VA-paneler i 4:3, 16:9, 16:10, 21:9 eller något annat jag inte nämnt. Är ju bara du som ska vara nöjd, vad andra tycker om ditt val är ju knappast relevant.

Permalänk
Medlem

Japp då fick man ha sin LG 34UM95-P 21:9 i nästan 4 månader då innan man behöver köpa nytt LG Firmware update for me pl0x!?!

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem

Skulle gärna ha en 21:9 TV, men en 21:9 skärm vette tusan...

Permalänk
Medlem

Trevligt med 21x9 skärm. Kan man hoppas på att detta också kan bli den nya TV standarden i samband med att de nya blu-ray spelarna kommer.

Permalänk

Halleluja!

Visa signatur

CPU: AMD FX-8350 @ 4.7GHz | RAM: 32GB Vengeance @1600MHz | GPU: Asus HD7970 DCII Top @ 1.0/5.6 GHz | ASRock 990FX Fatal1ty | PSU: Newton R3 800W Platinum | HD: 128 GB Plextor M3 Pro, 300 GB WD Green | triple-boot: Win7-64,WinXP-32,debian-64

Permalänk
Medlem
Skrivet av TheSlicker:

Förstår mig inte på varför utvecklingen går mot dessa breda skärmar <.< . Redan 16:9 är för brett i förhållande till höjden tycker jag för en PC skärm.

Finns nog många saker som samspelar som pressar utvecklingen åt ett visst håll. Steget 4:3 till 16:10 på datorskärmar har jag faktiskt svårt att förklara, möjligen för att det även på väldigt små system gick att passa in ett hyfsat tangentbord. Men 16:10 till 16:9 gick att sälja in som "samma förhållande som din tv". Dessutom började mjukvara och ex. webbdesign att mogna och anpassa sig till det bredare formatet.

Att vi nu börjar nära oss ännu bredare 21:9 har nog mindre att göra med att det är ett filmformat utan att det dels blir billigare för tillverkaren - bredare format innebär mindre totalyta vid samma diagonalmått - men också att 16:9 faktiskt var dåligt anpassat till att jobba med två program sida vid sidan. Sedan finns den ergonomiska aspekten, det är behagligare att röra ögon och nacke i sidled jämfört med upp och ned. Och en 32-tummare i 16:10-format skulle bli väldigt hög. Trots allt - att vi tidigare haft ett väldigt fyrkantigt format har helt varit kopplat till tekniska begränsningar i tillverkningsprocessen, en begränsning som inte finns längre.

Så, är allt frid och fröjd? Nja, inte riktigt. Bärbara datorer har börjat bli väldigt breda samtidigt som kompromisser gjorts med tangentbordets design. Men förhoppningsvis kommer 16:9 vara så extremt som det blir, och skulle bli glad om en återgång till 16:10 eller till och med 4:3 kom till stånd.

Permalänk
Medlem
Skrivet av Da´Russian Stallion:

Ge det tid det kommer bli mer eller mindre standard med någon form av hårdvarosync inom en snar framtid

Jo men förmodligen inte på befintliga kort vilket är tråkigt. Nvidia kan nog ex. inte ha stöd för Free sync på 700 eller 900-serien. Det måste ju finnas något hårdvarumässigt stöd för det, annars hade ju AMD haft det på sitt R9 280X.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk

Det jag ser fram emot är att FreeSync kan komma att pressa prisen på en Gsync skärm. Tror fortfarande inte att det kommer att bli lika bra som Gsync men jag hoppas att jag har fel. Det är bra med konkurrens.

Hur kommer det sig att det fortfarande inte finna bra bevis på funkonalitet. Computex var ju ett skämt, det tror jag dom flesta håller med om.

Två olika skärmar.
http://www.youtube.com/watch?v=Dv0nOBAXaCA

Permalänk
Medlem

Jag skulle vilja dela upp en 21:9 skärm så man får en 16:9 del och en 5:9 del. Slipper skarven med två skärmar + smidigare! Alltså så att det fungerar precis som två skärmar.

Någon vet om det är möjligt?

Permalänk
Medlem
Skrivet av elajt_1:

Jo men förmodligen inte på befintliga kort vilket är tråkigt. Nvidia kan nog ex. inte ha stöd för Free sync på 700 eller 900-serien. Det måste ju finnas något hårdvarumässigt stöd för det, annars hade ju AMD haft det på sitt R9 280X.

Säker på det? tror det mest ligger i drivrutinen...

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av Ashzala:

Jag skulle vilja dela upp en 21:9 skärm så man får en 16:9 del och en 5:9 del. Slipper skarven med två skärmar + smidigare! Alltså så att det fungerar precis som två skärmar.

Någon vet om det är möjligt?

https://www.google.se/search?q=split+monitor+in+two+with+soft...
Kolla upp själv och berätta sedan för oss hur det gick. : )

Permalänk
Skrivet av Schackmannen:

Det finns 60hz skärmar med G-sync så 120/144hz är absolut inget krav.

Jasså! Det är något jag missat då, vill minnas att det sägs i swec's recension av swift.
Sen har jag bara sett 3st skärmar med g-sync och alla har 144hz..

Permalänk
Medlem
Skrivet av hakro807:

https://www.google.se/search?q=split+monitor+in+two+with+soft...
Kolla upp själv och berätta sedan för oss hur det gick. : )

Tack för omtanken, men länken hjälpte föga.

Tänkte ev. testa ultramon ikväll och se om det gör vad jag vill, jag är dock tveksam.

Permalänk
Medlem

Jag ogillade 16:9 väldigt mycket och var nöjd med min 16:10. Föll dock för frestelsen att köpa en 1440p-skärm och plötsligt är formatet helt perfekt. Problemet är att 16:9 i 1080p ger för få pixlar på höjden men med högre upplösning är det inte längre ett problem. Får jag bara minst 1440 pixlar på höjden kan jag till och med tänka mig ett ännu bredare format.

Permalänk
Medlem
Skrivet av Da´Russian Stallion:

Säker på det? tror det mest ligger i drivrutinen...

En lösning skulle vara att låta en free-sync-kapabel skärm presentera en mycket högre uppdateringsfrekvens än vad den är faktiskt kapabel till.

För att förklara, låt oss anta att skärmen har en max uppdateringshastighet på 60 Hz. Grafikkortet kommer däremot kunna rendera allt mellan 20 och 200 fps beroende på spel och det kan skicka ut dessa i hög hastighet. Låt även v-sync vara aktiverad. Skärmen skulle aktivt jämföra de två senaste bilderna och endast uppdatera om det finns en skillnad dem emellan.

Om ett grafikkort normalt sett klarar av att rendera ett spel i 60 FPS och skärmen klarar av 60 FPS är det inga problem. Men om grafikkortet sjunker till säg 50 FPS kommer en av två uppdateringar misslyckas och hackande kommer uppstå. Om man istället låter skärmen ta emot uppdateringarna i säg 240Hz (något även budgetkort klarar av) om än endast presentera dem i max 60 FPS kommer genast problemet bli mycket mindre.

Permalänk
Medlem
Skrivet av Ashzala:

Tack för omtanken, men länken hjälpte föga.

Tänkte ev. testa ultramon ikväll och se om det gör vad jag vill, jag är dock tveksam.

Första träffen verkade ju ge tre lösningar på ditt problem. Är inte Ultramon något för den som har flera fysiska skärmar? Var många år sedan som jag använde det så vet ju inte åt vilket håll det utvecklats.

Permalänk
Medlem
Skrivet av hakro807:

Första träffen verkade ju ge tre lösningar på ditt problem. Är inte Ultramon något för den som har flera fysiska skärmar? Var många år sedan som jag använde det så vet ju inte åt vilket håll det utvecklats.

SplitView
"...The program does not necessarily create two separate displays. But does give the user a much easier way to split their windows and move them on screen...."

Vad händer om jag startar ett spel i fusllskärmsläge? Verkar inte som att det kommer fungera så bra tyvärr.

Stod ungefär samma sak på de andra programmen.

Permalänk
Medlem
Skrivet av elajt_1:

Jo men förmodligen inte på befintliga kort vilket är tråkigt. Nvidia kan nog ex. inte ha stöd för Free sync på 700 eller 900-serien. Det måste ju finnas något hårdvarumässigt stöd för det, annars hade ju AMD haft det på sitt R9 280X.

Ganska säker att det är bara att uppdatera drivrutinerna för att få stöd för det.

Skrivet av hakro807:

En lösning skulle vara att låta en free-sync-kapabel skärm presentera en mycket högre uppdateringsfrekvens än vad den är faktiskt kapabel till.

För att förklara, låt oss anta att skärmen har en max uppdateringshastighet på 60 Hz. Grafikkortet kommer däremot kunna rendera allt mellan 20 och 200 fps beroende på spel och det kan skicka ut dessa i hög hastighet. Låt även v-sync vara aktiverad. Skärmen skulle aktivt jämföra de två senaste bilderna och endast uppdatera om det finns en skillnad dem emellan.

Om ett grafikkort normalt sett klarar av att rendera ett spel i 60 FPS och skärmen klarar av 60 FPS är det inga problem. Men om grafikkortet sjunker till säg 50 FPS kommer en av två uppdateringar misslyckas och hackande kommer uppstå. Om man istället låter skärmen ta emot uppdateringarna i säg 240Hz (något även budgetkort klarar av) om än endast presentera dem i max 60 FPS kommer genast problemet bli mycket mindre.

Nu förstår jag inte. Det är så det funkar i dagsläget. Skillnaden med Vsync är att den försöker synka grafikkortet mot skärmen för att slippa tearing som händer när kortet börjar pumpa fler/mindre rutor i sekunden där skärmen sedan i sin uppdatering iinte får en hel bildruta antingen på grund av att frame'n var den senaste eller inte var klar när skärmen skulle visa en ny bild.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem
Skrivet av hakro807:

En lösning skulle vara att låta en free-sync-kapabel skärm presentera en mycket högre uppdateringsfrekvens än vad den är faktiskt kapabel till.

För att förklara, låt oss anta att skärmen har en max uppdateringshastighet på 60 Hz. Grafikkortet kommer däremot kunna rendera allt mellan 20 och 200 fps beroende på spel och det kan skicka ut dessa i hög hastighet. Låt även v-sync vara aktiverad. Skärmen skulle aktivt jämföra de två senaste bilderna och endast uppdatera om det finns en skillnad dem emellan.

Om ett grafikkort normalt sett klarar av att rendera ett spel i 60 FPS och skärmen klarar av 60 FPS är det inga problem. Men om grafikkortet sjunker till säg 50 FPS kommer en av två uppdateringar misslyckas och hackande kommer uppstå. Om man istället låter skärmen ta emot uppdateringarna i säg 240Hz (något även budgetkort klarar av) om än endast presentera dem i max 60 FPS kommer genast problemet bli mycket mindre.

Det fungerar inte på det sättet. Alls. Och det jag tror att du föreslår, även om det rent tekniskt inte skulle fungera allas, skulle ge upphov till tearing. Din lösning är i princip som att köra med V-sync av. eller köra adaptive vsync.

Mycket förenklat så är ju Gsync/freesync, precis som Vsync, fast på en hårdvarunivå, samt mer dynamisk. Dvs skärmen kan visa ett spann mellan säg 25-120Hz. När grafikkortet då visar 40FPS så anpassar sig skärmen och synkar till 40 hz, dvs inte enbart att den växlar ner till 40 hz, utan faktiskt sunkroniserar varje frame, så du inte får någon tearing. Din maxfps antar jag fortfarande blir beroedne på skärmens maximala uppdateringsfrekvens, i detta fallet 120hz/120fps. Om det inte är så att dessa skärman dynamiskt stänger av syncroniseringen. Så även Gsync/freesync lär käka upp lite prestanda, har ingen koll på hur mycket dock. Det hjälper också enbart mot tearing, det hjälper inte mot ghosting, rörelseoskärpa som hänger ihop med panelens responstid.

Vi är fortfarande långt ifrån den perfekta skärmen. I min värld skulle den perfekta skärmen ha 144hz, 4k upplösning, OLED, Gsync/freesync, IPS, Halvmatt yta, under 8Ms GTG responstid. Får vänta några år...

En skärm kan aldrig visa fler bilder än vad den är gjord för (med undantag för att vissa paneler kan överklockas lite). Detta med tearing verkar vara olika från skärm till skärm också har jag märkt. min gamla apple cinema display HD, verkar ha som minst tearing runt 70FPS av någon anledning, runt 50-60 är det mycket, över 80 är det också mycket. på 70 är det otroligt lite. har ingen bra teknisk förklaring för det, men har märkt liknande beteende på alla skärmar jag testat, de har någon form av "sweet spot".

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Väntar med spänning på Freesync. Ska bli intressant att se vad det blir av detta. Behöver dessutom en ny main skärm.

Börjar bli lite småpeppad. Speciellt med artiklar och rykten som dessa om 390X med 4096-bitars minnesbus.

If the listing in Sandra’s database is correct and really describes a prototype of the Radeon R9 390X “Fiji XT” graphics card, the next-generation offering from AMD will feature 4096 stream processors (SPs) (which, in case of the GCN 1.2 architecture, means 64 compute units and 256 texture units) and 4096-bit memory bus. The memory sub-system will rely on SK Hynix’s stacked high bandwidth memory (HBM) chips with 1024-bit input/output interface (compliant with the Wide IO standard).

http://www.kitguru.net/components/graphic-cards/anton-shilov/amds-radeon-r9-390x-fiji-xt-may-feature-4096-sps-extreme-memory-bandwidth/

Framtiden! Håller tummarna för AMD. Konkurrens är alltid bra.

Permalänk
Medlem
Skrivet av Zotamedu:

De var dock väldigt snabba på att dra tillbaks det uttalandet. Deras officiella ställning är för tillfället att de inte kan kommentera teknik som inte finns. Så de väljer att vara tysta tills de ser vad som händer. De har ju investerat mycket pengar i G-sync och att direkt slänga sig på Freesync är inte alltför bra för affärerna. Så de lär avvakta och se hur de ska göra baserat på hur det går för Freesync.

Får hoppas dom väljer följa en standard. nu när Vesa finns är det dumt att inte införa stöd för freesync. Bilr ju annars som andra tekniker som när 3D skärmar till datorn försvann, bara för tekniken varken sålde och var kraftigt fragmenterad (amd körde en teknik och Nvidia en annan), så man var tvungen köra en skärm för amd kort och nvidia en annan. Sen att 3D inte är någon hit är en annan sak

Misstänker 900 serien har stöd men avstängt

Skrivet av Da´Russian Stallion:

Säker på det? tror det mest ligger i drivrutinen...

Näpp, gamla 7xxx serien klarade bara av en viss typ av detta. Alltså i laptops där inte varje bildruta byttes om det inte hände något på skärmen. Helt enkelt gör man inget med datorn i 5 minuter är det samma bild som visas i 5 minuter, typ så

I nya GCN 1.1 och senare så ändras frekvensen både på skärm och grafikkort dynamiskt.

Kan ju läsa om det här http://www.sweclockers.com/nyhet/19167-amd-freesync-kompatibl...

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Entusiast
Skrivet av M3ntalist:

Det jag ser fram emot är att FreeSync kan komma att pressa prisen på en Gsync skärm. Tror fortfarande inte att det kommer att bli lika bra som Gsync men jag hoppas att jag har fel. Det är bra med konkurrens.

Hur kommer det sig att det fortfarande inte finna bra bevis på funkonalitet. Computex var ju ett skämt, det tror jag dom flesta håller med om.

Två olika skärmar.
http://www.youtube.com/watch?v=Dv0nOBAXaCA

Nej det är rätt få som tycker att Computex var ett skämt. Det är väl du och CJ1strem som fått för er att det är skit utan att egentlige förklara varför. Jag har inte sett eller hört någon som faktiskt var där vara kritisk utan det verkar vara ett fåtal användare som hävdar att det är skit baserat på ganska exakt ingenting. De var tydliga med att det som visades på Computex var tidiga prototyper. Enda rätt bra jobbat att gå från tidiga prototyper till lansering på ett halvår.

De hade för övrigt ett andra demo på Computex med en skärm som där de kunde stänga av och sätta på Freesync. Men det är klart att du inte nämner det.

Varför tror du att det kommer bli sämre? Är det för att det inte sitter en lös dyr FPGA i skärmen? Eller är det för att det är öppet eller är det helt enkelt fel färg på loggan?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd
Skrivet av TheSlicker:

Förstår mig inte på varför utvecklingen går mot dessa breda skärmar <.< . Redan 16:9 är för brett i förhållande till höjden tycker jag för en PC skärm.

Jag antar att du inte testat AMD's triple monitor setup eller liknande. Har själv tre skärmar som underlättar allt från arbete till spel till vardagliga ärenden. Att ha en ultrabred skärm skulle vara jävligt nice, speciellt curved då man vill ha den omslukande känslan.

Testa gärna 2+ skärmar och känn efter. Jag har svårt att släppa de men en ultrabred curved skärm skulle verkligen vara intressant. Dock inte för prislappen 12 lappar

Bara att vänta helt enkelt.

Permalänk
Medlem
Skrivet av Ashzala:

Jag skulle vilja dela upp en 21:9 skärm så man får en 16:9 del och en 5:9 del. Slipper skarven med två skärmar + smidigare! Alltså så att det fungerar precis som två skärmar.

Någon vet om det är möjligt?

Det medföljer någon mjukvara till vissa LG-skärmar som kan det, och LG's andra ultrabreda skärmar kan ha dual input tydligen.

Visa signatur

i5 4790K, 8 GB XMS3 1600 Mhz, RX 5700XT, Gigabyte G1.Sniper M5

Permalänk
Medlem
Skrivet av Perb:

Jag ogillade 16:9 väldigt mycket och var nöjd med min 16:10. Föll dock för frestelsen att köpa en 1440p-skärm och plötsligt är formatet helt perfekt. Problemet är att 16:9 i 1080p ger för få pixlar på höjden men med högre upplösning är det inte längre ett problem. Får jag bara minst 1440 pixlar på höjden kan jag till och med tänka mig ett ännu bredare format.

LG's 34 ultrawide är ju 3440x1440 så borde passa.

Skickades från m.sweclockers.com

Visa signatur

EVGA RTX 3080 / 5800x / Gigabyte X570 I AORUS PRO WIFI / Ballistix 32GB 3200mhz / Corsair SF750 750W / Gigabyte 48" AORUS FO48U OLED 4K 120 Hz