Veckans fråga: Ska du köpa Geforce RTX 3000 eller väntar du på RDNA 2?

Permalänk
Medlem
Skrivet av Barsk66:

"hur högt kan vi pressa priset innan kunderna flyr?" är inget som Nvidia ska lastas för. Så gör alla tillverkare. Man sätter ett så högt pris som kunderna "tål". Kallas marknadspris. Finns ju ingen tillverkare som gör något om det inte finns en vinning av det, och ju högre vinning dess bättre. Det enda som kan hålla tillbaka priserna är konkurrens. Och där ska vi tacka AMD och Intel för att de är med i spelet igen!

Nja, självklart är det så att ett företag är skyldiga att tjäna mest möjligt med pengar, men det kan göras på lite olika sätt.
Så som Nvidia gjorde det var att skylla på "hänsyn till tredjepart så blir våra kort jättedyra då vi inte vill konkurera" och förskjuta hela pris/prestanda klassningen ett snäpp och "dubbla" priset på toppen.
Och det är klart dom kommer undan med det i brist på konkurrens.
(det finns en video från en internt genomgång av tankarna bakom FE, kan tyvärr inte hitta den, men jag reagerade på att den var rätt "ful")

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Medlem

Mitt vega56 (med 64 bios) klarar allt jag behöver till 2023 at least om den inte exploderar med en fireball till dess, den drar 380w gpu alone trots allt....

Permalänk
Medlem

nöjd med mitt vega 56 flashad till vega 64 bios.... kanske om ett par år....

Permalänk
Medlem
Skrivet av Meathim:

Ingen vet.

Schrödingers grafikkort.

Permalänk
Medlem
Skrivet av Sveklockarn:

10-serien blev obsolet mycket snabbare än 20-serien, tack vare nämnda stöd. Minecraft är nästa stora titel jag förutser får ett uppsving tack vare raytracing, finns oerhört mycket att bygga där som är sjukt mycket snyggare med raytracing, om de bara lyckas dra tummen Minecraft med RTX ur beta-hålet.

Wut, 10 serien är fortfarande mycket mer använd enligt steam survey, det är ju snarare 20 serien som är obsolete?
20 serien baserade sitt pris i ett featuresset som den knappt kunde använda vettigt, och nu verkar det rätt tydligt att de inte kommer kunna hänga med framöver när väl "riktiga" Ray tracing-titlar börjar trilla in.
Det enda spelet jag tycker är värt att spela med RT on just nu är Minecraft. Det är en intressant demo i de andra spelen men inget jag vill totalsänka prestandan för, och även i minecraft som har i övrigt extremt primitiv grafik är FPS inte jättebra...

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Wut, 10 serien är fortfarande mycket mer använd enligt steam survey, det är ju snarare 20 serien som är obsolete?
20 serien baserade sitt pris i ett featuresset som den knappt kunde använda vettigt, och nu verkar det rätt tydligt att de inte kommer kunna hänga med framöver när väl "riktiga" Ray tracing-titlar börjar trilla in.
Det enda spelet jag tycker är värt att spela med RT on just nu är Minecraft. Det är en intressant demo i de andra spelen men inget jag vill totalsänka prestandan för, och även i minecraft som har i övrigt extremt primitiv grafik är FPS inte jättebra...

Håller helt med. Pascal har gett enormt mycket under lång tid. Förvisso brist på förbättringar hos efterföljande generation sett till ren prestanda till vettigt pris som är orsaken men likväl har folk kunnat sitta lugnt med sina grafikkort i tre-fyra år utan att ha känt sig manade att uppgradera. Undertecknad inkluderad.

Permalänk
Medlem
Skrivet av Shiprat:

Wut, 10 serien är fortfarande mycket mer använd enligt steam survey, det är ju snarare 20 serien som är obsolete?

Jag menar att 20-serien har ett feature set för framtidens tekniker som saknas på 10-serien.

Skrivet av Shiprat:

20 serien baserade sitt pris i ett featuresset som den knappt kunde använda vettigt, och nu verkar det rätt tydligt att de inte kommer kunna hänga med framöver när väl "riktiga" Ray tracing-titlar börjar trilla in.

Det är visserligen inte bara raytracing, och flera av prestandaproblemen berodde på taskiga implementeringar som fixats sedan dess.

Skrivet av Shiprat:

Det enda spelet jag tycker är värt att spela med RT on just nu är Minecraft. Det är en intressant demo i de andra spelen men inget jag vill totalsänka prestandan för, och även i minecraft som har i övrigt extremt primitiv grafik är FPS inte jättebra...

Ja, som sagt, ingen raytracing i Minecraft med 10-serien samtidigt som ett 2080 orkar ca 60 FPS.

Permalänk
Medlem
Skrivet av Sveklockarn:

SweClockers prestandaindex placerar 2080 ca 18-19% högre än 1080 Ti, det är mer relevanta tester som ligger till grund för det än vad enskilda användare rapporterat in.

Fast nu trollar du med siffrorna rejält. Du kanske menar 0-19% snabbare? För absolut finns det ett fåtal titlar där 2080 drar iväg lite mer. Men normalt vad jag kan se är 0-5%. Sedan vet jag inte riktigt om jag håller med om att bara för att det är SweC så är det mer relevant än 100tals inrapporterade siffror. Jag gillar också SweC, men det är fortfarande vettigt att kolla på flera olika sidor och jämföra.

Skrivet av Sveklockarn:

Det vet jag inte om jag håller med om generellt, men visst finns det titlar som av olika skäl haft dålig prestanda med raytracing beroende på att det är en omogen teknologi. Att det inte är värt att ha det påslaget definieras nog av vilken typ av spelupplevelse man förväntar sig och vilka spel man spelar. Att första iterationen av en ny teknologi inte är perfekt kan man ändå ha visst överseende med, för hur skulle man övertyga någon om nyttan med en teknologi som inte går att demonstrera?

Sure, men det kändes som att man tog betalt för funktioner som i princip var i ett betastadie, Korten pallade helt enkelt inte med det, och då tycker jag inte man ska lägga upp det som världens bästa funktion som alla måste ha.

Skrivet av Sveklockarn:

10-serien blev obsolet mycket snabbare än 20-serien, tack vare nämnda stöd. Minecraft är nästa stora titel jag förutser får ett uppsving tack vare raytracing, finns oerhört mycket att bygga där som är sjukt mycket snyggare med raytracing, om de bara lyckas dra tummen Minecraft med RTX ur beta-hålet.

Ja med 30-serien så kommer nog RTX att blomma tror jag också. Håller med om att Minecraft ser fint ut med raytracing.

Visa signatur

AMD Ryzen 7 5800X 3.8 GHz | ASUS ROG Strix B550-F Gaming | G.Skill 32GB DDR4 3600MHz CL16 Trident Z Neo | AMD 7900 XTX | Noctua NH-U12A Chromax Black | Seasonic Prime GX 850W | Fractal Design Define XL R2 | LG OLED48CX

Permalänk
Moderator
Testpilot
Skrivet av YamahaDGX630:

Om du kan en del inom området så får du gärna kika min sign. Har en 6700K klockad till snälla 4,3GHz. Är inte 3080 rekommenderat till 750-850 watt?

Svårt att säga säkert men din CPU har en TDP på 91W så med lite OC strax kring 100W. Saken är den dock att få spel, stressar både CPU och GPU max samtidigt.

Oavsett så om 3080 kräver 350W och din CPU ~100W så har du fortfarande gott med marginal.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Nopp.
Mitt 2080 ti får fan räcka några år till.

Visa signatur

"NO! I dont wanna die. There are still too many things I don't own..."
I7 13700K | Asus Prime z690-a | 32GB DDR5 | Asus 3080ti | Samsung 970 m.2 250 + 2000 + några 1tb 870s | 3 x Asus 27´ 1440p 165hz
NAS Synology DiskStation DS920+ 4x12TB WDred / Ender 3 PRO / Ender 3 S1

Permalänk
Medlem
Skrivet av hakd:

Är ditt svar köpa innan du vet vad konkurrenten erbjuder så är du troligen ekonomiskt oberoende eller fanboi.
EDIT: (alt låst på VRR pga monitor).

Har du en vinnande hand så visar du den.

Jag tror inte AMD har något att kontra 3080 med, därav tystnad.

Permalänk

Väntar på ett 3080 Ti. Mitt 1080 Ti klarar allt än så länge fast orosmolnet Cyberpunk 2077 börjar att närma sig.

Visa signatur

Corsair Obsidian 750D | EVGA Z790 Classified | G.Skill Ripjaws S5 6000 MHz CL30 64GB DDR5 @6600 MHz CL30 | i9-13900KF @5.6 GHz | PNY GeForce RTX 3080Ti XLR8 Gaming Revel Epic-X RGB @2055 MHz, 19902 MHz | Cooler Master V1200 | CPU+GPU-kylning: EK Custom loop | BenQ XL2410T + LG UltraGear 34GP950G |

Permalänk
Inaktiv
Skrivet av JDM:

Har du en vinnande hand så visar du den.

Jag tror inte AMD har något att kontra 3080 med, därav tystnad.

3080 är inte lanserad ännu, de skulle lika väl kunna avslöja något som är så tilltalande att de rejält stör Nvidias lansering. Men som det varit just nu har media rapporterar Nvidias dagliga PR i över en vecka. De har redan maximerat rampljuset, såvida inte AMD visar att deras motsvarighet till 3070 krossar just 3070 är det på tok för sent.

Jag tvivlar något på det men just när man avslöjar något har också stor betydelse.

Permalänk
Medlem
Skrivet av Dinoman:

Svårt att säga säkert men din CPU har en TDP på 91W så med lite OC strax kring 100W. Saken är den dock att få spel, stressar både CPU och GPU max samtidigt.

Oavsett så om 3080 kräver 350W och din CPU ~100W så har du fortfarande gott med marginal.

Tack för genomtänkt svar!
Hoppas du har rätt, jag antar att recensionerna avgör vilket kort jag får stoppa in, och inte plånboken den här gången!
Dessutom har jag mitt chassi liggandes på gummifötter i en TV-bänk numera, så frågan är om ett 3080 är på gränsen för en "HTPC" gällande värme ?

Visa signatur

Project: Perfection 2.0
OS: Microsoft Windows 11 Home | CPU: Intel Core i9 11900 | GPU: EVGA 3080 XC3 Ultra Hybrid
MB: ASUS ROG STRIX B560-I | RAM: Corsair Dominator Platinum 32GB | PSU: Corsair SF750
Chassi: Louqe Ghost S1 MK3 | SSD: Samsung 980 Pro | CPU-Kylare: Fractal Design Celsius+ S24
Bildskärm: Sony 65AG9 | Mus: Logitech G603 | Tangentbord: Corsair K63 Wireless

Permalänk

Jag kommer att vänta det händer så mycket nu i höst.

Visa signatur

🧔🏻 ⚙️Fractal Design Meshify C TG white ⚙️Asus ROG Strix B550-E Gaming ⚙️Zotac GeForce RTX 3060 AMP White Edition ⚙️Acer Predator XB273UGS QHD IPS 165 Hz (2x27") ⚙️Amd Ryzen 9 5900X ⚙️Kingston A2000 1TB NVMe M.2 SSD ⚙️HyperX Fury RGB DDR4 32GB (2x16GB) ⚙️Seagate BarraCuda 2TB 3.5'' HDD ⚙️Western Digital EX 14TB HDD ⚙️Cooler Master Hyper 212 ⚙️Cooler Master Sickleflow 120mm ARGB 5st ⚙️Corsair TX650M PSU ⚙️Canon i-Sensys MF643CDW ⚙️Logi C920s PRO HD ⚙️Logi G915 Tactile ⚙️Logi G703 ⚙️Logi G PowerPlay ⚙️Win 11 installerad.

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag menar att 20-serien har ett feature set för framtidens tekniker som saknas på 10-serien.

Det är visserligen inte bara raytracing, och flera av prestandaproblemen berodde på taskiga implementeringar som fixats sedan dess.

Ja, som sagt, ingen raytracing i Minecraft med 10-serien samtidigt som ett 2080 orkar ca 60 FPS.

Well, det är väl där jag inte riktigt håller med- möjligen då DLSS, men om man vill köra raytracing framöver så känns det som att det inte finns någon poäng alls att köpa 20-serien.

Visst att FPS är högre än det var i början, men vad man får offra i Metro till exempel gör det väldigt ovärt för mig, och att spela battlefield med den begränsat implementeringen där fungerar fortfarande väldigt dåligt de få gånger jag slår på det, med enorm stuttering vid stora scener, när man flyger kan det droppa till typ 5fps i ett par sekunder från och till. Instabilt helt enkelt.

Ray tracing är nice i minecraft om det är något man kör mycket, där hänger allt på att det ska komma i ett smidigare paket, kanske gå att implementera lätt med redan existerande världar osv (om de inte redan löst det, sist jag körde var det inte fixat)

Either way, om nvidia kommer i närheten av vad de lovar ser jag ingen poäng med att rekommendera 20-serien som något annat än billiga begagnade kort, och även då skulle jag snarare rekommendera att vänta och se huruvida nvidia eller amd släpper några billigare kort i sina serier som är bättre på raytracing.

Jag är kanske biased då jag hade både 1070, 1070Ti och 1080Ti men det enda som i mina ögon kunde ha räddat Turing var om de hade levt upp till sin hype runt raytracing, men som det är kändes det som ett dyrare kort tveksamma gains och med stora löften som aldrig materialiserades. Jag köpte ett 2060 vid launch för att testa RT med tanken att om det inte funkar i ~4k klassen som är mycket mer utbredd än ~6k ~9k och ~12k så kommer det inte bli något på ett tag, och det gjorde det inte heller. Men nu en serie senare så kanske hårdvaran kommer finnas på plats.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

RTX 3080 samt gpu block/vattenkylning lutar det åt. Men väntar smart med vad AMD har att erbjuda.

Permalänk
Medlem
Skrivet av Söderbäck:

Priset är inte sänkt ;).

Nvidias prissättning som de gått ut med:

2080 - $699
3080 - $699
2070 - $499
3070 - $499

Skulle säga att nvidia leker med namnen

2080 ersätts med 3070
2080Ti ersätts med 3080

3090 är ett titan kort

Visa signatur

Moderkort: MSI MPG X570 Gaming plus CPU: Ryzen 7 5700X3D
RAM: Crucial Ballistix 16GB DDR4 3600 MHz Kylning: Noctua NH-D15 chromax.black Lagring: 4 x Samsung 840 Pro 500GB
Grafikkort :Sapphire Radeon™ RX 6950 XT PURE NITRO+ Nätaggregat: EVGA SuperNOVA 750 G2
Chassi: Fractal Design Define Vision S2 Blackout Monitor: HP OMEN 27 & Acer XF270HUC
Tangentbord: Corsair Gaming Strafe RGB MX SILENT Mus: SteelSeries Rival 700

Permalänk
Medlem

Jag är 49% säker att mitt nästa kort blir ett 3070.
Håller det vad det på förhand lovar så får det nog bli så också, om jag inte råkar få ett kalaserbjudande på t.ex. ett 2080Ti.

Oavsett vad det blir lär det komma att märkas en smärre förbättring från nuvarande 980Ti.

Permalänk
Medlem

Är väldigt säker på att det blir en uppgradering till ett 3090.
Men väntar på utförliga tester och recensioner, är det då tillräckligt stort hopp i prestanda mot 3080 blir det ett köp. Är det inte tillräckligt stor skillnad får det bli ett 3080.

Men väntar även på att de ryktade modellerna från ASUS som de då gör tillsammans med EK.
Hoppas på ett nytt Poseidon kort.
Hoppas de inte dröjer allt för länge bara...
https://www.tomshardware.com/news/unannounced-asus-and-gigaby...

Citat:

"Asus is also preparing new EK and KO lineups for Ampere. However, there's no mention yet on what these cards will be designed for. There are a lot of possibilities; they could be water-cooled solutions like a custom block or AIO"

Visa signatur

ASUS ROG MAXIMUS Z690 EXTREME GLACIAL | Intel Core i9 12900K | ASUS RTX 3080 Strix OC | G.Skill 32GB (2x16GB) DDR5 6000MHz CL36 Trident Z5 RGB Silver | 2st WD Black SN850 2TB M.2 SSD | Samsung 960 EVO 1TB | Samsung 860 EVO 1TB | WD Black 4TB | Seasonic Prime TX 1300W | CaseLabs SMA8 | Samsung Odyssey Neo G9

Permalänk
Medlem

Jag skulle säga så här. Är du sugen på ett 3070, vänta in Big navi som kommer ha kanske dubbelt i i RAM 16GB istället för nvidia 3070 8GB. AMD kommer också ha en mer avancerad TSMC processnod som utvecklar mindre värme(potentiellt sett).

Vill du ha ett 3080 med mer RAM? Kan komma men bara om big navi 16GB (3070) säljer som smör.

Med 8k skärm ser jag fram emot 3090.

Permalänk
Medlem
Skrivet av Darkie:

Nopp.
Mitt 2080 ti får fan räcka några år till.

Kan du verkligen hålla dig när 3080 går 30% fortare för typ halva priset?

Permalänk
Medlem

Blir kanske ett 3070 för mig om jag får mitt 2070 super sålt. AMD har alldeles för sugiga drivrutiner till linux har testat och det var ren katastrof.

Visa signatur

CachyOs. MSI MPG Z490 GAMING PLUS// Intel Core i5-10600K@4800Mhz// Radeon rx 6800 16gb // Corsair VENGEANCE LPX 32GB.

Permalänk
Medlem

@Scirocco: jag har hört precis tvärtom att jag amd:s linux drivrutiner är klart mer putsade än nvidias. 3070 kommer ligga i big navis nålsöga med dubbelt VRAM (16GB).

Permalänk
Medlem
Skrivet av Scirocco:

Blir kanske ett 3070 för mig om jag får mitt 2070 super sålt. AMD har alldeles för sugiga drivrutiner till linux har testat och det var ren katastrof.

När testade du? Om det var innan Ubuntu 16.04 kanske du stötte på AMD's dåvarande proprietary driver fglrx.
Numera är AMD's öppna driver den som funkar överlägset bäst IMO, Intel funkar oftast bra också och man kan med fördel köra ClearOS varpå det blir utmärkt, Nvidia är fortfarande bökigt.

Detta är för basic bruk, om du håller på med avancerade compute-stuff så beror det väl på dina krav och då räknar jag med att dina problem är bortom vanliga dödligas horisonter

Dock är linux linux, och man kan alltid hamna i en ändlös spiral av skit, det är en del av upplevelsen typ.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Hah sitter rätt illa till om det är så att Big Navi blir bättre. Oavsett om de skulle släppa ett 3090-liknande kort till en billigare peng "måste" jag köra på 3090 ändå. Detta eftersom både min TV (LG C9) och Monitor (ROG PG279Q) har G-sync stöd, men ej Freesync. ^^

Antar att det finns fler som sitter i liknande sits med antingen TV, Monitor eller båda som jag.

Visa signatur

| 5950x | G.SKill Trident Z Neo RGB 32GB 3600mhz cl 16 | x570 Aorus Master | 3080 Aorus Master | Gigabyte Aorus NVMe Gen4 M.2 2280 | Fractal Design Define 7 XL | Corsair H115i Pro XT | Corsair HX1000i 1000W |

Permalänk
Medlem
Skrivet av Zoxx0:

Hah sitter rätt illa till om det är så att Big Navi blir bättre. Oavsett om de skulle släppa ett 3090-liknande kort till en billigare peng "måste" jag köra på 3090 ändå. Detta eftersom både min TV (LG C9) och Monitor (ROG PG279Q) har G-sync stöd, men ej Freesync. ^^

Antar att det finns fler som sitter i liknande sits med antingen TV, Monitor eller båda som jag.

När G-Sync dök upp tänkte jag direkt "lär nog aldrig köpa något sånt där" just för att jag inte gillar att låsa mig till någon "sida".
När jag köpte min Samsung C32HG70QQ var Freesync en bonus, ville mest ha en 32 med 1440p 144hz och låg input latency.
Att nvidia sedan gav stöd för Freesync var en bonus.

Om du någonsin går i säljtankar för din GSYNC-skärm - kolla vilken FPGA som sitter i och vad den går för på ebay. Nu har du en dyr skärm så går nog inte ner enormt i värde, men om den skulle paja och vara utanför garantitid elelr något så kan du eventuellt få mer för FPGA än vad skärmen i sig är värd om några år.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av JDM:

Har du en vinnande hand så visar du den.

Jag tror inte AMD har något att kontra 3080 med, därav tystnad.

Precis som du själv skriver så vet ingen. Kan inte AMD matcha det i pris eller prestanda så har du som mest förlorat två månader på att vänta.

Sen är det teoretiskt omöjligt att veta att din hand är vinnande om du inte känner till alla kort i leken

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av Shiprat:

När G-Sync dök upp tänkte jag direkt "lär nog aldrig köpa något sånt där" just för att jag inte gillar att låsa mig till någon "sida".
När jag köpte min Samsung C32HG70QQ var Freesync en bonus, ville mest ha en 32 med 1440p 144hz och låg input latency.
Att nvidia sedan gav stöd för Freesync var en bonus.

Om du någonsin går i säljtankar för din GSYNC-skärm - kolla vilken FPGA som sitter i och vad den går för på ebay. Nu har du en dyr skärm så går nog inte ner enormt i värde, men om den skulle paja och vara utanför garantitid elelr något så kan du eventuellt få mer för FPGA än vad skärmen i sig är värd om några år.

Precis, G-sync är ju det som finns på de flesta IPS-panelerna med hög hz och låg input-lag så hade nog blivit det oavsett vilken i den prisklassen. Tror jag i alla fall.

Tack för tipset!

Visa signatur

| 5950x | G.SKill Trident Z Neo RGB 32GB 3600mhz cl 16 | x570 Aorus Master | 3080 Aorus Master | Gigabyte Aorus NVMe Gen4 M.2 2280 | Fractal Design Define 7 XL | Corsair H115i Pro XT | Corsair HX1000i 1000W |

Permalänk
Medlem
Skrivet av Zoxx0:

Precis, G-sync är ju det som finns på de flesta IPS-panelerna med hög hz och låg input-lag så hade nog blivit det oavsett vilken i den prisklassen. Tror jag i alla fall.

Tack för tipset!

Min är bara VA, IPS var inte lika mycket prio för min del. Bästa icke-IPS jag stött på och definitivt bättre än en del äldre IPS jag stött på på jobbet. Fortfarande sjuk nöjd, och skönt att inte behöva känna att jag tappar features om jag kör AMD nästa generation. Var även lite billigare än många motsvarande GSYNC-skärmar.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200