SweClockers nya testsvit för grafikkort

Permalänk
Medlem
Skrivet av Aleshi:

Det är ju just att man CPU oftast inte är flaskhalsen som det kan vara intressant att köra olika GPU:er, även förhållandevis starka sådana, med en svag processor. Det kan vara relevant för vissa att veta hur långt ner man kan gå och var bästa nivån kan vara någonstan för att balansera GPU-kostnad mot CPU-kostnad.

En snabbare prolle är ju dock najs till andra saker, samt att det är viktigt att kunna flexa på alla poors.

Permalänk
Medlem
Skrivet av GuessWho:

Får man önska en komplettering av speltester och prestandaindex med RTX 3060 och RTX 3060Ti ?

Skrivet av andra94:

Håller med och sen borde vi ha med dlss o fsr tester för o se hur värt det är att köpa high-end korten.

Det står i artikeln att det här bara är grundplåten, så det kommer nog.

Citat:

Inledningsvis bjuder vi även på prestandamätningar från en mindre skara kort ur Nvidias Geforce RTX 3000-serie samt AMD:s Radeon RX 6000-familj, men här vill vi trycka på att det endast rör sig om en grundplåt av kort och att fler modeller tillkommer när sviten används skarpt för första gången i recensionssyfte.

En par frågor, var kommer sånt som tester av minnesmängd och raytracing in i testerna? Eller olika PCIe-plattformar?

Flera av spelen idag har ju raytracing som (antar jag) inte är påslaget som standard, och ibland även högupplösta texturer som jag antar inte heller är aktiverade automatiskt. Kommer grafikkorten att stressas i separata tester både minnes- och raytracingmässigt? Det vore bra inte minst med tanke på att många kort begränsas på ett eller annat sätt, och då kan man se om/hur det påverkar prestandan i det segment kortet sägs tillhöra. Och då inte bara raytracing, som ju lyftes ut speciellt tidigare, utan även just minnesmängd eller begränsningar i andra gränssnitt.

Exempel är 6500XTs begränsade PCIex4 som är förödande på PCIe3 som var en stor målgrupp för det kortet, eller Far Cry 6 i testsviten som har både ett HD Texture Pack och raytracing, som är förödande på grafikkort med 8 GB minne för målgruppen 4K. Och kommer t ex AMD att lansera kort med PCIe5x8 eftersom det bör räcka för de nya PCIe5-plattformarna? Hur påverkar det isf prestandan på äldre PCIe4, eller t o m PCie3 som många säkert sitter med? Blir det liknande haverier som 6500XT? Genom fler sådana "sampelpunkter" täcker man in grafiklandskapet bättre och kan förhoppningsvis få en mer fullständig bild av både styrkor och svagheter.

Permalänk
Medlem

Var det inte ~75% av oss här som enligt en poll nyligen visade på att de var kvar på Windows 10? Det känns i nuläget mer relevant än Win 11 imho. Jag kan dock minnas fel och ber då om ursäkt. Annars - bra jobb!

Skrivet av bopp:

Och kommer t ex AMD att lansera kort med PCIe5x8 eftersom det bör räcka för de nya PCIe5-plattformarna? Hur påverkar det isf prestandan på äldre PCIe4, eller t o m PCie3 som många säkert sitter med? Blir det liknande haverier som 6500XT? Genom fler sådana "sampelpunkter" täcker man in grafiklandskapet bättre och kan förhoppningsvis få en mer fullständig bild av både styrkor och svagheter.

I princip noll faktiskt skillnad mellan PCIe 3 och 4 för spel på NVMe SSD-enheter. Det är tom svårt att, utan tidtagarur, med säkerhet säga om ett spel körs från en bra SATA-SSD och en bra PCIe 4 NVMe SSD.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 3080 12GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD | Synology DS920+ w/20GB RAM SHR 48TB | Seagate IronWolf 10TB HDD intern HDD
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto
: Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av Ozzed:

Även om 5800X3D kanske är lite bättre i spel så känns ändå 12900KS som ett bättre val för lite långsiktighet. Den går ju skrämma upp lite om systemet skulle börja kännas lite slött

har 12700k, 12900k, 5800x3d och när man tunar systemen(8c med snabbt ddr4 ram 1:1) så är i9an snabbare i många spel men 5800x3d verkar ändå dra längsta strået i flertal racesims.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Testpilot
Skrivet av Dinkefing:

Mycket trevligt men jag undrar också hur processen för att plocka fram vettiga spel går till i den nya testslingan? Ska det vara AAA-spel, måste de ha bra inbyggda benchmarks, vara stabila och tillräckligt patchade så att senare patchar inte ändrar prestandan, hur nya ska de vara osv?

Chernobylite är ju inte ett jättekänt t ex. Vad var det som gjorde att du fastnade för det? Antar att det är få nya AAA-spel som verkligen pressar prestandan.

Använder själv Chernobylite i mina Testpiloter, så kanske jag kan flika in lite här!

Chernobylite må inte vara det populäraste spelet, men det är byggt på Unreal Engine 4 och kommer med både DLSS och RT. Spelet kommer även med en robust inbyggd testslinga. Överlag är det en bra titel att inkludera i en testsvit, speciellt när man försöker bygga en testsvit som är konsekvent och gärna innehåller återproducerbara resultat.

Avslutande notis:
Tycker helt klart fler borde testa Chernobylite som spel, nog fjolårets bästa spel för egen del faktiskt, åtminstone helt klart där uppe i topplistan. Atmosfären är helt fantastisk och storyn är förvånansvärt fängslande – trots stundvis 'cheesy' dialog

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Medlem
Skrivet av Networker:

Finns ju folk som köper 3090Ti till en i3/i5, så tycker nog det vore en både bra och nyttig idé att testa GPU på flera tiers än den så säga "maximala" CPUn.

Kanske kan jämföras med att testa regummerade däck dedikerade för bilar i klassen "Nissan Micra" så skruvar man ju sällan på däcken på en Ferrari Testarossa, utan testar just småbilsdäcken på en småbil.

Är det så fruktansvärt intressant "konsumentupplysning" hur ett lågbudgetkort kan "prestera max" på en 12900KS?
Är svaret på sådant test relevant, förutom i någon knepig teori?

-Givetvis testar man "lågbudgetkort" till den marknaden/den "tier" av CPU de är avsedda för.
Alltså testa GPU för den tilltänkta "kundgruppen", för den av Nvidia eller AMD tilltänkta hårdvarutiern.

Man kan ju givetvis med en olåst CPU, som exempelvis 12900KS emulera på ett ungefär hur ett grafikkort presterar i olika "tiers", genom att stänga av kärnor och sänka klockfrekvens etc.

Det är i princip lika dumt att köpa en för svag GPU för en "för stark" CPU som det är att slänga pengar på dyr GPU men kör budget-CPU.

Möjligen har jag fattat allt fel under alla år, har ändå kvar något i bakskallen om att testerna ska få fram vad som är bästa "bang för bucken". Inte hur varje kort kan maximalt prestera under orimliga "bästa" förhållanden. För det är ointressant. Som att testa barnskor på en vuxen, eller tvärt om.

Tech Deals inspirerade mig en del. Intressant att veta hur GPU presterar i olika SKU.

Problemet är att alltför många inte förstår sig på hur relationen mellan GPU och CPU fungerar. Det är absolut mest adekvat att testa hur en mid-end GPU presterar med en processor i toppklass för att nå så ren GPU-prestanda som möjligt. När Swec testar CPU:er så testas de med high-end grafikkort för att få så ren CPU-prestanda som möjligt. Det du som konsument sedan kan göra är att jämföra prestandan mellan CPU och GPU-tester för att se till att du hamnar i en sweetspot.

Visa signatur

Stationär: Fractal Design Torrent, Gigabyte Z690 AORUS ELITE AX, 13600K, Corsair Venegeance 6000mhz, 1TB PCIE 4.0 Kingston, 1TB Corsair MP400, Gainward RTX 4090 Phantom.

Permalänk
Inaktiv
Skrivet av Fire_Ice:

AMDs 6800/6900-serie med 16GB VRAM kommer nog åldras väldigt bra i jämförelse med 3070/3080.

Exakt, mitt 5700XT är ju i stil med 2080S och ibland över med +10fps.

Men jag kom på varför alla tekniksidor och influensers använder intel, de får den där Intel-checken på 5000USD, klart man inte säger nej till den.

Permalänk
Moderator
Testpilot
Skrivet av backspace:

Jag ser att ni glömde skriva att ni även kommer att testköra med lämplig GNU/Linux-dist.

För att ta hand om den där stora mängden Linux-gejmers.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

För att ta hand om den där stora mängden Linux-gejmers.

Lär ju öka med Steamdeck, och suget att köra samma på PC dvs SteamOS kommer nog hos en hel del när dom vant sig vid Steamdeck.

Annars ser Pop OS ut som en av dom mer vassa Linux distarna just nu, och som är relativt lätt att få igång spel på

Själv har jag försökt med Linux många gånger, men mina favoritprogram är fortfarande Windows only så jag blir kvar på Windows. För tillfället.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Datavetare

Trevligt med uppdaterade GPU-tester!

Har två förslag önskemål

1.

Tillhandahåll test-resultaten som en CSV-fil. Finns så många sätt man kan välja att titta på en datamängd, är ju omöjligt för redaktionen att tillmötesgå alla önskemål här.

Exempel: man kanske vill ha prestandaindex baserad på lägsta FPS istället för genomsnittlig FPS, man kanske vill vikta relativ prestanda i de tyngsta titlar mer och därmed räkna med harmoniskt medelvärde i stället för geometriskt medelvärde.

2.

En GPGPU-benchmark skulle man väl ändå kunna klämma in? Givet kommentarerna när Ryzen släpptes verkar ju halva SweC sitta och rendera hela dagarna... Så varför inte köra Blenders "Open Data Benchmark"? De snabbaste GPUerna är numera mer än x10 snabbare på just detta än de snabbast konsument CPUerna.

Det finns redan en resultatdatabas, den har samma problem som alla andra sådana databaser där "vem som helst" får ladda upp resultat: det blir lite en tävling i att få högst resultat, så finns i värsta fall fusk men långt mer vanligt är resultat från hopplöst högt överklockade system.

Tror ingen som faktiskt jobbar med datorn vill ha den effekten + man kanske vill att datorn är lite mer stabil än att den överlever datorvärldens motsvarighet till en dragrace-run...

Edit: i nästa Blender, version v3.3 som förväntas lanseras i september, kommer det även Intel OneAPI stöd till Cycles. I det läget finns stöd för CUDA/Optix (Nvidia), HIP (AMD), Metal (Apple) samt OneAPI (Intel).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av anon343162:

Exakt, mitt 5700XT är ju i stil med 2080S och ibland över med +10fps.

Men jag kom på varför alla tekniksidor och influensers använder intel, de får den där Intel-checken på 5000USD, klart man inte säger nej till den.

Har du någon källa på det där "5000USD" checken eller är det bara fanboy mumbo jumbo? /s

Så vanligt att höra att tech influenser är si eller så trots att dom uppenbarligen kör system från både AMD/Intel/nVidia

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Redaktion
Praktikant ✨
Skrivet av Dinkefing:

Mycket trevligt men jag undrar också hur processen för att plocka fram vettiga spel går till i den nya testslingan? Ska det vara AAA-spel, måste de ha bra inbyggda benchmarks, vara stabila och tillräckligt patchade så att senare patchar inte ändrar prestandan, hur nya ska de vara osv?

Chernobylite är ju inte ett jättekänt t ex. Vad var det som gjorde att du fastnade för det? Antar att det är få nya AAA-spel som verkligen pressar prestandan.

Det måste inte nödvändigtvis vara AAA-spel, men oftast är det den typen av titlar som väljs ut till följd av att de generellt pushar hårdvaran mer. Annars brukar inbyggda benchmarks värdesättas, alternativt möjlighet att hitta in-game slingor som är konsekventa mellan körningarna och med vettiga sparplatser för startpunkten. I det här fallet har vi haft lite "tur" i och med att 11 av 12 spel har inbyggda benchmarks, vilket är en lyx vi inte är vana vid.

Annars är det precis som du skriver att spelet inte får vara alldeles för purfärskt av patchskäl. 3-4 månader från release brukar vara ok, men ibland händer det att man behöver köra om ett spel helt från grunden på grund av en prestandahöjande (eller sänkande) uppdatering.

Chernobylite är helt klart lite av en udda fågel sett till typen av titlar vi brukar välja till sviten (vikt mot AAA). Men i det här fallet ville jag ha med något Unreal Engine-baserat spel, och då dök det upp på radarn som ett tungdrivet och visuellt tilltalande spel (samt att vi kan använda det för ray tracing-testerna). Att det hade en bra inbyggd benchmark skadade inte heller.

Skrivet av Lordsqueak:

Hmm, Jag tycker ni ska inkludera några generationer av x60 modeller, bara så att man kan få ett hum om hur stor skillnaden är. x60 modellerna brukar ju vara storsäljare, så det är väl något de flesta kan relatera till.

Skrivet av GuessWho:

@JonasT

Får man önska en komplettering av speltester och prestandaindex med RTX 3060 och RTX 3060Ti ?

Det blir fler kort i sviten till den första recensionen som den används. @CrispVanDahl är i full gång med att lägga till kort.

Skrivet av bopp:

Det står i artikeln att det här bara är grundplåten, så det kommer nog.
En par frågor, var kommer sånt som tester av minnesmängd och raytracing in i testerna? Eller olika PCIe-plattformar?

Flera av spelen idag har ju raytracing som (antar jag) inte är påslaget som standard, och ibland även högupplösta texturer som jag antar inte heller är aktiverade automatiskt. Kommer grafikkorten att stressas i separata tester både minnes- och raytracingmässigt? Det vore bra inte minst med tanke på att många kort begränsas på ett eller annat sätt, och då kan man se om/hur det påverkar prestandan i det segment kortet sägs tillhöra. Och då inte bara raytracing, som ju lyftes ut speciellt tidigare, utan även just minnesmängd eller begränsningar i andra gränssnitt.

Exempel är 6500XTs begränsade PCIex4 som är förödande på PCIe3 som var en stor målgrupp för det kortet, eller Far Cry 6 i testsviten som har både ett HD Texture Pack och raytracing, som är förödande på grafikkort med 8 GB minne för målgruppen 4K. Och kommer t ex AMD att lansera kort med PCIe5x8 eftersom det bör räcka för de nya PCIe5-plattformarna? Hur påverkar det isf prestandan på äldre PCIe4, eller t o m PCie3 som många säkert sitter med? Blir det liknande haverier som 6500XT? Genom fler sådana "sampelpunkter" täcker man in grafiklandskapet bättre och kan förhoppningsvis få en mer fullständig bild av både styrkor och svagheter.

Ray tracing får en separat del senare till första recensionen, med fyra spel från vanliga sviten och några syntetiska tester från 3DMark. När det kommer till tester gällandes PCI Express-versioner samt VRAM-gränser så kommer det hanteras lite case-by-case eller i separata artiklar.

Permalänk
Medlem
Skrivet av Ozzed:

Även om 5800X3D kanske är lite bättre i spel så känns ändå 12900KS som ett bättre val för lite långsiktighet. Den går ju skrämma upp lite om systemet skulle börja kännas lite slött

Yep, 5800X3D intressant men lite för inkonsekvent, brute force prestanda kämns bättre för gpu bench.

Skrivet av andra94:

Om du fortfarande tycker rtx är meh så har du inte kört på en riktig HDR skärm och sen ex ultrawide eller spelat skräck i VR på ett högupplöst headset. Det är verkligen en wow känsla och passar super i story och långsammare spel.

Vad har någon av de sakerna att göra med huruvida RT är bra eller ej?

HDR är vändigt nice på en bra HDR skärm (alltså typ nästan aldrig spelskärmar), ultrawide är i min åsikt mest irriterande, VR är ljusår ifrån både RT och HDR i hur mycket det ger i upplevelse.

RT ligger i min åsikt runt omkring samma värde som bra AA vs dålig/ingen AA - snyggt, men tungdrivet och bara ibland värt den lägre framerate man får leva med.

VR är mer åt 2D vs 3D hållet fast typ ännu mer än så - är inte ens samma upplevelse längre, finns så mycker med VR som bara inte är möjligt med tangentbord och mus etc.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Nautilus011:

Har du någon källa på det där "5000USD" checken eller är det bara fanboy mumbo jumbo? /s

Så vanligt att höra att tech influenser är si eller så trots att dom uppenbarligen kör system från både AMD/Intel/nVidia

tror han syfta på:
https://youtube.com/playlist?list=PL8mG-RkN2uTxLsQhOyM5TBgMHF...

där Intel har blåst nära 100k på att uppgradera LTT's anställdas hårdvara.
inte direkt muta men har svårt att tror att det inte påverka ens syn när man få 5k $ i näven att blåsa på vad man vill sålänge det innehåller en Intel CPU.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem
Skrivet av Dinoman:

För att ta hand om den där stora mängden Linux-gejmers.

Eller för att särskilja sig en aning med objektiva benchmarks från den där lilla skaran hårdvaru-siter som enbart tittar på resultat från ett Windows-perspektiv.

Sarkasm åsido, det är rätt många av top 100-spelen som fungerar på Linux idag och vad jag förstått det så är många av era spel benchmarkade via Steam-plattformen, Valve är ju trots allt dem som lägger mest energi på att lösa den biten som i princip hela industrin givit kalla handen tidigare.

Så personligen tror jag inte att det hade medfört så extremt mycket merarbete att ha en extra SSD med en Linux-dist och något benchmark-tool i testburken/sviten.
-Låt inte blodtrycket stiga för högt nu, ni kan simma lungt för i 99% av fallen handlar det ändå om Windows spel som körs med kompatibilitetslager, så ni simmar inte allt för långt ifrån ankdammen när det kommer till vad ni benchmarkar för plattformar ändå.

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Medlem

Är inte 100% säker på att ni får ut 6400 ur det moderkortet. Extremt få, om några 4-slots kort, klarar över 6200 något sånär stabilt.
Ett Apex eller ännu hellre Unify-X så är ni säkra på att inte det är flaskhalsen.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Administrativ avgift
Skrivet av Shiprat:

Yep, 5800X3D intressant men lite för inkonsekvent, brute force prestanda kämns bättre för gpu bench.

Vad har någon av de sakerna att göra med huruvida RT är bra eller ej?

HDR är vändigt nice på en bra HDR skärm (alltså typ nästan aldrig spelskärmar), ultrawide är i min åsikt mest irriterande, VR är ljusår ifrån både RT och HDR i hur mycket det ger i upplevelse.

RT ligger i min åsikt runt omkring samma värde som bra AA vs dålig/ingen AA - snyggt, men tungdrivet och bara ibland värt den lägre framerate man får leva med.

VR är mer åt 2D vs 3D hållet fast typ ännu mer än så - är inte ens samma upplevelse längre, finns så mycker med VR som bara inte är möjligt med tangentbord och mus etc.

Du ställer dig väldigt negativ till en teknik som ger så extremt mycket i många spel med korrekta miljöer bara för att det ger ett prestandatapp, RTX är en "lyxprodukt" och därav gör sig där i spel där man inte måste ha 100+fps. Är väl bra att Nvidia kommer med nya saker.

Det jag vill säga är att du ställer dig negativt till en teknik du inte direkt betalar extra för ej heller så behöver du inte ha den på om du inte gillar prestandatappet.

Visa signatur

Loque Raw s1| 7950x3D | B650-i | 2x16GB DDR5 CL30@6000 | 2TB m.2 | 4090 TUF | Samsung G9 49 | Vive Focus 3

Permalänk
Inaktiv
Skrivet av Nautilus011:

Har du någon källa på det där "5000USD" checken eller är det bara fanboy mumbo jumbo? /s

Så vanligt att höra att tech influenser är si eller så trots att dom uppenbarligen kör system från både AMD/Intel/nVidia

https://www.youtube.com/results?search_query=linus+tech+tips+...

Intel har säkerligen massor utav såna här deals med de flesta influensers.

Följer man andra influensers som J2C, några fler Kanadensare och han där som bygger SSF-datorer, tror även dessa nämnt att Intel ger de 5000usd presentkort på intel upgrade-paket.

Givetvis skulle det inte förvåna mig om Swec också har fått denna deal flertalet gånger.

Permalänk
Medlem
Skrivet av TobbeH94:

Problemet är att alltför många inte förstår sig på hur relationen mellan GPU och CPU fungerar. Det är absolut mest adekvat att testa hur en mid-end GPU presterar med en processor i toppklass för att nå så ren GPU-prestanda som möjligt. När Swec testar CPU:er så testas de med high-end grafikkort för att få så ren CPU-prestanda som möjligt. Det du som konsument sedan kan göra är att jämföra prestandan mellan CPU och GPU-tester för att se till att du hamnar i en sweetspot.

Så är det ju, men hade varit bra för oss latmaskar att få siffror på mid-range också.

Permalänk
Medlem

Varför inte köra Intel system på titlar där Intel är bättre och amd system där amd är bättre?
Om intel/amd flaskhalsar så är det ju ointresanta resultat.

Permalänk
Medlem

Men det mest intressanta blir ju testet av grafikkortsbytarknappen!
Hur många iterationer klarar den måntro? Upp till bevis Asus!

Visa signatur

AMD 1090T // Vulcan 1866MHz 7-10-10-29 // HD6950 2GB // Crucial M4 128GB // Seasonic S12 500w (inköpt 2006)
Laptop Acer 17": Intel 3210M // 8GB Ram // GT640M // Samsung 830 256GB
Laptop MSI 17": Intel 4200H // 8GB Ram // GTX850 // Samsung 830 256GB
Laptop Lenovo: AMD 7640HS // 16GB RAM // RTX4060 // Samsung 960Pro 512GB

Permalänk
Medlem

Uppskalning behöver enligt mig testas bättre. Förstår ju att jämförelsematrisen blir enorm om man provar allt på alla kort, men hälften av era spel stödjer DLSS och att ge en bil av vad spelen faktiskt kan prestera är ju viktigt, vi är nog många som typ alltid kör DLSS om det finns. Man behöver ju inte jämföra allt man testar mot andra kort heller.

Permalänk
Medlem
Skrivet av HenrikM:

Varför inte köra Intel system på titlar där Intel är bättre och amd system där amd är bättre?
Om intel/amd flaskhalsar så är det ju ointresanta resultat.

Fullständigt orimligt. Det tar tid att testa grundligt och kontrollerat.

Angående att det blir Intel igen så är jag övertygad om att det endast handlar om timing. När Nvidia släppte RTX 3000-serien september 2020 så var 10900K den snabbaste CPUn för spel, då AMD inte hade hunnit släppa Ryzen 5000 som gick om Intels alternativ för första gången på över 15 år i spelprestanda. Och nu är det faktiskt inget snack, 12900KS parat med DDR5 är den plattform som är rimlig att testa grafikkort på nu.

Sedan tycker jag att det är en bra samling spel som valts. Ser fram emot höstens uppsättning tester!

Permalänk
Medlem

Vad ska kommande serie komma med när 3090/6900 redan kan leverera ok i nästan alla spel i 4K?

Som det ser ut så kan ni skippa att testa i 1920*1080 då toppkorten 3080/6800XT och snabbare kort klara dessa nivåer utan problem med allt på max.

Sitter själv på 3090 och inser att det inte finns någon anledning att byta då man kan köra allt på max idag (kör med 4K skärm) Känns som att ni måste ta med 8K för att kunna ge kommande serie lite att bita i.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

Vad ska kommande serie komma med när 3090/6900 redan kan leverera ok i nästan alla spel i 4K?

Som det ser ut så kan ni skippa att testa i 1920*1080 då toppkorten 3080/6800XT och snabbare kort klara dessa nivåer utan problem med allt på max.

Sitter själv på 3090 och inser att det inte finns någon anledning att byta då man kan köra allt på max idag (kör med 4K skärm) Känns som att ni måste ta med 8K för att kunna ge kommande serie lite att bita i.

Raytracing är det som kommer kräva otroligt mycket kraft snart, det kommer användas i alla spel så småningom.

Permalänk
Medlem
Skrivet av sesese:

Vad ska kommande serie komma med när 3090/6900 redan kan leverera ok i nästan alla spel i 4K?

Som det ser ut så kan ni skippa att testa i 1920*1080 då toppkorten 3080/6800XT och snabbare kort klara dessa nivåer utan problem med allt på max.

Sitter själv på 3090 och inser att det inte finns någon anledning att byta då man kan köra allt på max idag (kör med 4K skärm) Känns som att ni måste ta med 8K för att kunna ge kommande serie lite att bita i.

Skrivet av JDM:

Raytracing är det som kommer kräva otroligt mycket kraft snart, det kommer användas i alla spel så småningom.

Håller med om att det kommer att vara raytracing som sätter ribban på många sätt. Och högupplösta texturer.

För två är sedan, än mindre för fyra år sedan, var det inte så relevant med raytracing (enligt mig), det är det nu. Det innebär att framförallt AMD måste förbättra sig rejält till nästa generation för att hänga med. Nvidia behöver också bli bättre, fast inte lika mycket, men så det är användbart även på de billigare (läs "billigare") korten. Gamla chefredaktören testade t ex Cinematic i Cyberpunk, där räckte RTX 3090 knappt ens till i 1080p native, presterar som ett RX 480 från 2016. Att använda uppskalning för att kompensera ska inte behöva anses vara normen (också enligt mig):
Snabbtest: "Cinematic" testat i Cyberpunk 2077

Sedan dess har CP faktiskt fått ännu mer raytracing (Patch 1.5: Added ray-traced local light shadows), och även om CP är ett specialfall och ganska extremt, visar det ju ändå vad man måste ta höjd för. Då även i 1080p, särskilt som som sagt även instegsklassen helst också ska vara spelbara med raytracing i 1080p i kommande generation. Där kan jag iofs förstå att det då behövs uppskalning som hjälp. Fast hellre DLAA än DLSS iofs för att få bättre bildkvalitet, utan artefakter.

Permalänk
Medlem
Skrivet av bopp:

Håller med om att det kommer att vara raytracing som sätter ribban på många sätt. Och högupplösta texturer.

För två är sedan, än mindre för fyra år sedan, var det inte så relevant med raytracing (enligt mig), det är det nu. Det innebär att framförallt AMD måste förbättra sig rejält till nästa generation för att hänga med. Nvidia behöver också bli bättre, fast inte lika mycket, men så det är användbart även på de billigare (läs "billigare") korten. Gamla chefredaktören testade t ex Cinematic i Cyberpunk, där räckte RTX 3090 knappt ens till i 1080p native, presterar som ett RX 480 från 2016. Att använda uppskalning för att kompensera ska inte behöva anses vara normen (också enligt mig):
Snabbtest: "Cinematic" testat i Cyberpunk 2077

Sedan dess har CP faktiskt fått ännu mer raytracing (Patch 1.5: Added ray-traced local light shadows), och även om CP är ett specialfall och ganska extremt, visar det ju ändå vad man måste ta höjd för. Då även i 1080p, särskilt som som sagt även instegsklassen helst också ska vara spelbara med raytracing i 1080p i kommande generation. Där kan jag iofs förstå att det då behövs uppskalning som hjälp. Fast hellre DLAA än DLSS iofs för att få bättre bildkvalitet, utan artefakter.

Finns det så många som kan/vill ge +10000kr extra för den lilla skillnaden jag är tveksam. Sedan ha ett grafikkort som hela tiden maxar +400W med RT vid spelande är inte så kul.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av aMp:

Var det inte ~75% av oss här som enligt en poll nyligen visade på att de var kvar på Windows 10? Det känns i nuläget mer relevant än Win 11 imho. Jag kan dock minnas fel och ber då om ursäkt. Annars - bra jobb!

I princip noll faktiskt skillnad mellan PCIe 3 och 4 för spel på NVMe SSD-enheter. Det är tom svårt att, utan tidtagarur, med säkerhet säga om ett spel körs från en bra SATA-SSD och en bra PCIe 4 NVMe SSD.

Innan jag säger bakåtsträvare - Testsviten ska väl användas 1-2 år framåt så det känns vettigt att byta till Win11 nu.
Att många vägrat nya Windows är väl för att det inte gjort någon större skillnad. Har detta ändrat nu?
Önskar du Windows 10 siffror även i fortsättningen så finns det säkert någon sida där ute att vända sig till.
Själv har jag kört win11+ddr5 sen november och är nöjd.

Permalänk
Medlem
Skrivet av HenrikM:

Varför inte köra Intel system på titlar där Intel är bättre och amd system där amd är bättre?
Om intel/amd flaskhalsar så är det ju ointresanta resultat.

Har du också separata system där hemma för vad som är bättre? För jämförelse mellan grafikkort (det vad det här testet är till för) är det av yttersta vikt att använda en och samma plattform.

Permalänk
Medlem
Skrivet av sesese:

Finns det så många som kan/vill ge +10000kr extra för den lilla skillnaden jag är tveksam.

Det beror förstås på titel men att RT alltid är en liten skillnad är svårt att hålla med om.

Men iaf, 3090 räcker inte för att maxa alla dagens, och närmaste årens, titlar i 4K. Så det finns utrymme för mer kräm, va så säker.