Vi säger farväl till GPU-testriggen

Permalänk
Medlem

Kommer Sweclockers gå samma väg som Hardware Unboxed möjligtvis?

Som just nu byter testsystem till ett med Ryzen 9 3950X då dom hintar om att dom fått in något som verkar nyttja PCIe4.0 bandbredden

Visa signatur

AMD Ryzen 7 5800X | Palit Geforce RTX 3080 GamingPro | Gigabyte Aorus X570S PRO AX | Noctua NH-U12S |
Kingston Fury Beast RGB 32GB DDR4 @ 3600Mhz | Fractal Design Define R4 | Seasonic Focus GX-1000 80+ Gold |
Dell S3220DGF 1440p @ 165hz | Sennheiser HD 58X | Edifier S530D

Permalänk
Medlem

Så om Zen 3 visar sig vara väsentligen snabbare så får ni byta igen i November

Permalänk
Medlem

@Sveklockarn: Immersion? Inte kul när det rycker och laggar

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av scara:

Så om Zen 3 visar sig vara väsentligen snabbare så får ni byta igen i November

Det kanske dom får, själv är jag extremt taggad för 4950X(eller om den kommer att heta 5950X?).

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av the squonk:

@Sveklockarn: Immersion? Inte kul när det rycker och laggar

Det är det ju knappast frågan om heller, och turnbaserade strategispel är knappast en typ av spel där det blir någon väsenlig skillnad mellan om dina stillbilder renderas i 60 eller 240 FPS heller.

Permalänk
Medlem

Med 2080Ti börjar PCI-Express 2.0 x16 att flaska lite grann. I testet på första sidan ser man knappt någon skillnad på 2.0 vs 3.0 vs 4.0 med ett 5700XT. Så ingen idé ett pusha för det än på ett tag, så vidare man inte tänker köra dubbla 2080 eller över. Tror nog det kommer ta några generationer tills vi ser prestanda som PCI-Express 3.0 kommer flaska, och då är det dags att byta rigg igen. Som kanske (stor sannolikhet?) blir AMD om då de gått om Intel i spel.

Vi får ju heller inte glömma att Sweclockers gör testet i spel för CPUer, och då ser man ju hur de hänger med.

Permalänk
Medlem

Detta snacket om upplösningar. Med nästa generation från Nvidia antar jag att dom pushar för höga framerates i 4K och det speglar även skärmar som dyker upp från olika tillverkare. 4K med högre hz.
Samtidigt får man inte glömma att 1440p, enligt mig, är en sweetspot i nuläget.
1080p är dessutom toppvalet om man prioriterar framerates, superviktigt i FPS. Det jag INTE förstår är varför man har med 720p i testmetodiken.

Varför ska man ta bort någon av dom 3 viktigaste upplösningarna och varför skulle man vilja bencha SPELprestanda med en sämre spelplattform (i nuläget är AMD sämre)?
Vi är väl alla hårdvaruentusiaster. Rätt hårdvara till rätt appliceringsområde.

Skrivet av wargreymon:

Med 2080Ti börjar PCI-Express 2.0 x16 att flaska lite grann. I testet på första sidan ser man knappt någon skillnad på 2.0 vs 3.0 vs 4.0 med ett 5700XT. Så ingen idé ett pusha för det än på ett tag, så vidare man inte tänker köra dubbla 2080 eller över. Tror nog det kommer ta några generationer tills vi ser prestanda som PCI-Express 3.0 kommer flaska, och då är det dags att byta rigg igen. Som kanske (stor sannolikhet?) blir AMD om då de gått om Intel i spel.

Vi får ju heller inte glömma att Sweclockers gör testet i spel för CPUer, och då ser man ju hur de hänger med.

Jag håller med dig. Det är viktigt att testa metodiskt efter bästa förutsättningar som är relevant i stunden. AMD är inte lika relevant, mer än som en jämförelse, mot Intel 10900K just nu i spel.

Visa signatur

MSI Leopard GP66 liquid metal | 11800H @4.5GHz all-c | 3070m @1470MHz/0.7v | 32GB DDR4 3200MHz cl19
Bild: LG C2 42"
Ljud: Beyerdynamic DT1990 Pro

Permalänk
Medlem

@Kenneth: Tack för att ni håller en professionell nivå i den här frågan, när PCI 4.0 blir en relevant faktor så kommer de inte ske över en dag och då blir det mer intressant å testa de enskilda titlarna när de dyker upp.

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Medlem

@the squonk: https://youtu.be/1kK6CBJdmug lite kul video angående de temat.

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Medlem
Skrivet av Pontooz:

Det jag INTE förstår är varför man har med 720p i testmetodiken.

Du testar inte GPUn i 720p, du testar CPUn. Detta för att se hur mycket en CPU klarar av innan den blir en flaskhals, detta mest för att se hur framtidssäker den är. Om en CPU flaskar grafikkortet i 720p, om du då byter grafikkort om några generationer kommer det kanske flaska redan i 1080, och man kan få en indikation att det börjar bli dags att uppgradera. Tittar man bara på 1080p eller högre kan det vara svårare att se då grafikkortet är det som flaskar.

Permalänk
Medlem

@Vash: Ändå inte riktigt, jag menade bara ett spel nya Total War när det väller gubbar över skärmen och det var skämtsamt!

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Datavetare
Skrivet av the squonk:

@Vash: Ändå inte riktigt, jag menade bara ett spel nya Total War när det väller gubbar över skärmen och det var skämtsamt!

Just det spelet verkar var ett som just exemplifierar det som rimligen också förklarar varför 3900X presterar bättre än 3950X i SweC tester: det försöker använda alla CPU-trådar det får, vilket de som faktiskt är kapabla att tok-optimera icke trivialt parallelliserbara problem vet är fel strategi.

Maximal prestanda verkar här uppnås vid 6C/12T, sedan är det svagt negativ skalning

Hittar ingen som testat detta spel på 10900K eller ens 10600K.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av wargreymon:

Du testar inte GPUn i 720p, I testar CPUn. Detta för att se hur mycket en CPU klarar av innan den blir en flaskhals, detta mest för att se hur framtidssäker den är. Om en CPU flaskar grafikkortet i 720p, om du då byter grafikkort om några generationer kommer det kanske flaska redan i 1080, och man kan få en indikation att det börjar bli dags att uppgradera. Tittar man bara på 1080p eller högre kan det vara svårare att se då grafikkortet är det som flaskar.

Sant. Jag vet inte varför jag skrev det. SweC har inte med 720p i testmetodiken för GPU. Det är för CPU såklart och där är det relevant. My bad!

Visa signatur

MSI Leopard GP66 liquid metal | 11800H @4.5GHz all-c | 3070m @1470MHz/0.7v | 32GB DDR4 3200MHz cl19
Bild: LG C2 42"
Ljud: Beyerdynamic DT1990 Pro

Permalänk
Medlem

Problemet kan bli att är de intel så kan kommande grafikkort bottleneckas pga ej stöd för pcie4 ä, dock inte bekräftat. Så oavsett om nu intel är snabbare ST så är de inte säkert de presterar bättre med kommande grafikkort.

https://youtu.be/4zTpO7MNRp4

Permalänk
Datavetare
Skrivet av Dyngsur:

Problemet kan bli att är de intel så kan kommande grafikkort bottleneckas pga ej stöd för pcie4 ä, dock inte bekräftat. Så oavsett om nu intel är snabbare ST så är de inte säkert de presterar bättre med kommande grafikkort.

https://youtu.be/4zTpO7MNRp4

Den videon är åter igen ett bevis på att många Youtubers kan vara underhållande att titta på, men ofta pratar de om saker de har noll detaljkoll på.

Här hävdas t.ex. att PCIe4 skulle vara viktigare i högre upplösning, siffrorna pekar i stället på att om man kör 1280x720 "low" i >500 FPS som man ser störst nytta med snabbare PCIe.

Inte ens PCIe 2.0 x16 (samma bandbredd som PCIe 3.0 x8) är någon relevant flaskhals med 2080Ti, och flaskhalsen med PCIe 2.0 x4 är mindre i 4k än i 1080.

Kör men ett kort som 5700XT kvittar det i praktiken totalt om man kör PCIe 2.0 x16 eller PCIe 4.0 x16, tvivlar på att det är statistiskt signifikant, men rent matematiskt är det även här mindre skillnad i 4k.

Edit: funderar man på när snabbare PCIe faktiskt hjälper är det ju när det sker mycket kommunikation över PCIe. När händer det i första hand för grafik? Jo, när CPU kommunicerar med GPU, vilket primärt handlar om att skicka "draw-calls". Så ju fler draw-calls per tidsenhet ju viktigare blir PCIe-hastigheten -> låg upplösning med enkla pixel-shaders -> hög FPS och många draw-calls per sec är det som först påverkas. Fast det är just det fallet när Comet Lake drar ifrån Zen2, CPU är en större flaskhals än PCIe.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Den videon är åter igen ett bevis på att många Youtubers kan vara underhållande att titta på, men ofta pratar de om saker de har noll detaljkoll på.

Här hävdas t.ex. att PCIe4 skulle vara viktigare i högre upplösning, siffrorna pekar i stället på att om man kör 1280x720 "low" i >500 FPS som man ser störst nytta med snabbare PCIe.

Inte ens PCIe 2.0 x16 (samma bandbredd som PCIe 3.0 x8) är någon relevant flaskhals med 2080Ti, och flaskhalsen med PCIe 2.0 x4 är mindre i 4k än i 1080.
https://tpucdn.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/images/relative-performance_1920-1080.png
https://tpucdn.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/images/relative-performance_3840-2160.png

Kör men ett kort som 5700XT kvittar det i praktiken totalt om man kör PCIe 2.0 x16 eller PCIe 4.0 x16, tvivlar på att det är statistiskt signifikant, men rent matematiskt är det även här mindre skillnad i 4k.
https://tpucdn.com/review/pci-express-4-0-performance-scaling-radeon-rx-5700-xt/images/relative-performance_1920-1080.png
https://tpucdn.com/review/pci-express-4-0-performance-scaling-radeon-rx-5700-xt/images/relative-performance_3840-2160.png

Edit: funderar man på när snabbare PCIe faktiskt hjälper är det ju när det sker mycket kommunikation över PCIe. När händer det i första hand för grafik? Jo, när CPU kommunicerar med GPU, vilket primärt handlar om att skicka "draw-calls". Så ju fler draw-calls per tidsenhet ju viktigare blir PCIe-hastigheten -> låg upplösning med enkla pixel-shaders -> hög FPS och många draw-calls per sec är det som först påverkas. Fast det är just det fallet när Comet Lake drar ifrån Zen2, CPU är en större flaskhals än PCIe.

Sant, skrev att de kan vara så men inte är bekräftat. Kör själv med rz5700xt och skillnaden emellan pcie3 o 4 är obeytdlig. Men de är ju om de nya gpuerna skulle nyttja pcie4 bättre än de som finns nu då kan de väl ändå påverka fps osv? Det behöver ju inte vara gamebreaking men ha betydelse?

Permalänk
Medlem
Skrivet av scara:

Så om Zen 3 visar sig vara väsentligen snabbare så får ni byta igen i November

Då kan de bara presentera den med att "detta är den Zen-aste testriggen för GPU".

Permalänk
Medlem
Skrivet av Yoshman:

Just det spelet verkar var ett som just exemplifierar det som rimligen också förklarar varför 3900X presterar bättre än 3950X i SweC tester: det försöker använda alla CPU-trådar det får, vilket de som faktiskt är kapabla att tok-optimera icke trivialt parallelliserbara problem vet är fel strategi.

Maximal prestanda verkar här uppnås vid 6C/12T, sedan är det svagt negativ skalning
https://www.overclock3d.net/gfx/articles/2020/08/15173450642l.jpg

Hittar ingen som testat detta spel på 10900K eller ens 10600K.

Så som jag förstått det så är det gräsinställningarna satta på "extreme" som gör det tillsynes skalbart (iallafall upp till 12 kärnor). Ingen intelprocessor testad över 8 kärnor hos computerbase dock, så svårare att verifiera trenden. Finns bilder på första sidan där det går att se att b.la avståndet är mycket större.

Eftersom TW:Troy var gratis ett tag och jag fick tag på en kopia, så testade jag det nu. Då jag kör med en 1700X och RX480 räknar jag med att vara GPU-bunden i de högre inställningarna (verkar dock inte vara något problem med allt på low, hade 180 FPS då med CPU last runt 10%, har jag inställningarna på ultra utan gräs så är det runt 66 med last runt ~25%, med gräs runt 57 med last kring 33%).

Testerna utförs på följande sätt: Startar en custom map på "någonting grasslands" , jag påbörjar dock inte slaget så ni får ta hänsyn till att AI inte körs, samt att vissa animationer kanske är pausade (kanske interaktion med gräset också?). För att isolera gräsegenskaperna satte jag alla intällningar på lägsta i 1080p. Vid testen så märkte jag att startpositionen som jag hade fick ett mycket lägre resultat. Så efter ett tag kommer jag börja röra mig fram och tillbaka med kameran för att visa en varierande last. Många kanske tror att det har att göra med att nya instanser läses in och att de efter de gjort det är mycket mer lättdrivna. Såvitt jag kunde se så var så inte fallet, utan det är endast antalet gräsinstanser som avgör lasten. När jag står still så är det plan last, när jag rör på mig så är det varierbart och kommer att yttra sig som toppar och dalar i CPU last. Som ett exempel så är low med extreme grass EXTREMT LÄTT att se var jag börjar röra på mig, medan low utan gräs är EXTREMT SVÅRT att se det (kanske borde kommit på en bättre minnesramsa...aja ¯\_(ツ)_/¯ ) .

Som ett exempel så har testerna på low med extreme grass runt 100 FPS i dalarna, 75 FPS i topparna. Jag kollade inte resten så peknoga, för poängen går fram rätt så klart.

Tester med olika inställningar av gräs på low. Notera att jag inte skriver ut gräs, så t.ex ultra betyder inte 'ultra på allt' utan 'ultra på gräs'
Tog även ett mätvärde mot ultra utan gräs. Det ska även noteras att även om FPS är mycket lägre än i 1080p low (ca 2,5-3x), så är CPU-lasten 2,5x gånger så stor. Om det skulle testats med ett kraftfullare grafikkort kanske lasten skulle bli ännu större

Min slutsats är att gräset är både flertrådat och påverkar CPU-lasten signifikant. Visst, man skulle kunna göra tester där jag stänger av kärnor, eller kör det genom DXVK för att verkligen verifiera att det är antalet gräsinstanser som påverkar. Men jag har inte all tid i hela världen.

Andra funderingar, om det nu är negativ skalning från 8c/16t , och 3900X och 3950X får ett 33% högre resultat än 3700X hos computerbase, kanske egenskaperna av de två CCD:erna påverkar (dubbel skrivbandbredd)? Jag kan inte testa det, då jag inte har någon Zen2 CPU. Beror ju förstås på hur de stäng av kärnorna hos overclock3d.

Grässimuleringar har vad jag sett varit hyfsat skalbara, men verkar mest menade som teknikdemos i spel. Ett annat exempel är massive-grass i crysis 3 som digital foundry delvis testar. Finns mer att läsa om här.

Permalänk
Datavetare
Skrivet av Radolov:

Så som jag förstått det så är det gräsinställningarna satta på "extreme" som gör det tillsynes skalbart (iallafall upp till 12 kärnor). Ingen intelprocessor testad över 8 kärnor hos computerbase dock, så svårare att verifiera trenden. Finns bilder på första sidan där det går att se att b.la avståndet är mycket större.

Eftersom TW:Troy var gratis ett tag och jag fick tag på en kopia, så testade jag det nu. Då jag kör med en 1700X och RX480 räknar jag med att vara GPU-bunden i de högre inställningarna (verkar dock inte vara något problem med allt på low, hade 180 FPS då med CPU last runt 10%, har jag inställningarna på ultra utan gräs så är det runt 66 med last runt ~25%, med gräs runt 57 med last kring 33%).

Testerna utförs på följande sätt: Startar en custom map på "någonting grasslands" , jag påbörjar dock inte slaget så ni får ta hänsyn till att AI inte körs, samt att vissa animationer kanske är pausade (kanske interaktion med gräset också?). För att isolera gräsegenskaperna satte jag alla intällningar på lägsta i 1080p. Vid testen så märkte jag att startpositionen som jag hade fick ett mycket lägre resultat. Så efter ett tag kommer jag börja röra mig fram och tillbaka med kameran för att visa en varierande last. Många kanske tror att det har att göra med att nya instanser läses in och att de efter de gjort det är mycket mer lättdrivna. Såvitt jag kunde se så var så inte fallet, utan det är endast antalet gräsinstanser som avgör lasten. När jag står still så är det plan last, när jag rör på mig så är det varierbart och kommer att yttra sig som toppar och dalar i CPU last. Som ett exempel så är low med extreme grass EXTREMT LÄTT att se var jag börjar röra på mig, medan low utan gräs är EXTREMT SVÅRT att se det (kanske borde kommit på en bättre minnesramsa...aja ¯\_(ツ)_/¯ ) .

Som ett exempel så har testerna på low med extreme grass runt 100 FPS i dalarna, 75 FPS i topparna. Jag kollade inte resten så peknoga, för poängen går fram rätt så klart.

Tog även ett mätvärde mot ultra utan gräs. Det ska även noteras att även om FPS är mycket lägre än i 1080p low (ca 2,5-3x), så är CPU-lasten 2,5x gånger så stor. Om det skulle testats med ett kraftfullare grafikkort kanske lasten skulle bli ännu större

Min slutsats är att gräset är både flertrådat och påverkar CPU-lasten signifikant. Visst, man skulle kunna göra tester där jag stänger av kärnor, eller kör det genom DXVK för att verkligen verifiera att det är antalet gräsinstanser som påverkar. Men jag har inte all tid i hela världen.

Andra funderingar, om det nu är negativ skalning från 8c/16t , och 3900X och 3950X får ett 33% högre resultat än 3700X hos computerbase, kanske egenskaperna av de två CCD:erna påverkar (dubbel skrivbandbredd)? Jag kan inte testa det, då jag inte har någon Zen2 CPU. Beror ju förstås på hur de stäng av kärnorna hos overclock3d.

Grässimuleringar har vad jag sett varit hyfsat skalbara, men verkar mest menade som teknikdemos i spel. Ett annat exempel är massive-grass i crysis 3 som digital foundry delvis testar. Finns mer att läsa om här.

Computerbase mätningar har något seriöst fel. Om vi antar att det faktiskt handlar om riktigt bra skalning med CPU-kärnor är det väldigt svårt att förklara hur i7-7700K (4C/8T) skulle kunna vara snabbare än i7-8400 (6C/6T). Det är också helt orimlig skalning mellan i7-8400 (6C/6T) och i5-10400 (6C/12T), SMT har inte den typen av skalning på ett spel . Deras resultat skiljer sig rätt ordentligt från de andra resultat jag hittade.

Ett litet lackmustest i spel är: om grafiken på något sätt skalar väldigt nära linjärt med CPU-kärnor är det nästan garanterat något rejält fel i mätningarna. Detta då sättet GPUer fungerar på kräver att all kommunikation mellan CPU och GPU måste serialiseras!

Detta är ett typexempel på hur man inte vill att de ska se ut om man vill ha optimal utnyttjade av CPU

Klicka för mer information
Visa mer

Det kan kännas "rätt" med jämn spridning över alla kärnor, men ur effektivitetsynpunkt på moderna CPUer är det av flera orsaker bättre att lasta färre kärnor nära 100 % än många lite lägre. Däremot rätt svårt att skriva spelmotorn så den fungerar optimalt på en stor bredd av CPU-konfigurationer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Computerbase mätningar har något seriöst fel. Om vi antar att det faktiskt handlar om riktigt bra skalning med CPU-kärnor är det väldigt svårt att förklara hur i7-7700K (4C/8T) skulle kunna vara snabbare än i7-8400 (6C/6T). Det är också helt orimlig skalning mellan i7-8400 (6C/6T) och i5-10400 (6C/12T), SMT har inte den typen av skalning på ett spel . Deras resultat skiljer sig rätt ordentligt från de andra resultat jag hittade.

Ett litet lackmustest i spel är: om grafiken på något sätt skalar väldigt nära linjärt med CPU-kärnor är det nästan garanterat något rejält fel i mätningarna. Detta då sättet GPUer fungerar på kräver att all kommunikation mellan CPU och GPU måste serialiseras!

Detta är ett typexempel på hur man inte vill att de ska se ut om man vill ha optimal utnyttjade av CPU

Klicka för mer information
Visa mer

Det kan kännas "rätt" med jämn spridning över alla kärnor, men ur effektivitetsynpunkt på moderna CPUer är det av flera orsaker bättre att lasta färre kärnor nära 100 % än många lite lägre. Däremot rätt svårt att skriva spelmotorn så den fungerar optimalt på en stor bredd av CPU-konfigurationer.

Vet inte om de är fel, overclocked3d noterade även dem att om de stängde av multitrådning så blev prestandan märkbart sämre.

"Strangely, disabling SMT on our quad-core configuration resulted in a huge performance decrease for our Ryzen 9 3950X. This performance decrease was repeatable, but not as significant within A Total War Saga: Troy's campaign mode. "

Permalänk
Hjälpsam
  1. Skapa en textfil med följande innehåll och döp den till något som slutar på .ps1, tex steam.ps1.

  2. Ändra till den sökväg du har Steam på.

  3. Ändra $threads till hur många du vill att Steam skall köra på.

  4. Avsluta Steam och starta genom att högerklicka på filen och välj "Run with Powershell".

cd "D:\Program Files (x86)\Steam" $threads=12 $affinity=[int]([Math]::Pow(2,$threads)-1) $app = Start-Process Steam.exe -PassThru $app.ProcessorAffinity = $affinity

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare

@Kenneth: Inser som sagt att det inte är rimligt att bencha alla GPUer på två uppsättningar CPUer. Men skulle vara intressant med stickprov med en "reasonably priced CPU", t.ex. 3600 då den verkar väldigt populär bland SweC medlemmar.

Räcker att man kör den CPUn på ett toppkort och på ett "svenssonkort", det med poängen att se i vilka lägen CPU-delen har någon som helst påverkan. Rätt säker att det kommer variera en del mellan speltitlar, d.v.s. i "GPU-bundna" upplösningar kommer det vara noll skillnad med olika CPU i vissa titlar medan andra kommer visa skillnad även med "svenssonkort".

Något fel lär det vara, eller så har något extremt hänt i just denna titel. Att SMT off->on ger samma utslag som att dubbla antalet kärnor i Cinebench är inte rimligt för ett spel med mindre än att det finns någon rejäl bugg i spelmotor.

Effekten av SMT har ju testas i flera spel, bl.a. av Techspot (3900X) och hardwaresecrets (1700X). SMT kan slå åt båda hållen, d.v.s. det kan både ge bättre och sämre prestanda men det är inom ~10 %.

Det finns helt klart nischfall där man kan se allt från en halvering från SMT till en fördubbling. Phoronix har gjort en hel del SMT testing på 3900X och sett just detta, intressant nog gav bara SMT 4 % prestandaökning över alla program man testade.

Resultaten från Overclock3D och Computerbase är inte heller alls överens om skalning till fler kärnor. Computerbase ser en brutal ökning av att gå från 8C till 12C medan Overclock3D ser en liten minskning. Även det tyder endera på att spelet knappt går att benchmarka eller så finns det rätt grava buggar just nu som gör att prestanda slår lite hur som helst. Har hänt tidigare att spel just haft synkroniseringsbuggar som resulterat i helt ologiska resultat, problem som försvunnit i senare patchar när man hittat problem.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Resultaten från Overclock3D och Computerbase är inte heller alls överens om skalning till fler kärnor. Computerbase ser en brutal ökning av att gå från 8C till 12C medan Overclock3D ser en liten minskning. Även det tyder endera på att spelet knappt går att benchmarka eller så finns det rätt grava buggar just nu som gör att prestanda slår lite hur som helst. Har hänt tidigare att spel just haft synkroniseringsbuggar som resulterat i helt ologiska resultat, problem som försvunnit i senare patchar när man hittat problem.

De testar inte med samma inställningar (extreme vs ultra). Såhär skriver computerbase:

"If you simply don't have a CPU that fast or want a higher frame rate, you don't have to despair immediately. One graphics option is responsible for the massive CPU hunger in Troy: A Total War Saga: the grass details. If you reduce it from "Extreme" to "Ultra", you not only increase the frame rate by around 50 percent, but at the same time the CPU load is massively lower. Then 4 cores including SMT are sufficient for a significantly higher frame rate, from 6 cores with SMT there is full performance."

Jag tänker dock inte lägga mer tid på det här. Konstiga resultat på många ställen, verkar buggigt och det saknas tillräckligt med data för att dra slutsatser. Kanske de fixar det i en patch senare. Vem vet. ¯\_(ツ)_/¯

Permalänk
Medlem
Skrivet av Sveklockarn:

Hur stor roll spelar ärligt talat FPS i spel som Total War och Civilization?

Det är inte svårt att konstatera att AMDs nuvarande produktutbud generellt halkar efter i just gaming.

Förutom indikation inte så mye

Skulle älska få en turn slinga där de mäter tiden det tar från du trycker next turn och det är din tur igen, från ngn save med massor med units late game!

Permalänk
Medlem
Skrivet av UncleDirty:

Förutom indikation inte så mye

Skulle älska få en turn slinga där de mäter tiden det tar från du trycker next turn och det är din tur igen, från ngn save med massor med units late game!

Visst, det är bara inte ett relevant test för GPU.