AMD Ryzen 9 3900X och 7 3700X "Matisse"

Permalänk
Medlem
Skrivet av JBE:

Detta borde absolut vara standard, ja.
Det krävs dock graf för alla kärnor eller iaf den mest utnyttjade kärnan. Medelutnyttjande ensamt är ganska intetsägande.
Informationen finns redan tillgänglig i csv i hwinfo-rapporter.

Tex så här kan det se ut: https://imgur.com/a/iEkiDgr
Gratisverktyget generic log viewer verkar bara vilja visa 3 grafer, men med ett mer seriöst verktyg är det ju inget problem lägga alla kärnors grafer över varandra (kanske går med denna med om man mixtrar med det, jag spenderade bara 3 min på det). Jag tycker denna information borde vara standard vid cpubenchmarks.
Utan detta är det gissningsarbete att tolka cpu-benchmarks. Benchmarks där cpu aldrig flaskar mixas hejvilt med andra där cpu är ktitiskt, etc.
Sen måste man ju inte presentera alla grafer, det räcker med att se på dem och dra en slutsats, presentera denna.

(Jag hade professionellt aldrig kommit undan med att benchmarka en nyuppsatt dyr server som i mer extrema fall kan kosta miljoner styck utan att presentera benchmark med grafer för både cpu use, threads, ram, swap, iowait, disk throughput/iops etc etc då vilken som helst av dessa faktorer kan flaska de andra - men alla cputhreads skulle vara bra nog grund i spel).

En sådan graf säger ju mer, däremot är de lite svårare att jämföra. Ett meddeltal säger ju inte allt (exempelvis om en process ligger konstant på 100 etc.), men ger iallafall någon indikation samtidigt som siffrorna går snabbt att jämföra och kompletterar FPS-informationen.

Permalänk
Medlem
Skrivet av dannesthlm:

En sådan graf säger ju mer, däremot är de lite svårare att jämföra. Ett meddeltal säger ju inte allt (exempelvis om en process ligger konstant på 100 etc.), men ger iallafall någon indikation samtidigt som siffrorna går snabbt att jämföra och kompletterar FPS-informationen.

Om en genomsnitts-graf ligger på 100, så är den relevant (då vet du bortom allt tvivel att cpu flaskar), men om den ligger lägre, tex 70%, så kan du inte veta om den faktiskt ligger på 70% på alla cores, och därmed inte är nära att flaska på cpu, eller om den ligger på 100% på en core och 60% på resten, vilket är det vanligaste scenariot cpu flaskar i cpu-bundna spel (1 core).
En genomsnittsgraf är tyvärr mer eller mindre meningslös i spel (bra bonus, såklart), man måste se på alla eller iaf den mest utnyttjade kärnan.

Permalänk
Medlem
Skrivet av JBE:

Om en genomsnitts-graf ligger på 100, så är den relevant (då vet du bortom allt tvivel att cpu flaskar), men om den ligger lägre, tex 70%, så kan du inte veta om den faktiskt ligger på 70% på alla cores, och därmed inte är nära att flaska på cpu, eller om den ligger på 100% på en core och 60% på resten, vilket är det vanligaste scenariot cpu flaskar i cpu-bundna spel (1 core).
En genomsnittsgraf är tyvärr mer eller mindre meningslös i spel (bra bonus, såklart), man måste se på alla eller iaf den mest utnyttjade kärnan.

Även om en kärna flaskan ser man ju åtminstone FPS-information kopplat till testet, både medelfps och de lägsta uppmätta FPS'en. Då är det ju ändå kanske inte så viktigt att veta om en går i 100% eller 2 stycken. Man ser vilken prestanda man kan förvänta, samtidigt som man ändå kan få uppfattning om hur mycket ledig prestanda som finns under huven. Sen kan ju kärnor boosta i olika lägen också, men som övergripande indikation tycker jag ändå att det vore intressant.

Permalänk
Medlem
Skrivet av dannesthlm:

Även om en kärna flaskan ser man ju åtminstone FPS-information kopplat till testet, både medelfps och de lägsta uppmätta FPS'en. Då är det ju ändå kanske inte så viktigt att veta om en går i 100% eller 2 stycken. Man ser vilken prestanda man kan förvänta, samtidigt som man ändå kan få uppfattning om hur mycket ledig prestanda som finns under huven. Sen kan ju kärnor boosta i olika lägen också, men som övergripande indikation tycker jag ändå att det vore intressant.

Osäker på om vi missförstår varandra, men om du tar genomsnitts cpu use så får du ett genomsnitt av alla cores. Enda gången det spelar roll är i ett utopiskt perfekt optimerat spel som sprider lasten helt jämnt på alla cores. I just sådana spel brukar cpu inte spela stor roll, just för att det fåtalet spel som uppför sig ens i närheten av detta så är grymt bra optimerade för multicore.

Om man tar ett exempel i WoW, som är legendariskt cpu-bundet i en tråd (många mmorpg, open world, rts/moba, arpgs, fps-spel i maxad fps etc är likadana): https://youtu.be/MgHGCSLxagw?t=5890

Då ser man att gpu ligger och vilar sig runt 50-65% use, en cpu-core slår konstant i taket och styr nog fps 100% av tiden, resten av alla cores gör lite småpill.
Hade du tagit genomsnittlig cpu use hade du kanske fått ett resultat på 20% och konstaterat att cpu är inte speciellt viktigt i WoW.
Det är inte alltid så extremt som i WoW, men i princip alla spel som flaskar eller tweakas till perfekta balanserade settings flaskar på 1 tråd (antagligen main rendering), sen kan övriga cores ligga i 10% i dåligt optimerade spel som wow eller 90% i perfekt optimerade spel.

Hade du testat med 16 eller 28 cores, hade det sett ännu mer skevt ut, kanske average 5-10% cpu use, så problemet med att se på genomsnittlig cpu use skalar även med fler cores.

Permalänk
Medlem
Skrivet av JBE:

Osäker på om vi missförstår varandra, men om du tar genomsnitts cpu use så får du ett genomsnitt av alla cores. Enda gången det spelar roll är i ett utopiskt perfekt optimerat spel som sprider lasten helt jämnt på alla cores. I just sådana spel brukar cpu inte spela stor roll, just för att det fåtalet spel som uppför sig ens i närheten av detta så är grymt bra optimerade för multicore.

Om man tar ett exempel i WoW, som är legendariskt cpu-bundet i en tråd (många mmorpg, open world, rts/moba, arpgs, fps-spel i maxad fps etc är likadana): https://youtu.be/MgHGCSLxagw?t=5890

Då ser man att gpu ligger och vilar sig runt 50-65% use, en cpu-core slår konstant i taket och styr nog fps 100% av tiden, resten av alla cores gör lite småpill.
Hade du tagit genomsnittlig cpu use hade du kanske fått ett resultat på 20% och konstaterat att cpu är inte speciellt viktigt i WoW.
Det är inte alltid så extremt som i WoW, men i princip alla spel som flaskar eller tweakas till perfekta balanserade settings flaskar på 1 tråd (antagligen main rendering), sen kan övriga cores ligga i 10% i dåligt optimerade spel som wow eller 90% i perfekt optimerade spel.

Hade du testat med 16 eller 28 cores, hade det sett ännu mer skevt ut, kanske average 5-10% cpu use, så problemet med att se på genomsnittlig cpu use skalar även med fler cores.

Jag tror kanske inte att vi missförstår varandra. Informationen du beskriver är viktig för att t.ex. ta reda på var den aktuella flaskhalsen ligger i en viss applikation. D.v.s. om man vill kunna öka FPS så är ju det viktig och relevant information. Nu kan man ju i princip anta att har man ett bra grafikkort och testet är i 720p ligger alltid flaskhals på en eller flera kärnor, fast för att veta hur många är ju informationen återigen viktig.

Hur intressant det än kan vara så var det dock inte det jag beskrev som målet med att ha enkla medelvärden. Det var alltså inte för att man skulle få någon förståelse kring var eventuell flaskhals fanns, utan helt enkelt om det fanns kapacitet över för att göra annat under tiden. T.ex. kan jag köra vissa streamingrelaterade programvaror under tiden eller beräkningar eller någon kompilering etc. Till just detta skulle medelvärdesredovisning fungera förhållandevis bra eftersom det visar total ledig kapacitet.

Permalänk
Medlem
Skrivet av dannesthlm:

Jag tror kanske inte att vi missförstår varandra. Informationen du beskriver är viktig för att t.ex. ta reda på var den aktuella flaskhalsen ligger i en viss applikation. D.v.s. om man vill kunna öka FPS så är ju det viktig och relevant information. Nu kan man ju i princip anta att har man ett bra grafikkort och testet är i 720p ligger alltid flaskhals på en eller flera kärnor, fast för att veta hur många är ju informationen återigen viktig.

Hur intressant det än kan vara så var det dock inte det jag beskrev som målet med att ha enkla medelvärden. Det var alltså inte för att man skulle få någon förståelse kring var eventuell flaskhals fanns, utan helt enkelt om det fanns kapacitet över för att göra annat under tiden. T.ex. kan jag köra vissa streamingrelaterade programvaror under tiden eller beräkningar eller någon kompilering etc. Till just detta skulle medelvärdesredovisning fungera förhållandevis bra eftersom det visar total ledig kapacitet.

Ja, det kan ju också vara vettigt, men det ena utesluter inte det andra och gör man jobbet med den ena kan man nästan lika gärrna visa den andra med. Det blir ju bara ett extra värde på samma graf.

Permalänk

Vad skulle ni köra för minnen till 3900X?

Visa signatur

Laptop och Philips Fidelio X2HR :)

Permalänk
Medlem
Skrivet av drakelito:

Vad skulle ni köra för minnen till 3900X?

Valfria med Samsung B-Die minneskapslar på.

Kolla här vad som finns:
https://benzhaomin.github.io/bdiefinder/

Billigast brukar G.Skill Flare X vara.

Som plan B fungerar många av dom senaste, släppta i år, lågbudget minnena med 3200/3600c16 också bra. Men man vill helst ha minst 3600c16, det är vad AMD kallar sweet spot och det är såklart en fördel om minnena är speccade för det så man inte blir beroende av egen klockning.

Är man lat bör man också kolla tillverkaren av moderkortets QVL för vilka minnen som är testade OK. Då slipper man själv fippla med timings. Gillar man att tweaka fungerar som sagt valfria B-Die(upp till vad CPU klarar typ).

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Skrivet av the squonk:

Valfria med Samsung B-Die minneskapslar på.

Kolla här vad som finns:
https://benzhaomin.github.io/bdiefinder/

Billigast brukar G.Skill Flare X vara.

Som plan B fungerar många av dom senaste, släppta i år, lågbudget minnena med 3200/3600c16 också bra. Men man vill helst ha minst 3600c16, det är vad AMD kallar sweet spot och det är såklart en fördel om minnena är speccade för det så man inte blir beroende av egen klockning.

Är man lat bör man också kolla tillverkaren av moderkortets QVL för vilka minnen som är testade OK. Då slipper man själv fippla med timings. Gillar man att tweaka fungerar som sagt valfria B-Die(upp till vad CPU klarar typ).

Okej, intressant.
Har faktiskt aldrig lagt ner värst mycket tanke på minnen och timings osv.
Kan hända det blir 3900X för mig, men ska jag sikta på 3600 då eller funkar typ dessa? https://www.netonnet.se/art/datorkomponenter/ram-minne/ddr4/g...

Visa signatur

Laptop och Philips Fidelio X2HR :)

Permalänk
Medlem
Skrivet av drakelito:

Okej, intressant.
Har faktiskt aldrig lagt ner värst mycket tanke på minnen och timings osv.
Kan hända det blir 3900X för mig, men ska jag sikta på 3600 då eller funkar typ dessa? https://www.netonnet.se/art/datorkomponenter/ram-minne/ddr4/g...

Dom fungerar, men dom har rätt säkert inte B-Die och det är osäkert om dom når 3600MHz, men allt är en prisfråga. Det finns nya Trident Z Neo som är speccade för 3600MHz, men det är en tusenlapp mer. Många gånger kan det vara mer värt att lägga pengarna på andra delar i datorn. Om pris är en faktor skulle jag försöka hitta tester på dom billigare minnena.

Flare X låg på 17-1800kr sist jag kollade, och fungerar bra.

https://www.webhallen.com/se/product/272609-G-Skill-Flare-X-1...

Det är 3200c14 som mer eller mindre garanterat också gör 3600/3733c16.

Det är fyra saker som är viktiga:

1. Timings, Flare X har c14(vid 3200) det är normalt det bästa för DDR4, svårt att hålla så lågt vid högre frekvens utan galen minnes spänning. Man brukar få öka värdet i högre frekvens.

2. Infinity Fabric(IF) i Ryzen(3000) CPU:n är viktigare än ren minnesfrekvens, den fungerar som snabbast i 1800-1900MHz. Därför man vill ha DDR-minnen som gör minst 3600 för då blir det 1:1 mot IF. Om man inte kör 1:1, dvs asynkront får man extra latency. 3200MHz-minnen kör bara IF i 1600MHz synkront och det är inte helt optimalt för processorn.

3, Subtimings, det är alla dom extra timings som minnena har. Det är ett antal, men kan påverka prestandan mycket. Dom är svåra att lista ut själv, därför det finns XMP/D.O.C.P med färdiga profiler men det brukar bara fungera om minnena finns med på QVL. Kör man med andra minnen är bästa hjälpmedlet programmet Ryzen Dram Calculator som hjälper en att räkna ut optimala subtimings att knappa in manuellt.

4. Frekvens, mindre viktigt än timings, IF, subtimings, men viktigt. Framförallt eftersom man vill köra 1:1.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

1000 inlägg!

Måste betyda att AMD är heta.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av ipac:

1000 inlägg!

Måste betyda att AMD är heta.

Skickades från m.sweclockers.com

Trevligt, men har du sett följande heta tråd med ~8.5K inlägg som bombarderas dagligen?

#18017105

Visa signatur

12c/24t 4.0GHz (Zen2) • 2x16GiB 3200MHz C14 • RTX 2080 FE 1965MHz 7000MHz • X570 I PW • Ghost S1 MKII

Permalänk
Medlem
Skrivet av Icte:

Trevligt, men har du sett följande heta tråd med ~8.5K inlägg som bombarderas dagligen?

#18017105

Jo men jag menade inom scopet "nyhetskommentarer". Stor och jämn siffra värd att fira.

Skickades från m.sweclockers.com

Permalänk
Medlem

En 3700x skulle nog vara sweetspoten i mitt nästa bygge, för nu tuggar verkligen gamla i5 2500k på sista versen. Så min något overkill burk med 5820k och ett 970 går ta dess plats som HTPC är tanken.

Skickades från m.sweclockers.com

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem

Hmm, det blir en dyr AMD historia, men jag renderar mer än spelar idag. Så det blir prisvärt med Ryzen 9 3900X. Ska försöka räkna ihop något med 30k budget. =(

Visa signatur

Homer Simpson: "Internet! Is that thing still around?"

Continuously updating

Permalänk
Medlem

GPU slår alla CPU renderingar med hästlängder

@Lengab: läs denna, även rätt billiga GPU vinner över dyra CPU för rendering

https://techgage.com/article/blender-2-80-viewport-rendering-...

Snabbaste CPU rendering av Classroom är 131 s, AMD Ryzen TR 2990WX (19500 kr)
Snabbaste Intel: Intel Core i9-9980XE klarar det på 170 s (22500 kr)

Alla CPUer blir ordentligt frånåkta av Nvidia Geforce 2070 RTX Super with 108 s (ca 6000-7000 kr)
Nvidia GeForce 2060 RTX Super matchar Intel med 170 s (ca 5000 kr)

Och detta innan Blender använder RTX kortens Raytracing hårdvara, finns i beta.
https://code.blender.org/2019/07/accelerating-cycles-using-nv...

Har 2070 RTX men köper ändå 3900x bara för att... (hoppas att fysik och annat kommer att dra nytta av detta i framtiden)

Permalänk
Medlem

@RogerJL:
Tack för svar. Jag kollar in dina förslag, och räknar pengar (fram och baksida) så det blir dubbelt så mycket.

Visa signatur

Homer Simpson: "Internet! Is that thing still around?"

Continuously updating

Permalänk
Inaktiv

Det skulle va kul om ni tog med i3 9100F då den presterar lite bättre än AMD 3900x i de lite högre upplösningarna med ett kraftigt grafikkort.

Permalänk
Medlem
Skrivet av anon298854:

Det skulle va kul om ni tog med i3 9100F då den presterar lite bättre än AMD 3900x i de lite högre upplösningarna med ett kraftigt grafikkort.

Kan inte avgöra om post-ironi eller seriöst inlägg

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Inaktiv
Skrivet av Shiprat:

Kan inte avgöra om post-ironi eller seriöst inlägg

@Shiprat

9900k är ju något bättre än 3900x i spel och 9100F håller samma fps i högre upplösning.
Då borde ju en 9100F vara bättre i spel än 3900X i högre upplösning.

Permalänk
Medlem
Skrivet av anon298854:

@Shiprat

9900k är ju något bättre än 3900x i spel och 9100F håller samma fps i högre upplösning.
Då borde ju en 9100F vara bättre i spel än 3900X i högre upplösning.

https://youtu.be/BoyW15FHKgA

Okej, anledning att jag trodde att du skämtade är att detta är en debatt som jag ser varje vecka här, trodde du liksom drog ett litet meta-skämt.

Intel har generellt ett litet FPS övertag i spel, så om 5 extra FPS i spel är viktigast av allt så är det värt att gå intel.
I de flesta testen i videon är det GPU som begränsar totala FPS, så att basera val av CPU baserat på det är inte jätte vettigt. Man kan dock se flera tillfällen då 9100F ligger på 100% load medan 9900K ligger under 50% load. I till exempel hitman ser du en faktiskt FPS drop som är rätt rejäl när CPU till synes inte hänger med.

Om du spelade dessa spel i 1080P eller med lägre inställningar där 2080Ti är mindre belastat skulle du förmodligen se en störra skillnad högsta fps då 9100f sannolikt inte skulle kunna hänga med i de 200fps eller högre som 2080Ti kan leverera, men jag förstår att det säkert finns en nisch av folk som kan tänka sig att lägga 12k+ på gpu för att spela i 4k i 60fps men inte vill lägga ett par tusenlappar extra för en vettig CPU.
Oavsett alla dessa fakta så räcker det för min del att titta på frame-times i dessa test. Spannet mellan 0.1% low och aktuell fps är vansinnig I vissa tester.

I kingdom come har 9100f ofta 0.1% low under 10 fps.
Den har i samma spel 1% low runt 15fps, medan 9900k har ett spann mellan 40-60. Detta skulle jag inte kalla spelbart.

I forza som har utmärkt average på båda två så ser du 90-120 på 9900k och 53-120 på 9100f. Spelbart absolut, men inte bra alls.
Till och med i Witcher 3 som verkar vara relativt lätt på CPUn så lyckats 9100f sjunka till 17fps vid tilfällen.
I Metro och The Division har den 0.1% low på 4fps

Nu satt jag på jobbet när jag tittade igenom detta, hade inte ljudet på så vet inte exakt vad för åsikt denna youtuber vill uttrycka men för mig är detta en väldigt bra video för att demonstrera hur en low-end CPU kan förstöra spelupplevelsen även i spel som är 100% gpu-bound.

Håller dock med om att det vore intressant att se detta i test kanske. Ännu hellre vore det intressant att se en jämförelse av de vanligast budgetbyggena vs 2000kr mer, 5000kr mer, 8000kr mer osv och se var sweet spot ligger för till exempel 1080p 144hz, 4k60 osv.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200