AMD Ryzen Threadripper – samlingstråd

Permalänk
Datavetare
Skrivet av anon159643:

But there is a thing called too less ram.. Jag skulle ha skaffat mer till denna.

Hur många newbies som använder ett program är irrelevant. Man ska se på skaran användare som tjänar prestanda på att betala 10 000kr extra på att välja HEDT istället för 1950X i matlab och det är inte många.

Borde inte spelbenchmark med mycket kommunikation mellan kärnorna vara ett dåligt exempel för de flesta program? De flesta problem som tar tid är när trådar arbetar i princip helt oberoende av varandra och det intressanta är hur de kan dela olika io-resurser av olika slag.

Sedan att linux kan hantera si och så många kärnor, visst dockers blir vanligare, men folk som har bättre processorer har ofta igång x antal windows samtidigt. Säg att man kör 10st, ger alla 8st kärnor var (ej dedikerade) så snurrar windows på bra.
Visst när dockers blir bättre så kommer säkerligen fler våga köra mer på samma windows, men nu splittrar folk och kör en sak på varje operativsystem. Ska man ha en databas, ja lägg den på en egen maskin osv. Installera databaser och annat på samma os blir bara ett kladeverk i windows och det är stora problem när det krånglar.

Finns rätt mycket bevis på att Windows får problem när antal kärnor ökar. Till viss del kompenserar Microsoft detta i sina servervarianter, i dessa finns en del inställningar och val som försämrar egenskaperna som desktop OS men förbättrar egenskaperna som server OS. Övergripande är det samma gamla vanliga avvägningar, man offrar svarstid och latens (som båda är kritiska för trevlig interaktiv användning) för högre total kapacitet (som oftast är att föredra för servers).

Syns rätt bra om man jämför modellerna från R5-1500X upp till TR-1950X i Geekbench. Upp till 4-6 kärnor är det hyfsat likvärdiga genomsnittliga resultat på Windows och Linux, från 8 kärnor och uppåt börjar Linux dra ifrån rätt ordentligt.

Titta i resultatdatabasen, första ~30 sidorna för toppresultat i "mult-core" är uteslutande Linux-maskiner. Finns långt fler Windows-resultat för de maskiner som ger toppresultat (multi-socket Xeon system).

Min oklockade R5-1600 med 2933 MT/s minnen körandes Ubuntu server drar jämnt med max-klockade R5-1600/1600X utrustade med betydligt snabbare RAM körandes Windows. Då är ändå Linux fördel rätt liten vid 6C/12T jämfört med 8C/16T och högre.

Geekbench har gått från att vara ett skämt som benchmark i tidigare versioner till att faktiskt vara en av de bättre indikatorerna på desktop prestanda. Tidiga versioner skala löjligt bra med CPU-kärnor, fick orimligt bra prestanda på väldigt enkla CPUer (ska man tro GB3 är många telefoner snabbare än x86 laptops) etc. Detta då man hade uteslutande micro-benchmarks som fick plats i L1$ och man testade allt för specifika saker.

GB4 använder sig i stället av "riktiga" program och "riktiga" bibliotek med någorlunda representativt storlek på data (man gör fortfarande vissa kompromisser på denna punkt för att kunna köra på alla typer av system).

Tar vi Matlab specifikt, varför ska man betala 10000 extra? Till att börja med presterar SKL-X faktiskt så pass mycket bättre att pris/prestanda är faktiskt bättre på 7980XE än på 1950X i just detta fall. Men SKL-X är så pass mycket starkare på just den här typen av uppgifter att det räcker med 7900X för att kliva förbi 1950X (faktum är att i7-8700K drar jämnt med 1950X här och i7-8700K blir demolerad av SKL-X p.g.a. att den senare har AVX512).

SGEMM och i något mindre utsträckning SFFT deltesterna är en bra indikation på vilken relativ prestanda man kan förvänta sig i vetenskapliga applikationer där problem hanteras via matriser (vilket är de flesta). Finns en de-facto standard här i form av BLAS (Basic Linear Algebra Subprograms), finns sedan en rad implementationer av detta och i de program jag använt är det möjligt att själv välja vilket bibliotek man vill köra. Det som typiskt presterar bäst är Intels MKL (fungerar även på AMDs aktuella CPUer).

Spelbenchmarks är inte en perfekt match, handlar ju alltid om att göra förenklingar när man benchmarkar. Om något är spel en överskattning av hur pass väl CPU-kärnor kan nyttjas av desktop-program i genomsnitt.

Att CPU-kärnorna kommunicerar en hel del är dock väldigt typiskt för desktop-program, dessa är nästan aldrig "embarrassingly parallel". Desktop-program är normalt interaktiva (så latens är viktigare än beräkningskraft) och de har ofta hög andel I/O kontra beräkningar.

Skulle säga att denna graf

Dold text

är betydligt mer representativ för "generell desktop-prestanda" än de man får från många andra håll där allt för stor andel av testerna är rendering och liknande (som skalar i princip helt perfekt).

TechPowerUp har med Cinebench, VeraCrypt, 7-zip och liknande. Men man har också med Photoshop, virus scanning (typfallet på kort I/O stint, lite CPU-crunch, repeat -> korta svarstiden är långt viktigare än total kapacitet), Excel etc.

Skrivet av sAAb:

Jag tror att skaran som väljer HEDT är ganska stor, kanske 10 % enligt en studie nämnd i

https://www.extremetech.com/computing/255122-european-retaile...

Det är för stort nog för att inte glömma bort. Notera att 1950X är större än 7900X.

https://www.extremetech.com/wp-content/uploads/2017/09/CPUsPerMonth.png

@Yoshman, grymt med Stan. Hade inte hört talas om det, men använder ofta Bayesianskt (anropade binärer från R med system). Nu kanske man kan finsnickra själv framöver; har redan hittat ett exempel jag vill spinna vidare på. Tack!

Har du något uppfattning om varför spel och bayesianskt samvarierar? Har du siffror eller en hunch? Priors och rekursivitet finns ju dessutom inte hos spel. Inser inte att det finns likheter.

Spel och Monte Carlo simulering (Bayesiansk statistisk inferens) har i princip inget gemensamt. Jag som var otydligt där.

Spel-benchmarks (i lägen där GPUn är borta ur ekvationen) är en hyfsad indikator på hur systemet kommer hantera en lång rad typiska desktop-fall som är optimerade för att använda flera CPU-kärnor. Detta då desktop-program, likt spel, nästan alltid kräver en hel del synkronisering mellan kärnor.

Monte Carlo simulering är ett exempel på där man i praktiken kan använda hur många kärnor som helst! Det är ett "embarrassingly parallel". Så perfekt match för HEDT-plattformen då?

Här är min ståndpunkt att dels är detta ett fall som ännu bättre hanteras av server-plattformar med lite lägre klockade CPUer, fast fler kärnor. Och detta är också ett fall där flera sockets är ett icke-problem, det är till och med en fördel då man kan sprida ut TDP över flera kretsar.

Men då det är ett "embarrassingly parallel" problem finns väldigt ofta än ännu bättre lösning, så även här. HEDT kanske kan ge upp mot x10 jämfört med en billig desktop CPU, grejen är att GPGPU kan ge x100...

Och det är huvudproblemet jag har med hela HEDT-segmentet: vem är den optimerad för? Typiska desktop-laster rullar snabbare på i7-8700K (den har mer lämpad cache-policy för detta, den har lägre latens mot cache och RAM, den har högre prestanda per kärna). I andra änden har vi de fall som skalar extremt väl med kärnor, handlar det om uppgiftsparallellism är server-plattformarna bäst lämpade och handlar det om dataparallellism är väldigt ofta GPGPU bäst lämpad men finns vissa fall där SIMD (d.v.s. SSE/AVX) fungerar bättre.

Är också helt övertygad om att TR säljer bättre sett till antal jämfört med SKL-X. Men än mer övertygad om att HEDT står betydligt närmare för 1 % av försäljningen än 10 %. Titta på AMDs och Intels senaste kvartalsrapporter, AMDs kombinerade försäljning av CPUer (exklusive Epyc) och GPUer är nästan exakt en tiondel av Intels kombinerade försäljning av CPUer (igen exklusive Xeon då detta redovisas separat).

~70-75 % av alla x86 desktop-CPUer som säljs går idag till bärbara enheter. Om nu AMD har ~50 % av de kvarvarande 25-30 % och det skulle utgöras av > 5 % TR, hur förklarar man då 1/10 fördelningen i omsättning och att Intel har dubbla bruttomarginalen jämfört med AMD (bruttomarginalen för TR-1950X måste rimligen vara klart högre än i7-7700K, annars är det någon som ska avgå med omedelbar verkan)?

Och om HEDT vore ekonomiskt viktigt, borde inte Intel reagera på att TR av allt att döma säljer bättre än SKL-X? Är inte en sannolikare förklaringen att HEDT-marknaden är ur ekonomiskt synvinkel helt irrelevant, men den är viktig ur PR syfte.

Ur PR syfte räcker det med att "vinna" benchmarks hos de stora teknikwebbplatserna. Vad 7980XE kostar är i det läget irrelevant, räcker med att den är med i testresultaten.

Det går självklart att hitta enstaka nischer när HEDT är det optimala valet, ett exempel jag ser för SKL-X är vissa typer av vetenskapliga beräkningar då det finns områden som inte skalar bra över CPU-sockets (egentligen skalar inte bra över NUMA-zoner) men ändå skalar lysande med RAM-bandbredd, SIMD och kärnor. Men på det stora hela är det en rätt smal nisch... Förstår också exakt hur problem ska vara beskaffade för att vara optimala för TR, men har kan jag liksom inte ens komma på fall utanför typiska server-laster.

Det betyder inte att HEDT är en dålig desktop CPU, tvärt om ligger dessa nära toppen. Men för majoriteten av alla desktop-laster finns det ännu snabbare (och väsentligt billigare) alternativ.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Finns rätt mycket bevis på att Windows får problem när antal kärnor ökar. Till viss del kompenserar Microsoft detta i sina servervarianter, i dessa finns en del inställningar och val som försämrar egenskaperna som desktop OS men förbättrar egenskaperna som server OS. Övergripande är det samma gamla vanliga avvägningar, man offrar svarstid och latens (som båda är kritiska för trevlig interaktiv användning) för högre total kapacitet (som oftast är att föredra för servers).

Syns rätt bra om man jämför modellerna från R5-1500X upp till TR-1950X i Geekbench. Upp till 4-6 kärnor är det hyfsat likvärdiga genomsnittliga resultat på Windows och Linux, från 8 kärnor och uppåt börjar Linux dra ifrån rätt ordentligt.

Titta i resultatdatabasen, första ~30 sidorna för toppresultat i "mult-core" är uteslutande Linux-maskiner. Finns långt fler Windows-resultat för de maskiner som ger toppresultat (multi-socket Xeon system).

Min oklockade R5-1600 med 2933 MT/s minnen körandes Ubuntu server drar jämnt med max-klockade R5-1600/1600X utrustade med betydligt snabbare RAM körandes Windows. Då är ändå Linux fördel rätt liten vid 6C/12T jämfört med 8C/16T och högre.

Geekbench har gått från att vara ett skämt som benchmark i tidigare versioner till att faktiskt vara en av de bättre indikatorerna på desktop prestanda. Tidiga versioner skala löjligt bra med CPU-kärnor, fick orimligt bra prestanda på väldigt enkla CPUer (ska man tro GB3 är många telefoner snabbare än x86 laptops) etc. Detta då man hade uteslutande micro-benchmarks som fick plats i L1$ och man testade allt för specifika saker.

GB4 använder sig i stället av "riktiga" program och "riktiga" bibliotek med någorlunda representativt storlek på data (man gör fortfarande vissa kompromisser på denna punkt för att kunna köra på alla typer av system).

Tar vi Matlab specifikt, varför ska man betala 10000 extra? Till att börja med presterar SKL-X faktiskt så pass mycket bättre att pris/prestanda är faktiskt bättre på 7980XE än på 1950X i just detta fall. Men SKL-X är så pass mycket starkare på just den här typen av uppgifter att det räcker med 7900X för att kliva förbi 1950X (faktum är att i7-8700K drar jämnt med 1950X här och i7-8700K blir demolerad av SKL-X p.g.a. att den senare har AVX512).

SGEMM och i något mindre utsträckning SFFT deltesterna är en bra indikation på vilken relativ prestanda man kan förvänta sig i vetenskapliga applikationer där problem hanteras via matriser (vilket är de flesta). Finns en de-facto standard här i form av BLAS (Basic Linear Algebra Subprograms), finns sedan en rad implementationer av detta och i de program jag använt är det möjligt att själv välja vilket bibliotek man vill köra. Det som typiskt presterar bäst är Intels MKL (fungerar även på AMDs aktuella CPUer).

Spelbenchmarks är inte en perfekt match, handlar ju alltid om att göra förenklingar när man benchmarkar. Om något är spel en överskattning av hur pass väl CPU-kärnor kan nyttjas av desktop-program i genomsnitt.

Att CPU-kärnorna kommunicerar en hel del är dock väldigt typiskt för desktop-program, dessa är nästan aldrig "embarrassingly parallel". Desktop-program är normalt interaktiva (så latens är viktigare än beräkningskraft) och de har ofta hög andel I/O kontra beräkningar.

Skulle säga att denna graf

är betydligt mer representativ för "generell desktop-prestanda" än de man får från många andra håll där allt för stor andel av testerna är rendering och liknande (som skalar i princip helt perfekt).

TechPowerUp har med Cinebench, VeraCrypt, 7-zip och liknande. Men man har också med Photoshop, virus scanning (typfallet på kort I/O stint, lite CPU-crunch, repeat -> korta svarstiden är långt viktigare än total kapacitet), Excel etc.

Spel och Monte Carlo simulering (Bayesiansk statistisk inferens) har i princip inget gemensamt. Jag som var otydligt där.

Spel-benchmarks (i lägen där GPUn är borta ur ekvationen) är en hyfsad indikator på hur systemet kommer hantera en lång rad typiska desktop-fall som är optimerade för att använda flera CPU-kärnor. Detta då desktop-program, likt spel, nästan alltid kräver en hel del synkronisering mellan kärnor.

Monte Carlo simulering är ett exempel på där man i praktiken kan använda hur många kärnor som helst! Det är ett "embarrassingly parallel". Så perfekt match för HEDT-plattformen då?

Här är min ståndpunkt att dels är detta ett fall som ännu bättre hanteras av server-plattformar med lite lägre klockade CPUer, fast fler kärnor. Och detta är också ett fall där flera sockets är ett icke-problem, det är till och med en fördel då man kan sprida ut TDP över flera kretsar.

Men då det är ett "embarrassingly parallel" problem finns väldigt ofta än ännu bättre lösning, så även här. HEDT kanske kan ge upp mot x10 jämfört med en billig desktop CPU, grejen är att GPGPU kan ge x100...

Och det är huvudproblemet jag har med hela HEDT-segmentet: vem är den optimerad för? Typiska desktop-laster rullar snabbare på i7-8700K (den har mer lämpad cache-policy för detta, den har lägre latens mot cache och RAM, den har högre prestanda per kärna). I andra änden har vi de fall som skalar extremt väl med kärnor, handlar det om uppgiftsparallellism är server-plattformarna bäst lämpade och handlar det om dataparallellism är väldigt ofta GPGPU bäst lämpad men finns vissa fall där SIMD (d.v.s. SSE/AVX) fungerar bättre.

Är också helt övertygad om att TR säljer bättre sett till antal jämfört med SKL-X. Men än mer övertygad om att HEDT står betydligt närmare för 1 % av försäljningen än 10 %. Titta på AMDs och Intels senaste kvartalsrapporter, AMDs kombinerade försäljning av CPUer (exklusive Epyc) och GPUer är nästan exakt en tiondel av Intels kombinerade försäljning av CPUer (igen exklusive Xeon då detta redovisas separat).

~70-75 % av alla x86 desktop-CPUer som säljs går idag till bärbara enheter. Om nu AMD har ~50 % av de kvarvarande 25-30 % och det skulle utgöras av > 5 % TR, hur förklarar man då 1/10 fördelningen i omsättning och att Intel har dubbla bruttomarginalen jämfört med AMD (bruttomarginalen för TR-1950X måste rimligen vara klart högre än i7-7700K, annars är det någon som ska avgå med omedelbar verkan)?

Och om HEDT vore ekonomiskt viktigt, borde inte Intel reagera på att TR av allt att döma säljer bättre än SKL-X? Är inte en sannolikare förklaringen att HEDT-marknaden är ur ekonomiskt synvinkel helt irrelevant, men den är viktig ur PR syfte.

Ur PR syfte räcker det med att "vinna" benchmarks hos de stora teknikwebbplatserna. Vad 7980XE kostar är i det läget irrelevant, räcker med att den är med i testresultaten.

Det går självklart att hitta enstaka nischer när HEDT är det optimala valet, ett exempel jag ser för SKL-X är vissa typer av vetenskapliga beräkningar då det finns områden som inte skalar bra över CPU-sockets (egentligen skalar inte bra över NUMA-zoner) men ändå skalar lysande med RAM-bandbredd, SIMD och kärnor. Men på det stora hela är det en rätt smal nisch... Förstår också exakt hur problem ska vara beskaffade för att vara optimala för TR, men har kan jag liksom inte ens komma på fall utanför typiska server-laster.

Det betyder inte att HEDT är en dålig desktop CPU, tvärt om ligger dessa nära toppen. Men för majoriteten av alla desktop-laster finns det ännu snabbare (och väsentligt billigare) alternativ.

Jo, jag glädjeläste nog lite. 1 % låter rimligare.

Här en bild från Anandtech, https://www.anandtech.com/show/9793/best-cpus

De presenterar inte ens FPS längre!

De har insett att 99:e percentilen är en mer användbar metod.

Skickades från m.sweclockers.com

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem

Headless PCIe passthrough

Under helgen så släppte Level1Linux kanalen en video där Wendell pratar om PCIe passthrough på ett lite annorlunda sätt mot tidigare. I videon visar de upp hur en windows vm (med ett grafikkort dedikerat till denna) kan köra program/video/spel etc, för att sedan visas upp på hosten utan någon som helst latency (korrigering: väldigt låg latency).

De använder inte unity och inte heller någon rdp-klient för att visa vad som händer på windows maskinen.

Ref till forumposten: https://forum.level1techs.com/t/a-little-teaser-of-what-is-to...

Rent spontant känns detta riktigt spännande! Och jag hoppas verkligen på att detta kommer underhållas/släppas/fungera någon gång under nästkommande år. Möjligheten till att kunna gå över till någon linux dist till fullo utan att behöva oroa sig över att köra dual boot etc kommer bli rätt galen.

Så vad tror ni folk? Känner ni er lika taggade som jag?

Permalänk
Medlem

@asabla: Jag har följt Wendell senaste halvåret gällande virtualisering. Att kunna skriva direkt till t.ex. integrerade grafikkortets framebuffer från t.ex ett Vega kort verkar vara väldigt intressant, cool virtualiseringslösning på t.ex. extern grafikkort.

Själv väntar jag på att se vilket moderkort som bäst fungerar med IOMMU och andra virtualiserings-funktioner, än så länge verkar Taichis & fatality vara bäst men han har inte testat Asus moderkorten om jag minns rätt.
Nästa Agesa (1.007 ish?) kommer säkert (förhoppningsvis) vara intressant

Permalänk
Medlem
Skrivet av asabla:

Under helgen så släppte Level1Linux kanalen en video där Wendell pratar om PCIe passthrough på ett lite annorlunda sätt mot tidigare. I videon visar de upp hur en windows vm (med ett grafikkort dedikerat till denna) kan köra program/video/spel etc, för att sedan visas upp på hosten utan någon som helst latency (korrigering: väldigt låg latency).

De använder inte unity och inte heller någon rdp-klient för att visa vad som händer på windows maskinen.

https://www.youtube.com/watch?v=1MI1s4hZ_yE

Ref till forumposten: https://forum.level1techs.com/t/a-little-teaser-of-what-is-to...

Rent spontant känns detta riktigt spännande! Och jag hoppas verkligen på att detta kommer underhållas/släppas/fungera någon gång under nästkommande år. Möjligheten till att kunna gå över till någon linux dist till fullo utan att behöva oroa sig över att köra dual boot etc kommer bli rätt galen.

Så vad tror ni folk? Känner ni er lika taggade som jag?

Skrivet av HappyPie:

@asabla: Jag har följt Wendell senaste halvåret gällande virtualisering. Att kunna skriva direkt till t.ex. integrerade grafikkortets framebuffer från t.ex ett Vega kort verkar vara väldigt intressant, cool virtualiseringslösning på t.ex. extern grafikkort.

Själv väntar jag på att se vilket moderkort som bäst fungerar med IOMMU och andra virtualiserings-funktioner, än så länge verkar Taichis & fatality vara bäst men han har inte testat Asus moderkorten om jag minns rätt.
Nästa Agesa (1.007 ish?) kommer säkert (förhoppningsvis) vara intressant

Nice med ny Wendell-video!

Jag kör Debian med Asrock Fatal1ty sedan drygt en halvtimme. Har inte hunnit testa knappt något än. Men, på sikt när jag får mer tid.

Fungerade direkt, på första bootningen!

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av HappyPie:

@asabla: Jag har följt Wendell senaste halvåret gällande virtualisering. Att kunna skriva direkt till t.ex. integrerade grafikkortets framebuffer från t.ex ett Vega kort verkar vara väldigt intressant, cool virtualiseringslösning på t.ex. extern grafikkort.

Själv väntar jag på att se vilket moderkort som bäst fungerar med IOMMU och andra virtualiserings-funktioner, än så länge verkar Taichis & fatality vara bäst men han har inte testat Asus moderkorten om jag minns rätt.
Nästa Agesa (1.007 ish?) kommer säkert (förhoppningsvis) vara intressant

Åhåå! Mja det händer otroligt mycket intressant med virtualisering just nu, ska bli väldigt spännande att se resultatet under nästa år.

Skrivet av sAAb:

Nice med ny Wendell-video!

Jag kör Debian med Asrock Fatal1ty sedan drygt en halvtimme. Har inte hunnit testa knappt något än. Men, på sikt när jag får mer tid.

Fungerade direkt, på första bootningen!

Oja, händer lite allt för ofta att jag har igång någon längre video där han bara pratar om vad han gör (som att kompilera ny kernel till Surface Pro 3), lite som att ha en podd igång i bakgrunden

Permalänk
Medlem
Skrivet av sAAb:

Nice med ny Wendell-video!

Jag kör Debian med Asrock Fatal1ty sedan drygt en halvtimme. Har inte hunnit testa knappt något än. Men, på sikt när jag får mer tid.

Fungerade direkt, på första bootningen!

Berätta gärna om dina upptäckter och svara/"atta" mig då också
Själv har jag i flera år tänk att köra Linux som host och Windows som gäst OS, med TR så tror jag att det kommer bli fantastiskt. Bara osäker på vilket moderkort

Permalänk
Medlem

@HappyPie: Jag hoppas bara på att mitt Asus X399-E inte ger allt för många problem lite senare när det blir dags

Permalänk
Medlem

@HappyPie

Hmmm. Något är knas med datorn, eller bara svårtolkad. Jag fick bara 39113 i Multi-Core i Geekbench4, https://browser.geekbench.com/v4/cpu/5150464

Jo, det är högt om man jämför med de som kör Windows (de har typ 25000-35000), men i Linux borde det ha gett typ 45000-55000. Det som sänker är vissa värden i multicore. Single-Core blev 4995 och är bland de bästa (!), men Multi-Core är skum. Ser man på enskilda mätvärden ligger de på ca hälften vilket får mig att misstänka att det är mina 2x16 GB som borde ha varit 4x16GB för att få full bandbredd. Men, även mina latenser ligger högt, 154,3 ns, när en annan snubbe med lägre Single-Core, 4587 (https://browser.geekbench.com/v4/cpu/5159661) har lägre latens, 117,3 ns, och därmed får bra mycket högre Multi-Core: 47315. Risken är att det håller i sig tills jag får råd med mer DDR4 moduler, dvs. runt fem tusen papp.

Trist är också att inte ha lm-sensors än. Jag vågar inte riktigt stresstesta något under flera timmar. Behöver man burn-in idag?

Fast, jag klagar inte på Blender-testet. Det ser okej ut.

Drygt femton sekunder är inte fel. Det är ungefär halva tiden mot 1800X, vilket ju är väntat.

Det kanske är mest i benchmarks man ser skillnaden.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av HappyPie:

Berätta gärna om dina upptäckter och svara/"atta" mig då också
Själv har jag i flera år tänk att köra Linux som host och Windows som gäst OS, med TR så tror jag att det kommer bli fantastiskt. Bara osäker på vilket moderkort

Här kommer en mindre uppdatering, då verkligheten utanför det virtuella tar mycket tid. Bilden nedan visar hur lång tid det tar att uppgradera mitt Linux-system, som råkade nya Nvidia-drivrutiner. Överst ser man processorernas arbete, i mitten ser man minnesåtgången och nederst ser man näterkshistoriken.

Det som hänt (för mig) är att området med brunt (Nvidia-arbetet) har minskat i andel, eftersom hanteringen av nya drivrutiner sköts av fler hårdtrådar. Jag har emellertid inga gamla värden att jämföra med vilket gör att mitt intryck saknar substans. Men, det känns snabbare...

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem

@sAAb: Hur fungerar det med virtualisering och funktioner som PCIE passthrough på ett nvidia kort? Har för mig att om drivrutinerna känner av att det är virtualiserat får man ett felmeddelande och kortet slutar fungera.

Permalänk
Medlem
Skrivet av HappyPie:

@sAAb: Hur fungerar det med virtualisering och funktioner som PCIE passthrough på ett nvidia kort? Har för mig att om drivrutinerna känner av att det är virtualiserat får man ett felmeddelande och kortet slutar fungera.

Inte testat själv, men verkar inte omöjligt iaf:
https://www.reddit.com/r/Amd/comments/72ula0/tr1950x_gtx_1060...

Permalänk
Hjälpsam

Startat en liten tråd om ECC minnen.
#17164386

En som kör med ECC minne på TR.
http://www.overclock.net/t/1636550/amd-ryzen-threadripper-own...

AMD anger stöd för ECC på TR.
"Quad channel DDR4 with support for ECC for reliable throughput."
http://www.amd.com/en/products/ryzen-threadripper

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Här är en som överklockat sin Threadripper till 4,1 GHz base och 4,9 GHz i boost...

"WicKed Threadripper overclocking guide & tutorial to 4.1 base 4.9 boost!"
https://www.youtube.com/watch?v=ybcnrweD7eI

Den slår i9-7980XE, om den senare är oklockad.

Ser ser trovärdigt ut, bl.a. då han ju visar dels sitt eget ansikte men också att han beskriver hur han gör, i hyfsad detalj.

Det är ju spännande om andra kan upprepa det! Jag vågar inte prova, än.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av sAAb:

Här är en som överklockat sin Threadripper till 4,1 GHz base och 4,9 GHz i boost...

"WicKed Threadripper overclocking guide & tutorial to 4.1 base 4.9 boost!"
https://www.youtube.com/watch?v=ybcnrweD7eI

Den slår i9-7980XE, om den senare är oklockad.

Ser ser trovärdigt ut, bl.a. då han ju visar dels sitt eget ansikte men också att han beskriver hur han gör, i hyfsad detalj.

Det är ju spännande om andra kan upprepa det! Jag vågar inte prova, än.

Då får vi hoppas att det inte är TR 2 som han fått tag på då jag inte sett någon annan som når dessa nivåer med vatten.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

Då får vi hoppas att det inte är TR 2 som han fått tag på då jag inte sett någon annan som når dessa nivåer med vatten.

Nope, inte TR 2.

Såg att han kör UEFI 0503 på Zenith Extreme som är riktigt gammal UEFI, senaste är 0804 (en beta baserat på 0804 med lite fixar på fläktcontroller existerar också. Om man kör NVMe RAID är 0801 den senaste man kan använda idag.
Hans temperaturmätningar är helt fel, idle ligger den på 13 grader. Han behöver köra Clear CMOS eller uppdatera UEFI för att få verklig temperatur.

Monoblocket ifrån EK (och även deras vanliga block) är av riktigt dålig kvalité och får även stryk av Enermax Liqtech TR4 360.

Permalänk
Avstängd

@sAAb: Med tanke på hur resultaten står sig jämfört med andra överklockade Threadrippers så stämmer det definitivt inte.

~3500 CB i R15 är i linje med alla andra TR som kör 4.1Ghz så det är bara Windows som inte hänger med (inget ovanligt).
~460 för single-core i CPU-Z är precis vad en TR i Stock också klarar.

Han visar aldrig att frekvensen når 4.9Ghz i BIOS och ändrar aldrig några inställningar för det heller. Båda AISuite och CPU-Z visar på 4.1Ghz max.

Det faller på sin egen orimlighet att resultaten inte stämmer.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av sAAb:

@HappyPie

Hmmm. Något är knas med datorn, eller bara svårtolkad. Jag fick bara 39113 i Multi-Core i Geekbench4, https://browser.geekbench.com/v4/cpu/5150464

Jo, det är högt om man jämför med de som kör Windows (de har typ 25000-35000), men i Linux borde det ha gett typ 45000-55000. Det som sänker är vissa värden i multicore. Single-Core blev 4995 och är bland de bästa (!), men Multi-Core är skum. Ser man på enskilda mätvärden ligger de på ca hälften vilket får mig att misstänka att det är mina 2x16 GB som borde ha varit 4x16GB för att få full bandbredd. Men, även mina latenser ligger högt, 154,3 ns, när en annan snubbe med lägre Single-Core, 4587 (https://browser.geekbench.com/v4/cpu/5159661) har lägre latens, 117,3 ns, och därmed får bra mycket högre Multi-Core: 47315. Risken är att det håller i sig tills jag får råd med mer DDR4 moduler, dvs. runt fem tusen papp.

Testa uppdatera version av geekbench och/eller linuxkärnan. Det lär ha fixats grejer i 4.14 kärnan t.ex.

Ballt att det är så stor skillnad mellan Win10 och Linux. Jag var tvungen att testa själv, dock har jag ej uppdaterat BIOS eller något än då jag inte bestämt vilket grafikkort jag ska köra för passthrough.

Win10 https://browser.geekbench.com/v4/cpu/5419411
Single-Core Score
4483
Multi-Core Score
30711

Linux https://browser.geekbench.com/v4/cpu/5419590
Single-Core Score
5082
Multi-Core Score
49804

Visa signatur

"I do not know with which weapons WWIII will be fought, but WWIV will be fought with sticks and stones."
Albert Einstein

Permalänk
Medlem
Skrivet av engywook:

Testa uppdatera version av geekbench och/eller linuxkärnan. Det lär ha fixats grejer i 4.14 kärnan t.ex.

Ballt att det är så stor skillnad mellan Win10 och Linux. Jag var tvungen att testa själv, dock har jag ej uppdaterat BIOS eller något än då jag inte bestämt vilket grafikkort jag ska köra för passthrough.

Win10 https://browser.geekbench.com/v4/cpu/5419411
Single-Core Score
4483
Multi-Core Score
30711

Linux https://browser.geekbench.com/v4/cpu/5419590
Single-Core Score
5082
Multi-Core Score
49804

Här är en jämförelse mellan din och snubbens, https://browser.geekbench.com/v4/cpu/compare/5419590?baseline...
Du har tydligt snabbare minnen och lägre latens i single, vilket verkar vara den egentliga skillnaden. Tyvärr framgår inte minnestypen för honom.

Här är en jämförelse mellan min och din, https://browser.geekbench.com/v4/cpu/compare/5150464?baseline...
Det är väldigt snarlikt i single; du har lite snabbare minne och bättre latens.

Men, min maskin får stryk som fan i multi, i en del (AES, Canny, Dijkstra osv.), medan andra är jämförbara (JPEG, Lua, SQLite osv.). Det tolkar jag som att de är känsliga för bandbredd och att jag bara kör med två stickor, 2x16GB, dvs 32 GB totalt. Vad har du? Jag ser att du har 32 GB totalt också, men hur många stickor har du?! 4x8GB?

EDIT:

Skum rapportering på L1 och L3 från Geekbench mellan våra!

L1 Instruction Cache

32 KB x 16

64 KB x 16

L1 Data Cache

64 KB x 16

32 KB x 16

L2 Cache

512 KB x 16

512 KB x 16

L3 Cache

32768 KB x 4

4096 KB x 4

WTF?!

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av sAAb:

Här är en jämförelse mellan din och snubbens, https://browser.geekbench.com/v4/cpu/compare/5419590?baseline...
Du har tydligt snabbare minnen och lägre latens i single, vilket verkar vara den egentliga skillnaden. Tyvärr framgår inte minnestypen för honom.

Här är en jämförelse mellan min och din, https://browser.geekbench.com/v4/cpu/compare/5150464?baseline...
Det är väldigt snarlikt i single; du har lite snabbare minne och bättre latens.

Men, min maskin får stryk som fan i multi, i en del (AES, Canny, Dijkstra osv.), medan andra är jämförbara (JPEG, Lua, SQLite osv.). Det tolkar jag som att de är känsliga för bandbredd och att jag bara kör med två stickor, 2x16GB, dvs 32 GB totalt. Vad har du? Jag ser att du har 32 GB totalt också, men hur många stickor har du?! 4x8GB?

Japp, jag har 4*8 cl14. Tänkte köra 64GB men det är så jävla dyrt och det är högst oklart om passthrough etc kommer fungera på TR. Det fick bli 4*8 så att jag har quad channel. Tanken var att köpa 4 till om allt går bra men då blir det problem med att kylaren är ivägen. =/

Vad finns det mer för benchmarks man kan köra som funkar på både Linux och Win10? Vore kul om det är liknande prestandaskillnad i annat. Vad är det för blender bench man kör?

Visa signatur

"I do not know with which weapons WWIII will be fought, but WWIV will be fought with sticks and stones."
Albert Einstein

Permalänk
Medlem
Skrivet av sAAb:

Skum rapportering på L1 och L3 från Geekbench mellan våra!

L1 Instruction Cache

32 KB x 16

64 KB x 16

L1 Data Cache

64 KB x 16

32 KB x 16

L2 Cache

512 KB x 16

512 KB x 16

L3 Cache

32768 KB x 4

4096 KB x 4

WTF?!

Japp, jag såg det också. Tror din är rätt och jag förhoppningsvis bara har gammalt BIOS. Det är olika versioner av geekbench så det kanske är någon bugg där.

Visa signatur

"I do not know with which weapons WWIII will be fought, but WWIV will be fought with sticks and stones."
Albert Einstein

Permalänk
Medlem
Skrivet av engywook:

Japp, jag har 4*8 cl14. Tänkte köra 64GB men det är så jävla dyrt och det är högst oklart om passthrough etc kommer fungera på TR. Det fick bli 4*8 så att jag har quad channel. Tanken var att köpa 4 till om allt går bra men då blir det problem med att kylaren är ivägen. =/

Vad finns det mer för benchmarks man kan köra som funkar på både Linux och Win10? Vore kul om det är liknande prestandaskillnad i annat. Vad är det för blender bench man kör?

Ja, minnen är jävla dyrt.

Blender är ju en av dessa delvis jämförbara, men där kan det lika gärna bero skillnader i koden. Det är mer spännande med lågnivå kanske.

Skrivet av engywook:

Japp, jag såg det också. Tror din är rätt och jag förhoppningsvis bara har gammalt BIOS. Det är olika versioner av geekbench så det kanske är någon bugg där.

Nja, det är jag som har den gamla BIOS. Jag har American Megatrends Inc. P1.30 och du har American Megatrends Inc. P1.50.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av SeF.Typh00n:

@sAAb: Med tanke på hur resultaten står sig jämfört med andra överklockade Threadrippers så stämmer det definitivt inte.

~3500 CB i R15 är i linje med alla andra TR som kör 4.1Ghz så det är bara Windows som inte hänger med (inget ovanligt).
~460 för single-core i CPU-Z är precis vad en TR i Stock också klarar.

Han visar aldrig att frekvensen når 4.9Ghz i BIOS och ändrar aldrig några inställningar för det heller. Båda AISuite och CPU-Z visar på 4.1Ghz max.

Det faller på sin egen orimlighet att resultaten inte stämmer.

Korrekt, XFR stängs av så fort man överklockar manuellt och det finns ingen boost på enskilda kärnor.
I videon används även väldigt gammal UEFI och man ser att temperaturmätningarna är helt off. Ett EK-block kan INTE hålla en 1950X på 13 grader i idle såvida inte ambient temperature är flera minusgrader, vilket jag tvivlar han har vid sin testbänk.

Permalänk
Skrivet av Ljugtomten:

Hans temperaturmätningar är helt fel, idle ligger den på 13 grader. Han behöver köra Clear CMOS eller uppdatera UEFI för att få verklig temperatur.

Han har Overclocking enhancement aktiverat vilket gör att bioset sätter en artificiell temperaturnivå.

Elmor skriver såhär om det:
"It enables SenseMi Skew (artificially reading lower temperatures in order to trick XFR to boost longer and higher), Performance Bias and tweaks VRM settings to improve overclockability. " Källa

OT: Känns mest som att snubben är en glad amatör som tror sig ha lyckats med något som ingen annan gjort för att han inte förstår vad han sysslar med....

Permalänk
Datavetare
Skrivet av engywook:

Ballt att det är så stor skillnad mellan Win10 och Linux. Jag var tvungen att testa själv, dock har jag ej uppdaterat BIOS eller något än då jag inte bestämt vilket grafikkort jag ska köra för passthrough.

Win10 https://browser.geekbench.com/v4/cpu/5419411
Single-Core Score
4483
Multi-Core Score
30711

Linux https://browser.geekbench.com/v4/cpu/5419590
Single-Core Score
5082
Multi-Core Score
49804

Finns två typer av program med väldigt skilda resultat när man jämför mellan Windows och Linux.

Dels de som är triviala att köra på många kärnor, t.ex. Cinebench och t.ex. Raytracing, N-Body Physics och några deltest till i Geekbench 4. Här är det i princip identisk prestanda oavsett OS, vilket är helt förväntat då OSet gör nästan ingenting i detta fall.

Dels de fall som måste synkronisera mellan kärnor eller på annat sätt utnyttja OS-tjänster. Här är det en irrelevant skillnad upp till någonstans mellan 4-6 kärnor, sedan börjar Linux dra ifrån rejält.

Så sitter man som ni på HEDT bör man nog fundera lite om Windows är ett vettigt val. Ska man köra Windows på ett system med många kärnor bör man välja server-varianterna då dessa använder sig av lite andra OS-parametrar och är optimerade på lite annorlunda sätt (man offrar låg latens och maximal GUI-respons för högre aggregerad kapacitet, helt vettigt för sen server).

Skrivet av sAAb:

Här är en jämförelse mellan din och snubbens, https://browser.geekbench.com/v4/cpu/compare/5419590?baseline...
Du har tydligt snabbare minnen och lägre latens i single, vilket verkar vara den egentliga skillnaden. Tyvärr framgår inte minnestypen för honom.

Här är en jämförelse mellan min och din, https://browser.geekbench.com/v4/cpu/compare/5150464?baseline...
Det är väldigt snarlikt i single; du har lite snabbare minne och bättre latens.

Men, min maskin får stryk som fan i multi, i en del (AES, Canny, Dijkstra osv.), medan andra är jämförbara (JPEG, Lua, SQLite osv.). Det tolkar jag som att de är känsliga för bandbredd och att jag bara kör med två stickor, 2x16GB, dvs 32 GB totalt. Vad har du? Jag ser att du har 32 GB totalt också, men hur många stickor har du?! 4x8GB?

EDIT:

Skum rapportering på L1 och L3 från Geekbench mellan våra!

L1 Instruction Cache

32 KB x 16

64 KB x 16

L1 Data Cache

64 KB x 16

32 KB x 16

L2 Cache

512 KB x 16

512 KB x 16

L3 Cache

32768 KB x 4

4096 KB x 4

WTF?!

Angående latensen: vilket läge kör du din TR i vad det gäller minneskonfiguration? D.v.s. kör du "Distributed Mode" eller "Local mode"?

Kan tänka mig att "Distributed Mode" (UMA) kan vara en fördel om man kör en "vanligt" Windows, "Local mode" (NUMA) lär vara att föredra om man kör Linux eller Windows-server då dessa är NUMA-optimerade.

Vidare. Inte så att du lyckats stoppa båda stickorna på samma minneskontroller? I Linux kan du avgöra detta om du kör i "Local mode" och gör detta:

$ find /sys/devices/system/node/ -name 'node?'

Får du följande ligger dina stickor på en varsin minneskontroller (att föredra)

/sys/devices/system/node/node0 /sys/devices/system/node/node1

men får du bara en av dessa har du satt båda minnena till samma minneskontroller vilket betyder att hälften av alla kärnor kommer få väldigt hög latens mot RAM.

Kan ju vara så att geekbench bara råkade köra på "fel" sida den gången du fick så löjligt hög latens.

Här har du två Geekbench körningar på samma maskin (dual-socket E5 2690), använder endast ena CPU-sockeln i båda lägena. 5422912 är när RAM ligger på samma NUMA-zon som den sockel som används, 5422811 är när RAM ligger på den sockel som inte används.

https://browser.geekbench.com/v4/cpu/compare/5422912?baseline=5422811

Visa resultat påverkas i princip inte alls, minnesbandbredd och latens påverkas brutalt mycket. Latenskritiska tester som t.ex. Dijkstra och PDF Rendering påverkas också rejält.

Enkeltrådfallet påverkas mindre, dels får man rimligen högre cache-hit-rate här (en enda kärna får här 20M L3$) och dels räcker bandbredden till för rätt aggressiv prefetch som till stor del kan "gömma" latens.

Detta är helt förväntat. Vissa program skalar fint över NUMA-zoner, andra skalar apa (och finns i princip inget man kan göra åt det, beror helt på typen av problem).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Angående latensen: vilket läge kör du din TR i vad det gäller minneskonfiguration? D.v.s. kör du "Distributed Mode" eller "Local mode"?

Vet inte just nu, men kör på default på allt...

1. Borde veta
2. Enkelt att kolla
3. Kommer att kolla
4. Kommer att rapportera

Skrivet av Yoshman:

Kan tänka mig att "Distributed Mode" (UMA) kan vara en fördel om man kör en "vanligt" Windows, "Local mode" (NUMA) lär vara att föredra om man kör Linux eller Windows-server då dessa är NUMA-optimerade.

Noll koll här. Jag kör "default". Det kräver en reboot. Återkommer. (klockan är mycket efter all glögg...)

Skrivet av Yoshman:

Vidare. Inte så att du lyckats stoppa båda stickorna på samma minneskontroller? I Linux kan du avgöra detta om du kör i "Local mode" och gör detta:

$ find /sys/devices/system/node/ -name 'node?'

Får du följande ligger dina stickor på en varsin minneskontroller (att föredra)

/sys/devices/system/node/node0 /sys/devices/system/node/node1

men får du bara en av dessa har du satt båda minnena till samma minneskontroller vilket betyder att hälften av alla kärnor kommer få väldigt hög latens mot RAM.

Kan ju vara så att geekbench bara råkade köra på "fel" sida den gången du fick så löjligt hög latens.

Här har du två Geekbench körningar på samma maskin (dual-socket E5 2690), använder endast ena CPU-sockeln i båda lägena. 5422912 är när RAM ligger på samma NUMA-zon som den sockel som används, 5422811 är när RAM ligger på den sockel som inte används.

https://browser.geekbench.com/v4/cpu/compare/5422912?baseline=5422811

Visa resultat påverkas i princip inte alls, minnesbandbredd och latens påverkas brutalt mycket. Latenskritiska tester som t.ex. Dijkstra och PDF Rendering påverkas också rejält.

Enkeltrådfallet påverkas mindre, dels får man rimligen högre cache-hit-rate här (en enda kärna får här 20M L3$) och dels räcker bandbredden till för rätt aggressiv prefetch som till stor del kan "gömma" latens.

Detta är helt förväntat. Vissa program skalar fint över NUMA-zoner, andra skalar apa (och finns i princip inget man kan göra åt det, beror helt på typen av problem).

Oavsett vad jag kör just nu så ger det:

$ find /sys/devices/system/node/ -name 'node?' /sys/devices/system/node/node0 /sys/devices/system/node/node1

Inget känns självklart.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av Yoshman:

Inte så att du lyckats stoppa båda stickorna på samma minneskontroller? I Linux kan du avgöra detta om du kör i "Local mode" och gör detta:

$ find /sys/devices/system/node/ -name 'node?'

Får du följande ligger dina stickor på en varsin minneskontroller (att föredra)

/sys/devices/system/node/node0 /sys/devices/system/node/node1

men får du bara en av dessa har du satt båda minnena till samma minneskontroller vilket betyder att hälften av alla kärnor kommer få väldigt hög latens mot RAM.

När jag installerade minnena följde jag manualen http://asrock.nl/downloadsite/Manual/Fatal1ty%20X399%20Profes.... På sidan 28 hittar vi bilden:

Jag kontrollerade nu åter att de faktiskt sitter där jag hade för mig att jag satte dem, i A2 och B2. (@Ratatosk, det är faktiskt smidigt med RGB så att man inte behöver lysa med ficklampa varje gång!)

@Yoshman, jag misstänker att jag placerat stickorna som du rekommenderar, men är osäker.

Finns det en annan, bättre placering menar du?

EDIT: Här är en ny körning, nu med Geekbench 4.2 där jag jämför mot min tidigare körning på 4.1:

https://browser.geekbench.com/v4/cpu/compare/5150464?baseline...

Ja, det blev något sämre resultat överlag... Den andra skillnaden är att latensen har sjunkit (alltså blivit bättre!) från 154.3 ns till 92.2 ns. Märkligt.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Hjälpsam
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Jag hade lite tid över och gjorde ett script för Conky som visar alla 32 hårdvarutrådar, med fyra uppdateringar per sekund.

Gult är låg aktivitet per cpu och röda höga staplar är högre aktivitet. Jag var tvungen att sätta igång Blender att rendera några sekunder för att det skall synas något. Använde här en av de default-bakgrunder mitt os har; annars kan man få mer spännande inspiration på deviantart för Conky.

Här är scriptet för den som vill ändra själv.

# Avoid flicker double_buffer true # Window own_window true own_window_type normal own_window_hints undecorated, below, sticky, skip_taskbar, skip_pager own_window_transparent true own_window_argb_visual true own_window_argb_value 0 # Borders draw_borders no # Shades draw_shades no # Position gap_x 0 gap_y 50 alignment top_left # Behaviour update_interval 0.25 # Font use_xft yes xftfont Noto Sans:size=8 xftalpha 0.5 # Text alpha when using Xft # Colours own_window_colour 000000 # Prevent window from moving use_spacer none # Minimum size of window minimum_size 600 560 # Maximum width of window maximum_width 600 TEXT ${color #ddaa00}CPU total ${color } ${cpugraph cpu0, 30, 500 ffff00 ff0000 -t -l} ${color #9fb6cd}01: ${color } ${cpugraph cpu1, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}02: ${color } ${cpugraph cpu2, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}03: ${color } ${cpugraph cpu3, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}04: ${color } ${cpugraph cpu4, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}05: ${color } ${cpugraph cpu5, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}06: ${color } ${cpugraph cpu6, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}07: ${color } ${cpugraph cpu7, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}08: ${color } ${cpugraph cpu8, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}09: ${color } ${cpugraph cpu9, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}10: ${color } ${cpugraph cpu10, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}11: ${color } ${cpugraph cpu11, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}12: ${color } ${cpugraph cpu12, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}13: ${color } ${cpugraph cpu13, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}14: ${color } ${cpugraph cpu14, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}15: ${color } ${cpugraph cpu15, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}16: ${color } ${cpugraph cpu16, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}17: ${color } ${cpugraph cpu17, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}18: ${color } ${cpugraph cpu18, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}19: ${color } ${cpugraph cpu19, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}20: ${color } ${cpugraph cpu20, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}21: ${color } ${cpugraph cpu21, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}22: ${color } ${cpugraph cpu22, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}23: ${color } ${cpugraph cpu23, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}24: ${color } ${cpugraph cpu24, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}25: ${color } ${cpugraph cpu25, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}26 ${color } ${cpugraph cpu26, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}27: ${color } ${cpugraph cpu27, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}28: ${color } ${cpugraph cpu28, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}29: ${color } ${cpugraph cpu29, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}30: ${color } ${cpugraph cpu30, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}31: ${color } ${cpugraph cpu31, 50, 125 ffff00 ff0000 -t} ${color #9fb6cd}32: ${color } ${cpugraph cpu32, 50, 125 ffff00 ff0000 -t}

Dold text
Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem

En förändring av min hårdvara, med något bättre resultat i Geekbench 4.2.0 med oklockade minnen och 1950X @ stock.

Här en en jämförelse av mina nya 4x8GB Corsair 3200MHz C16 med de gamla 2x16GB G.Skill 3600MHz C17:
https://browser.geekbench.com/v4/cpu/compare/5519896?baseline...

Här en jämförelse av mina nya minnen mot @engywook, där det nu bli snarlika resultat:
https://browser.geekbench.com/v4/cpu/compare/5519896?baseline...

Jo, det är en förbättring överlag i flertrådat, som blev lite billigare också; jag fick byta minnena utan diskussion i butiken och fick mellanskillnaden tillbaka. Jag hade även uppgraderat kärnan från 4.13 till 4.14, innan minnesbytet. Men jag såg ingen tydlig förbätting, därav att jag bytte minnena.

EDIT. @ratatosk, jo, RGB försvann, så nu är det mörkt igen. Fast de nya är ju rätt snygga i vitt.

http://www.corsair.com/en-us/vengeance-lpx-32gb-4x8gb-ddr4-dr...

Dold text
Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|