Prestandasiffror för AMD Epyc "Rome" med 32 kärnor hittar ut på webben

Prestandasiffror för AMD Epyc "Rome" med 32 kärnor hittar ut på webben

Inom kort lanserar AMD sin nya serverfamilj "Rome" i serien Epyc med upp till 64 kärnor. Nu hittar prestandasiffror ut för 32-kärniga Epyc 7452, som visar på ett rejält kliv upp mot föregångaren.

Läs hela artikeln här

Bra! Ett konkurrenskraftigt AMD är livsviktigt för marknaden så att Intel och Nvidia får en blåslampa i baken.

Hög prestanda med bästa strömeffektivitet för pengar som ligger lååångt under Intel. Detta är receptet som driver utvecklingen i HPC branschen. Intel kommer svettas ordentligt.

Senast redigerat 2019-06-19 13:37

"Intels före detta VD Brian Krzanich uttalade sig under 2018 om att företaget väntade sig att förlora marknadsandelar på servermarknaden till AMD, och att han inte såg någon gräns för AMD:s tillväxtpotential inom servrar. I samma andetag lyfte han även målet med att inte låta AMD fånga en marknadsandel på 15–20 procent, då detta skulle göra företaget till en rejäl konkurrent på området."

Är det inte precis det alla kunder, inte minst Intels vill ?

Skrivet av FYNXER:

Bäst prestanda med bästa strömeffektivitet för pengar som ligger långt under Intel. Detta är receptet som driver utvecklingen i HPC branschen. Intel kommer svettas ordentligt.

Ja, får hoppas att AMD tjänar lite slantar på detta också så de inte försöker göra marginell vinst för att knipa marknadsandelar och lagom till att de börjar närma sig 15-20% så kontrar Intel med något som sätter AMD på pottan igen. Spontant känns det dock som vi inte kommer att uppleva samma gap igen mellan de båda, åtminstone inte prestandamässigt.

Det står att de använt 2 x 7452 vs 1 x 7551. Och poängen är inte mer en dubbelt så bra. Varför är 7452 bättre då? Eller är siffrorna per 7452?

Skrivet av kelthar:

Det står att de använt 2 x 7452 vs 1 x 7551. Och poängen är inte mer en dubbelt så bra. Varför är 7452 bättre då? Eller är siffrorna per 7452?

Om du kollar rubriken på bildernas grafer så ser du att de använt dual på alla tre modeller. Texten är rörig

Skickades från m.sweclockers.com

Skrivet av ddelin:

"Intels före detta VD Brian Krzanich uttalade sig under 2018 om att företaget väntade sig att förlora marknadsandelar på servermarknaden till AMD, och att han inte såg någon gräns för AMD:s tillväxtpotential inom servrar. I samma andetag lyfte han även målet med att inte låta AMD fånga en marknadsandel på 15–20 procent, då detta skulle göra företaget till en rejäl konkurrent på området."

Är det inte precis det alla kunder, inte minst Intels vill ?

Menar väl det, Brian alltså, snacka om hustomte.
Nåväl, han fick foten i ändalykt och AMD plockar hem procent på servermarknaden, förbannat gött faktiskt. 😊

/Lifooz

Finns det någon som testar dessa monster-CPUer med VMware eller liknande?
Det är ju knappast så att man kommer lägga alla 32 kärnor i ett program.
Snarare då att man sätter upp ett antal VMar som får jobba paralellt.
Sådana tester skulle vara riktigt intressanta att se.
Zen gen1 kritiserades för att vara lite långsamt i sitt Infinity fabric, något som enkelt borde komma i dager om man kör säg 3st 6-kärniga-, 3st 4-kärniga och en 2-kärnig VM med sju olika last-testande program.

Skrivet av ThomasLidstrom:

Finns det någon som testar dessa monster-CPUer med VMware eller liknande?
Det är ju knappast så att man kommer lägga alla 32 kärnor i ett program.
Snarare då att man sätter upp ett antal VMar som får jobba paralellt.
Sådana tester skulle vara riktigt intressanta att se.
Zen gen1 kritiserades för att vara lite långsamt i sitt Infinity fabric, något som enkelt borde komma i dager om man kör säg 3st 6-kärniga-, 3st 4-kärniga och en 2-kärnig VM med sju olika last-testande program.

Därför vi inte kör det.
Där är Intel atm 100 % stable och garanterad funktion.
Det är inte hårdvaran som är det dyra, VM licenser kostar 10x mer än all hårdvara om inte mer.

Skrivet av tvelander:

Därför vi inte kör det.
Där är Intel atm 100 % stable och garanterad funktion.
Det är inte hårdvaran som är det dyra, VM licenser kostar 10x mer än all hårdvara om inte mer.

Förutom att efter man har lagt på 25 olika säkerhetsfixar och stängt av HT, så behöver man köpa både mer hårdvara och mer licenser för att få samma prestanda som innan. Blev en del nya Oracle licenser för vår del p.g.a. detta, var inte billigt.
Nästa gång vi refreshar hårdvara är det Epyc som gäller.

Skrivet av tvelander:

Därför vi inte kör det.
Där är Intel atm 100 % stable och garanterad funktion.
Det är inte hårdvaran som är det dyra, VM licenser kostar 10x mer än all hårdvara om inte mer.

Vette fan om jag håller med, intel har ju säkerhetshål som inte går att patcha med mjukvara, och i server världen är det katastrof då många servers är "shared hosting". När en bov väl är inne i en intel maskin så har de potentiellt access till alla data som passerar cpu'n, tänk på det nästa gång ni köper tjänster i molnet där 90% snurrar på intel servrar Bara en tidsfråga innan något stort händer.

Texten är mycket rörig. Plötsligt nämner man "de två Intel processorerna"... vilka två?

Nu läste jag i kommentarerna att alla CPUerna var två st, men artikelns text bör förbättras något...

edit:
Förstår heller inte meningen "Den Rome-baserade AMD Epyc 7452 uppnår bäst resultat i fyra av sju tester, där resultaten är relativt jämna Intel Xeon-processorn presterar som bäst."

Som det ser ut så är det en översatt text från wcctech. Ser onekligen lika ut

Skickades från m.sweclockers.com

Skrivet av dakke:

Vette fan om jag håller med, intel har ju säkerhetshål som inte går att patcha med mjukvara, och i server världen är det katastrof då många servers är "shared hosting". När en bov väl är inne i en intel maskin så har de potentiellt access till alla data som passerar cpu'n, tänk på det nästa gång ni köper tjänster i molnet där 90% snurrar på intel servrar Bara en tidsfråga innan något stort händer.

Vi kör 0 kritisk data utanför våra väggar aldrig gjort.
Och alla konsulter och seriösa bolag har koll på sånt här.

Och Microsoft har också koll på det där.
Och vi kör inte Shared hosting.

Skrivet av ddelin:

Förutom att efter man har lagt på 25 olika säkerhetsfixar och stängt av HT, så behöver man köpa både mer hårdvara och mer licenser för att få samma prestanda som innan. Blev en del nya Oracle licenser för vår del p.g.a. detta, var inte billigt.
Nästa gång vi refreshar hårdvara är det Epyc som gäller.

Självklart ska man utvärdera alternativ, vore tjänstefel att skippa det.

Men just databaser känns väl ändå ert beslut betydligt mer känslomässigt än rationellt givet att Oracle tar betalt (betalar man fortfarande det företaget i vanliga pengar, eller är det kroppsdelar som gäller nu?) per CPU-kärna * en CPU-modell specifik faktor (länk) där Epyc och Xeon har samma faktor på 0,5 blir ju enda relevanta faktorn: vilken prestanda får jag vid X kärnor?

Givet detta känns inte Epyc helt kostnadseffektiv

i databasfallen är det 1,45-1,99 gånger bättre prestanda på Intel (det med patchar applicerade då siffrorna kommer från AWS).

Kör man sedan sin egen databasserver på en dedicerad maskin lägger man med fördel ett gäng timmar på en säkerhetsexpert som utvärderar systemet. Med väldigt stor sannolikhet har man då ett fall där alla eller i alla fall de flesta patchar kan undvikas då en förutsättning för att de ska kunna användas är att okända kan köra valfri programvara på maskinen (inte bara använda en tjänst som maskinen erbjuder via i detta fall ett databasgränssnitt). Säkerhetsexpertens arvode borde vara ett avrundningsfel för alla som anser sig har råd med att köra med Oracles produkter

Där jag jobbar letas det också alternativ till Xeon, är primärt byggservers och saker relaterat till programutveckling. Tyvärr pekar dessa siffror på att Epyc fortfarande inte är ett bättre val där, här hoppas vi på de ARM-servers som är på väg ut (allt vårt korskompileras ändå, så CPU-arkitektur på byggservers är irrelevant).

Skrivet av Yoshman:

Självklart ska man utvärdera alternativ, vore tjänstefel att skippa det.

Tog bara Oracle som ett exempel, kanske inte det bästa, vi har också en Vmware miljö med över 500 hostar för alla möjliga typer av laster, och det är inte billigt att kompensera för prestanda bortfallet där heller. Även om man kör saker in-house är det inte acceptabelt att VM:ar kan läcka information då det i värsta fall riskerar att ge obehöriga tillgång till exempelvis exportkontrollerad information, vilket är ett lagbrott. Det finns ju många anledningar till att man inte låter alla på ett företag få tillgång till all information.

Ser det bara som lite märkligt att folk som Tvelander försöker släta över alla problem Intel har haft med säkerheten, är ju rent pinsamt att man med den enorma utvecklings budgeten inte klarar av att göra ett bättre jobb på det området.

Skrivet av ddelin:

Tog bara Oracle som ett exempel, kanske inte det bästa, vi har också en Vmware miljö med över 500 hostar för alla möjliga typer av laster, och det är inte billigt att kompensera för prestanda bortfallet där heller. Även om man kör saker in-house är det inte acceptabelt att VM:ar kan läcka information då det i värsta fall riskerar att ge obehöriga tillgång till exempelvis exportkontrollerad information, vilket är ett lagbrott. Det finns ju många anledningar till att man inte låter alla på ett företag få tillgång till all information.

Ser det bara som lite märkligt att folk som Tvelander försöker släta över alla problem Intel har haft med säkerheten, är ju rent pinsamt att man med den enorma utvecklings budgeten inte klarar av att göra ett bättre jobb på det området.

Är övertygad om att Intel har det rätt hett om öronen från kunder just nu.

Men att man bara tappade från 99 % till 97 % av servermarknaden från Q1 2018 (när sårbarheterna blev allmän kända) till Q2 2019 (senaste gånget jag sett en mätning) kanske inte bara är en effekt av tröghet utan tyvärr också en direkt konsekvens av att Xeon fortfarande är det objektivt bästa valet i de flesta (men definitivt inte alla längre!) användarfall.

Fattar t.ex. inte varför webbplatser som ServeTheHome envisas med att testa totalt meningslösa saker som CRay, Dhrystone och Whetstone på en serverplattform, han som äger siten verkar ju trots allt rätt kunnig men ändå lyser de tester man faktiskt vill se med totalt frånvaro (databaser, I/O nätverkstester, virtuella maskiner, Docker containers etc).

Phoronix ger inget sken av att vara experter på servers, ändå lyckas de ändå bättre med sina tester men även där saknas egentligen alla former av I/O-tunga laster.

Nu vet jag inte vad ni gör med era VM:ar. Men endera är det saker som primärt behöver CPU-kraft. Där brukar Epyc stå sig väl, framförallt om det är enkelt att köra på många CPU-kärnor och bandbredd mot RAM är flaskhals. Just det fallet påverkar normal minimalt av Spectre/Meltdown fixarna, så är ju bara att se till att ha systemet uppdaterat.

Om era VM:ar däremot genererar väldigt mycket I/O blir det svårare. Är dessa fall säkerhetspatchar ger den största prestandapåverkan, men detta är också ett område där Intel har haft (skriver har haft, vi vet inte var Zen2 står här än) ett rejält övertag.

Här är några egna prestandamätningar där containers används, serverprogramvaran befinner sig i en container och de simulerade klienterna är i andra containers. Notera att det är Intel laptop CPUer mot en desktop Zen+! Det som mäts är antal anrop mot en enkel micro-service över HTTP, så i princip mäts TCP/IP + kernel overhead + overhead från ramverket som används.

## Go server / wrk i7-8559U : 258k req/s i7-6770HQ: 255k req/s R7-2700X : 123k req/s ## NodeJS / wrk i7-8559U : 65k req/s i7-6770HQ: 49k req/s R7-2700X : 65k req/s ## DotNet Core / wrk i7-8559U : 219k req/s i7-6770HQ: 206k req/s R7-2700X : 160k req/s

Givet Intels marknadsandelar för servers kan det rätt mycket bara gå i en riktning. Men tyvärr verkar datorsystemen divergera allt mer i vad som är deras svagheter/styrkor, så kommer nog inte finnas något i närtid som är bäst på allt.

Det positiva med en sådan utveckling är att det kanske öppnar möjligheter för fler spelare!

Skrivet av Yoshman:

Är övertygad om att Intel har det rätt hett om öronen från kunder just nu.

Men att man bara tappade från 99 % till 97 % av servermarknaden från Q1 2018 (när sårbarheterna blev allmän kända) till Q2 2019 (senaste gånget jag sett en mätning) kanske inte bara är en effekt av tröghet utan tyvärr också en direkt konsekvens av att Xeon fortfarande är det objektivt bästa valet i de flesta (men definitivt inte alla längre!) användarfall.

Kan nog vara så, vi köpte nya Intel maskiner för att kompensera då det ju som bekant är lite meckigt att blanda processorer när man kör virtuella maskiner. Blir omtag när vi skall ersätta hela kluster. Är lite surt att dom får in mer pengar p.g.a. bristande kvalitet på sina grejor dock.
Tror det finns en hel del ställen där Epyc kan prestera tillräckligt bra, syns ju inte minst dom affärer man gjort med AWS och Azure, där kan jag tänka mig att energieffektivitet och mängd kärnor har högre prio än högsta prestanda/kärna. Jag tror nog man når 10% marknads andel snart, och det ger rejält klirr i kassan, och förhoppningsvis i utvecklings budgeten.
Vi kör som exempel mycket Dell, och dom har ju i princip bara haft en AMD server och inga blad, men det verkar ju vara på väg att ändras, och då får vi större möjligheter att byta. Så visst finns det en tröghet.

Citat:

Den Rome-baserade AMD Epyc 7452 uppnår bäst resultat i fyra av sju tester

Är jag blind eller är detta fel? Jag får det till att Rome-processorn är snabbast i 5 av 7 tester?

Hejsan tvelander och SweC,

Skrivet av tvelander:

Därför vi inte kör det.
Där är Intel atm 100 % stable och garanterad funktion.
Det är inte hårdvaran som är det dyra, VM licenser kostar 10x mer än all hårdvara om inte mer.

Det finns en gratisvariant av Vmware, som begränsar konfigurationsmöjligheter.
https://www.snel.com/support/vmware-vsphere-6x-free-and-paid-...
"What are the VMware Hypervisor (Free) limitations?
The main difference between the free version and paid version of VMware server are the below restrictions:

You are not able to manage via vCenter Server
Only 1 physical server is allowed (cluster with more physical servers not allowed)
Only 2 physical CPU per Hypervisor is allowed
Only 128 vCPU per Hypervisor is allowed
Maximum amount of vCPUs you can assign to a VM is limited to 8
Physical RAM limit of 12TB per Hypervisor is allowed
You need to acquire VM support
"

Jag tror säkert att Vmware går med på att SweClockers använder deras mjukvara i prestandatester.

Kostnaderna för att sätta upp en testmiljö kan nog däremot vara avskräckande, även om Vmware-mjukvaran är helt gratis...