Intel kontrar Threadripper med 22 kärnor på Cascade Lake-X

Intel har helt klart halkat efter rejält. Deras kommande 10 core 10900K drar 300W under max load. Som jämförelse drar 32 core 3970X Threadripper max 290W. Visst, det ska man ge Intel, de har lyckats optimera 14nm extremt mkt, men de är rejält på efterkälken just nu. Det kommer inte hända närmsta året, åren att de hinner ifatt, lite synd. Vi vill inte ha för stor dominans av AMD framöver för konkurensens skull och därmed priserna på processorer. Nu kommer givetvis die hard Intelfans hävda att Intel är bättre i spel.... Men är de? Spelen flyttar ut mot att utnyttja fler kärnor eftersom Mhz racet är i prinicp över. Nu är det kärnornas krig som börjat och där har AMD solklar ledning.
Nåja. Får hoppas Intel lyckas komma upp i paritet snart inom de närmsta åren.

Skrivet av CubaCola:

Jag trodde den här Intel-processorn skulle försöka ta mark ifrån Threadripper med 24kärnor?

Verkar dumt om Intel ska strida mot en processor för 50000kr när denna 22-kärniga processor troligen kommer att kosta runt 14000kr.

Skrivet av Nivity:

Logiken är att de inte tänkt tävla med deras 64-core cpu som kostar typ 3+ gånger så mycket?

OK, så de har typ, gett upp? Occh nöjer sig med att tävla i mellansegmentet för de ändå kommer få däng av den 24-kärniga i många av de för segmentet relevanta arbetslasterna. Det var ju... Intressant.

Så tanken är alltså att folk som tittar på HEDT och "nöjer sig" men något som ligger i prisklassen för den 24-kärniga Threadrippern skall ha den här i åtanke vid köp. Jaja... Det lär gå sådär. 10980XE har redan fått ris på många punkter som 3990XE bara skulle göra värre så är fortfarande inte helt med på logiken.

Man får komma ihåg att folk som köper de här processorerna i många fall är människor som tjänar pengar med hjälp av sin dator, varför de då skulle välja 10980XE istället för Threadripper begriper jag inte då arbetslasterna allt som oftast är sådanna som skalar nära nog perfekt med fler kärnor. Det skulle i så fall vara om de lägger sig lägre i pris och bjuder på elräkningen

Skrivet av Chromatic:

Pfft det måste väl räcka med 22 för dom som sysslar med lite extremare saker också va, 64 känns ju extremt

Videoredigering, kompilering, big data... Det finns massvis med användningsområden där 22 kärnor är en nackdel jämfört mot 64.
Hade plånboken inte varit tunn redan så hade en 3990X suttit fint i servern hemma hos mig.

Skrivet av Olle P:

Jag är rätt säker på att Cinebench självt väljer vilka andra alternativ som ligger (relativt) nära i resultat. (Går det att välja själv?)

Med tanke på att TR 3960 kostar ~17 kkr misstänker jag att Intel i sedvanlig ordning prissätter denna något högre.

Kollar du på 10980XE går för 11500 så..

Skrivet av DavidtheDoom:

Testet lär inte vara utfört av Intel själva så dumt att försöka hitta någon agenda i det hela.
Troligen är det så att 1950X är vad de som testar har tillgängligt eller är relevant att visa.

Eller kanske det är så att de är en av dem Intel betalar för att ge fördelaktiga resultat för deras produkter?. Finnas flera "köpta" sajter därute (Intel och Nvidia är båda väldigt bra på sånt).

Skrivet av Chromatic:

Pfft det måste väl räcka med 22 för dom som sysslar med lite extremare saker också va, 64 känns ju extremt

Asså thredripper 3990x är till för typ workstations. Dvs inget man direkt köper om man spelar och vid sidan av på fritiden håller på med 3d modellering eller YT. Utan det är en cpu som är till för renodlade arbetsmaskiner.

Skickades från m.sweclockers.com

Skrivet av Ozzed:

OK, så de har typ, gett upp? Occh nöjer sig med att tävla i mellansegmentet för de ändå kommer få däng av den 24-kärniga i många av de för segmentet relevanta arbetslasterna. Det var ju... Intressant.

Ungefär som AMD gjort med Nvidia, de har gett upp att tävla i högre segment för de får stryk när de försöker

Kanske Intel (som var först ut med begreppet "HEDT") försöker ändra definition av HEDT från "High End DeskTop" till "Hot Electrical Drain Technology"?

Skrivet av Nivity:

Ungefär som AMD gjort med Nvidia, de har gett upp att tävla i högre segment för de får stryk när de försöker

Trams. Dr. Lisa Su har ju sagt att Big Navi kommer. Jag har inte hör Bob Swahn yppa ett ord om 64-kärniga Xeons.

Skrivet av Ozzed:

Trams. Dr. Lisa Su har ju sagt att Big Navi kommer. Jag har inte hör Bob Swahn yppa ett ord om 64-kärniga Xeons.

Nope dom kör max 56 cores.

28 på Single CPU med dual socket.

Skrivet av Ozzed:

Trams. Dr. Lisa Su har ju sagt att Big Navi kommer. Jag har inte hör Bob Swahn yppa ett ord om 64-kärniga Xeons.

Ja snacka är enkelt, vi har ju sett hur det gått för AMD senaste åren med deras fiasko GPUer

Jag hoppas de kan lansera ett kort äntligen som kan tävla med Nvidia då det kanske kan pressa priserna.

Skrivet av EvonS:

... Visst, det ska man ge Intel, de har lyckats optimera 14nm extremt mkt, men de är rejält på efterkälken just nu. ...

Har någon försökt köra en 9900KS så energieffektivt som möjligt, med sänkt frekvens och matningsspänning?
Hur effektiv kan den bli? (Känns relevant att jämföra mot Vega-korten som var/är inställda att köras galet hårt från fabrik för att maximera prestandan men blir mycket bättre när de optimeras för effektivitet.)

Inte för att jag fattar vad han menar men någon skrev på ett annat forum att:
(Ja, Computer Base säger att det är sant men det var ändå intressant)

Citat:

Completely fake.

The structure of the chip that fits in LGA2066 is 24 blocks, in a 6x4 mesh, from which 6 are I/O nodes and the rest are cores. It's impossible to have more than 18 cores on HCC structure.

The XCC has 6x6 mesh (36), which is why that one tops at 28 cores (+8 I/O nodes) and impossible to have more with their current designs. The XCC silicon however is much bigger and requires LGA-3647, which is a 6-channel memory socket.

https://en.wikichip.org/wiki/intel/microarchitectures/skylake...
Read here and stop believing in made up "leaks".

In order to have more cores on any of these sockets, Intel needs a complete redesign of the CPU, which at this point it doesn't yet exist (maybe only on their design papers or in the lab)

p.s. Extremely poor photoshop job, you can literally see the cut and edit areas if you zoom up the pictures.

Skrivet av Olle P:

Har någon försökt köra en 9900KS så energieffektivt som möjligt, med sänkt frekvens och matningsspänning?
Hur effektiv kan den bli? (Känns relevant att jämföra mot Vega-korten som var/är inställda att köras galet hårt från fabrik för att maximera prestandan men blir mycket bättre när de optimeras för effektivitet.)

Så kör jag på min golden chip 9900k i 4.8GHz med låg spänning.

När jag bara surfar och ej lirar

Senast redigerat 2020-01-14 12:12

380 watt !!?

Hur mycket klarar moderkorten?

Skrivet av Rapidact:

380 watt !!?

Hur mycket klarar moderkorten?

Typ enorma mängder mer cpurna kan dra mot 900W + på ln2 liksom

Skickades från m.sweclockers.com

Visar väl sig att det är oc med torr is eller något och man kört alla kärnor på 5ghz, för att uppnå det resultatet, men det visar ju sig när den släpps , tror inte på 14000 , då skulle den ge 40% mer än min gamla 7980xe med bara fyra kärnor till och min var oc till 4,7ghz ock kom precis över 10k , så detta är nog något som är pressat till max

Skrivet av Nivity:

Ja snacka är enkelt, vi har ju sett hur det gått för AMD senaste åren med deras fiasko GPUer

Jag hoppas de kan lansera ett kort äntligen som kan tävla med Nvidia då det kanske kan pressa priserna.

Grejen är ju att det var ett bra tag när de inte snackade ens, utan resonerade så att de stora pengarna finns i mellansegmentet, men nu har de sakta börjat inse att även om bara 5% av köparna faktiskt köper eller överväger att köpa den, så behöver man en halo-produkt som resulterar i en "trickle down" effekt, så därför tror jag absolut att de kommer försöka tävla i toppen. Om de lyckas eller inte är en annan sak.

Skrivet av Ozzed:

Åh nej! AMD har 64 kärnor. Jag vet. Vi kontrar med.... 22? Var är logiken? Hur tänker de?

Skickades från m.sweclockers.com

@Ozzed

De kontrar Amds 22 kärniga står det om du missade detta?

Återigen är det så tråkigt att se alla negativa inlägg så fort någon tillverkare släpper något.
Är det avundsjuka på det andra laget så man måste skriva något negativt?

Skrivet av Nivity:

Ja snacka är enkelt, vi har ju sett hur det gått för AMD senaste åren med deras fiasko GPUer

Ja, det liknar fiaskot som AMD haft på CPU-sidan innan och se hur det gick där. Zen är en välfungerande arkitektur, precis som Skylake varit. Comebacks finns. Tror dock inte på "big Navi".

Håll i hatten, det kanske blåser upp till storm!

Skrivet av Ister:

@Ozzed

De kontrar Amds 22 kärniga står det om du missade detta?

Återigen är det så tråkigt att se alla negativa inlägg så fort någon tillverkare släpper något.
Är det avundsjuka på det andra laget så man måste skriva något negativt?

*24-kärniga, som sagt så missade jag detta och har svarat på kommentarer. Varför tror du jag har en uppmaning att läsa de senaste inläggen i min signatur? Det är så tråkigt att se att folk kommenterar första inlägget i en tråd och låtsas som om en diskussion inte kan utvecklas. Totalt poänglöst och verkligen ett slöseri med andras tid. Återstår väl dock att de om deras 22-kärniga kan mäta sig med 24 kärnor på relevanta arbetslaster för plattformen. Den är säkert bra på gaming, men det är ju inte därför som folk köper HEDT

Hur snabbt kommer man kunna surfa med den här? Det tycker jag känns mest intressant! Hur många webbläsare kommer man kunna ha uppe om man vill multitaska t.ex?

Skrivet av ClintBeastwood:

Hur snabbt kommer man kunna surfa med den här? Det tycker jag känns mest intressant! Hur många webbläsare kommer man kunna ha uppe om man vill multitaska t.ex?

2 chrome sen blir det för mycket!

Känns ju lite , "jaha?" , liksom.

Skrivet av Philip320:

Detta är ju i princip meningslöst, ingen kommer ju köpa detta förutom de som är i behov av intels specifika funktioner (som jag nu inte vet vilka det skulle vara)

Intel måste ha konkurrenskraftiga priser om detta ska kunna mäta sig överhuvudtaget. Och 10980XE var inte med ett konkurrenskraftigt pris, den processorn var ju värre än 3950X som inte ens borde jämföras med HEDT processorer

Du rekommenderar ju 16 kärnor till en "stremer", inte direkt så det är något jättehopp här emellan.

Skickades från m.sweclockers.com

Skrivet av Ozzed:

Man får komma ihåg att folk som köper de här processorerna i många fall är människor som tjänar pengar med hjälp av sin dator,

Så här långt håller jag med till 100 %, HEDT är, och har alltid varit, rätt meningslös för svensson.

Skrivet av Ozzed:

varför de då skulle välja 10980XE istället för Threadripper begriper jag inte då arbetslasterna allt som oftast är sådanna som skalar nära nog perfekt med fler kärnor. Det skulle i så fall vara om de lägger sig lägre i pris och bjuder på elräkningen

Skrivit det tidigare, ser bara en enda poäng med att skaffa Intels HEDT serie: köra saker som effektivt accelereras via AVX512 samtidigt som det inte finns bättre alternativ i form av GPGPU (som när det finns typiskt presterar klart bättre och med bättre perf/W).

Så listan blir rätt kort, program som tuggar matriser och måste köra 64-bitars flyttal (vid 32-bitar är redan konsument GPUer överlägsna och håller man sig till Nvidia finns i princip alltid bibliotek att plugga in för att få GPGPU-stöd, t.ex. i Matlab och dess öppna motsvarighet Octave).

Specifikt för Casade Lake-X är sedan maskininlärning i form av inferens (GPUer är helt överlägsna till att träna nätverk, men CPUer är typiskt mer effektiva när man ska använda tränadenätverk, Cascade Lake har HW-accelereation för det senare). Under CES demonstrerades AI i bl.a. Photoshop på ett sätt som faktiskt verkar spara massor med tid i ett vanligt och tidskrävande moment (vi pratar om proffs så tid == pengar).

Inte mycket och finns säkert något jag missat. Är i alla fall mer än noll fall...

Den delen jag inte alls håller med om är detta: "arbetslasterna allt som oftast är sådana som skalar nära nog perfekt med fler kärnor".
Råder inget tvivel om att nya ThreadRipper är helcool teknik, men backar man ett enda steg från vad AMD demonstrerade på CES inser man: inte ens i en demo lyckades de hitta på en vettig demonstration (rendering av en allt annat än komplex scen säger: vi har en lösning på ett problem vi inte lurat ut än...).

Finns två huvudklasser av parallellism, uppgiftsparallellism och dataparallellism. Det enda som i praktiken brukar skala väldigt nära 100 % upp till nästan obegränsade antal kärnor är dataparallellism, problemet är att CPUer är med ytterst få undantag chanslösa mot GPUer, FPGAer och liknande där (high-end GPUer har ju tusentals "kärnor").

Uppgiftsparallellism ställer i princip alltid till det för GPUer, så där finns absolut en säkrad framtid för CPUer. Saker som hittas här är kompilering, relationsdatabaser, egentligen alla former av client/server system där man har väldigt många samtida klienter, vissa moment i videoredigering verkar höra hit, etc.

Varför demonterades inte AMD någon av dessa utan man valde ett helt dataparallellt problem (som en modern GPU fixar snabbare)? Därför att fallen ovan skalar inte linjärt med CPU-kärnor om man håller sig till system som inte kräver massiv mängd RAM (moderna servers kan ta TB med RAM och RAM-kapacitet är ändå en av huvudflaskhalsarna idag, AMD/Intel HEDT maxar på 256 GB RAM!). Att det går att öka skalningen med kärnor genom att ge sig på större problem är välkänt, det är känt som Gustafson's lag (problemet man redan nu har i datacenter är ju att systemen inte kan ta tillräckligt med RAM).

Så fort man inte har nog med RAM för allt hålla precis allt där blir problemet I/O-begränsat och skalar knappt alls med CPU-kärnor

Videoredigering har nämnts. Kan inte speciellt mycket om det, men kan läsa innantill i de tester som t.ex. Puget Systems gör. Ser väldigt mycket ut som den här typen av program skalar rätt väl till 12-16 kärnor, men sen planar det ut väldigt mycket (viss skalning finns förbi även 16 kärnor, men är allt annat än linjärt). 3950X ligger inte speciellt långt efter 3970X i deras tester.

Så stora frågan är faktiskt: vilka program/användarscenarion finns egentligen, när man plockat bort det som redan idag utförs mer effektivt med GPGPU, som skalar nära nog linjärt med CPU-kärnor?

Skulle hävda att AMD gjort något revolutionerande, men inte med TR utan med 3900X/3950X. HEDT var en nisch redan tidigare, med CPUer som 3950X har HEDT blivit inknuffat i en extremt smal nisch, framförallt givet att GPGPU (till slut) faktiskt börjar slå igenom på allt fler områden.

Skrivet av Ryzer:

Du rekommenderar ju 16 kärnor till en "stremer", inte direkt så det är något jättehopp här emellan.

Skickades från m.sweclockers.com

Jag rekommenderar inte det snarare jag hindrar inte honom från att köpa den /svartmålar honom för att köper den till skillnad från dig o vissa andra här på forumet.
Inte för att det har nåt med detta att göra/ håll dig inom ämnet
Nej, det är inte jätte stor skillnad men skillnaden är att det här kostar dubbelt så mycket och det var det jag menade

Senast redigerat 2020-01-14 14:15
Skrivet av Yoshman:

Så här långt håller jag med till 100 %, HEDT är, och har alltid varit, rätt meningslös för svensson.

Skrivit det tidigare, ser bara en enda poäng med att skaffa Intels HEDT serie: köra saker som effektivt accelereras via AVX512 samtidigt som det inte finns bättre alternativ i form av GPGPU (som när det finns typiskt presterar klart bättre och med bättre perf/W).

Så listan blir rätt kort, program som tuggar matriser och måste köra 64-bitars flyttal (vid 32-bitar är redan konsument GPUer överlägsna och håller man sig till Nvidia finns i princip alltid bibliotek att plugga in för att få GPGPU-stöd, t.ex. i Matlab och dess öppna motsvarighet Octave).

Specifikt för Casade Lake-X är sedan maskininlärning i form av inferens (GPUer är helt överlägsna till att träna nätverk, men CPUer är typiskt mer effektiva när man ska använda tränadenätverk, Cascade Lake har HW-accelereation för det senare). Under CES demonstrerades AI i bl.a. Photoshop på ett sätt som faktiskt verkar spara massor med tid i ett vanligt och tidskrävande moment (vi pratar om proffs så tid == pengar).

Inte mycket och finns säkert något jag missat. Är i alla fall mer än noll fall...

Den delen jag inte alls håller med om är detta: "arbetslasterna allt som oftast är sådana som skalar nära nog perfekt med fler kärnor".
Råder inget tvivel om att nya ThreadRipper är helcool teknik, men backar man ett enda steg från vad AMD demonstrerade på CES inser man: inte ens i en demo lyckades de hitta på en vettig demonstration (rendering av en allt annat än komplex scen säger: vi har en lösning på ett problem vi inte lurat ut än...).

Finns två huvudklasser av parallellism, uppgiftsparallellism och dataparallellism. Det enda som i praktiken brukar skala väldigt nära 100 % upp till nästan obegränsade antal kärnor är dataparallellism, problemet är att CPUer är med ytterst få undantag chanslösa mot GPUer, FPGAer och liknande där (high-end GPUer har ju tusentals "kärnor").

Uppgiftsparallellism ställer i princip alltid till det för GPUer, så där finns absolut en säkrad framtid för CPUer. Saker som hittas här är kompilering, relationsdatabaser, egentligen alla former av client/server system där man har väldigt många samtida klienter, vissa moment i videoredigering verkar höra hit, etc.

Varför demonterades inte AMD någon av dessa utan man valde ett helt dataparallellt problem (som en modern GPU fixar snabbare)? Därför att fallen ovan skalar inte linjärt med CPU-kärnor om man håller sig till system som inte kräver massiv mängd RAM (moderna servers kan ta TB med RAM och RAM-kapacitet är ändå en av huvudflaskhalsarna idag, AMD/Intel HEDT maxar på 256 GB RAM!). Att det går att öka skalningen med kärnor genom att ge sig på större problem är välkänt, det är känt som Gustafson's lag (problemet man redan nu har i datacenter är ju att systemen inte kan ta tillräckligt med RAM).

Så fort man inte har nog med RAM för allt hålla precis allt där blir problemet I/O-begränsat och skalar knappt alls med CPU-kärnor

Videoredigering har nämnts. Kan inte speciellt mycket om det, men kan läsa innantill i de tester som t.ex. Puget Systems gör. Ser väldigt mycket ut som den här typen av program skalar rätt väl till 12-16 kärnor, men sen planar det ut väldigt mycket (viss skalning finns förbi även 16 kärnor, men är allt annat än linjärt). 3950X ligger inte speciellt långt efter 3970X i deras tester.

Så stora frågan är faktiskt: vilka program/användarscenarion finns egentligen, när man plockat bort det som redan idag utförs mer effektivt med GPGPU, som skalar nära nog linjärt med CPU-kärnor?

Skulle hävda att AMD gjort något revolutionerande, men inte med TR utan med 3900X/3950X. HEDT var en nisch redan tidigare, med CPUer som 3950X har HEDT blivit inknuffat i en extremt smal nisch, framförallt givet att GPGPU (till slut) faktiskt börjar slå igenom på allt fler områden.

De fall du nämner tar bara upp enstaka uppgifter som skall lösas med "så många kärnor som möjligt", och där finns förståss en gräns för problem som inte skalar perfekt med antalet kärnor, men man får väl hoppas att folk som köper t. ex 64-kärniga Threadripper i så fall ser till att jobba med flera saker samtidigt, annars blir det ju slöseri med kärnor för det mesta. Missade detta med maskininlärning och vad det verkar så är ju Intel klart vassare där så det kan nog bli en del köpare där. 10990XE tar ju faktiskt något nytt till bordet och är inte bara en bättre binnad 9980XE som 10980XE i praktiken är, så helt meningslöst är det ju då inte.

GPGPU är kanske för minnesbegränsat?

Men sen finns det kanske fall där flera oberoende processer kan köras samtidigt, som på en mer fåkärnad processor skulle behöva köras efter varandra och ta längre totaltid?

Skickades från m.sweclockers.com

Snart drar en enskild processor mer än två Vega 64 tillsammans.