Intels VD: "Dags att sluta fokusera på benchmark-resultat"

Börjar bli härligt trött på det ständiga bumpandet av gamla nyheter på förstasidan.

Folk är för fokuserade på mätresultat än sitt eget ändamål för produkten. Det är ju trots allt alla delar i datorn som ger det slutgiltiga resultatet, inte enskillda komponenter.

Håller med honom delvis även om det mest känns som en ursäkt för deras testresultat.
Men tittar jag på ett test av en processor så är 99% av testerna man gör helt orelevanta för mig.
Jag zippar aldrig filer så att jag störs av tiden det tar. Jag använder rtx acceleration i blender som är snabbare än processorn, jag streamar med gpu. När jag kompilerar så är det hobbyprojekt som går fort ändå.
3d marks test har väl aldrig återspeglat verkligheten heller. Det vill säga höga scores där betyder inte höga scores i spel.

Kvar blir spelbenchmarks som är intressanta.

Här tjatas det ofta om ryzens kärnor men AMD har ju själva med 3300x visat att antalet kärnor är ganska orelevant än så länge i spel.

Skrivet av CubaCola:

Håller med honom delvis även om det mest känns som en ursäkt för deras testresultat.
Men tittar jag på ett test av en processor så är 99% av testerna man gör helt orelevanta för mig.
Jag zippar aldrig filer så att jag störs av tiden det tar. Jag använder rtx acceleration i blender som är snabbare än processorn, jag streamar med gpu. När jag kompilerar så är det hobbyprojekt som går fort ändå.
3d marks test har väl aldrig återspeglat verkligheten heller. Det vill säga höga scores där betyder inte höga scores i spel.

Kvar blir spelbenchmarks som är intressanta.

Här tjatas det ofta om ryzens kärnor men AMD har ju själva med 3300x visat att antalet kärnor är ganska orelevant än så länge i spel.

fast vad händer när Intel förlora även det? Då kommer dem säga att spel är ju inte så relevant heller. vad blir kvar sen?

@Bernd_P1:
AMD entusiaster säger redan i dagsläget att man ska ignorera benchmarks från spel. Trots att det är 20-30 FPS skillnad redan i 1080P och i vissa fall 1440P med höga grafikinställningar. Och att "FPS spelar ingen roll".

Tycker frågan handlar mer om vad kommer Intel skifta fokus till? Handlar det enbart om marknadsföring eller tänker de försöka skifta utvecklingen åt något håll i ett försök att ta tillbaka kontrollen över marknaden?

Bob's uttalande fick mig att längta ännu mer efter nästa generations Ryzen. Tack Bob!

Tycker att sweclockers ska sluta fokusera på att refresha nyheter, sämsta som de kommit på

Man får väl inte bumpa på Sweclockers? Trodde det gällde alla.

Men grejen är att det inte är så mycket syntetiska benchmark? 7zip, cinebech, handbrake, blender, Veracrypt speglar ju verkliga scenarior. Det enda som inte speglar verkligheten är väl att när man gör testen så låter man datorn bara göra just den saken medan verkligheten är att man multitaskar. Förr i tiden fick man låta datorn vara i fred när den gjorde något tungt, idag vill man kunna fortsätta använda datorn vilket man oftast gör. Det är ju något som skulle kunna differensiera tillverkarna utan att man trycker in massa kärnor

Eller som någon sa att ena tillverkaren blivit fartblind och glömt bort säkerheten.

Personligen är just benchmarks de som får mig att välja den bästa cpun för just spel. och i detta fall är just 10900K den bästa utav de normala cpu:erna. Hans uttalande är ju att han fattar ju att racet är förlorat, just nu är 10900K den som är på tronen, vad som lanseras senare är ju helt betydelselöst nu. Jag tycker det är kul att de finns 2 stycken företag som krigar på samma nivå nu. Förra gången gynnade de oss rejält med snabbare releaser av nya cpus och lägre priser.

CPU: I9 10900K GPU: MSI RTX 2080TI Gaming X Trio / MB: Asus Rog Strix Z490-E Gaming / RAM: Corsair 32 GB 3200 MHz PSU: Corsair RMX 850 Watt CPU-Kylare: Corsair iCUE H150i Chassi:Lian Li PC-O11 Dynamic XL / Lagring: M.2 1 TB + SSD 2 TB / SKÄRM: ACER XB270HU 1440p 144hz

Intel HQ: ”Ujujuj va spö vi får i syntetiska tester. Va ska vi göra? Vi såg det inte komma....”
Bagdad Intel Bob: ”Ja vet! Vi säger att man inte ska bry sig om det!”

Skrivet av Meantek:

Vad bra, Bob. Då fokuserar vi på antal kärnor och pris istället.

Bästa inlägget o även det första. Du vann ett internet 😄

Skrivet av Yoshman:

Vad Swan har en poäng kring är att enskilda benchmarks har i allt större utsträckning blivit mindre relevanta. Backar man 15-20 år när vi satt med 1-2 kärnor gav de flesta benchmarks en hyfsad bild av prestanda, det oavsett vad man skulle göra så länge problemet var beroende av CPU-prestanda.

Trenden idag är att alla problemområden av någon större vikt får dedicerat stöd direkt i kisel. Det medför att resultatet benchmark som testar problemområde A kan vara totalt irrelevant för hur samma system presenterar i problemområde B.

Även inom ett problemområde kan benchmarks bli totalt missvisade. Ta Blender där man i praktiken bara testar ett enda specifikt fall: final render när det utförs på CPU. Det kan vara en relevant benchmark, men inte ens för en majoritet av de som använder just Blender är det den mest relevanta siffran då just det steget idag utförs långt snabbare på Nvidias RTX-serie GPUer samt att den mesta tiden en kreatör jobbar med Blender läggs inte på final-render utan på modellering, simulering etc. Dessa steg är i många fall också väldig krävande, men till skillnad från final-render kan de inte effektivt accelereras av GPUer eller multi-core CPUer, utan de beror primärt av enkeltrådprestanda!

Benchmarks är fortfarande högst relevanta, men det krävs långt mer från den som konsumerar resultatet idag. Man måste både förstå vad en benchmark faktiskt är ett test av samtidigt som man förstår vad flaskhalsarna i det man själv gör består i.

Vad jag tror Swan försökte peka på, men är inte säker vilket visar hur han i så fall misslyckades, är att ofta finns långt viktigare aspekter än rå CPU-prestanda. Ta t.ex. GPGPU, ett område som AMD inledde med sitt köp av ATI och där AMD många gånger rent tekniskt haft prestandakronan mot Nvidia. Ändå är Nvidia totalt dominerande idag inom GPGPU, varför?

Där handlar det enbart om att Nvidia haft något som varit i samma härad vad det gäller rå prestanda, men de har haft (och har fortfarande) den klart bästa lösningen för att man faktiskt ska kunna använda GPGPU tack vare sin CUDA-plattform. Även här har benchmarks inte varit helt ovikta, hade Nvidia legat hopplöst efter i benchmarks hade GPGPU endera aldrig tagit fart (för programvaran utanför CUDA fram till väldigt nyligen har verkligen varit bedrövlig) eller så hade AMD varit ledaren nu. Så benchmarks spelar roll för de är en kritiskt komponent, av flera, när det avgörs vilken lösning som kan antas vara "bäst".

Undrar om det verkligen är AMD som Intel primärt oroar sig för. Fördelen för Intel när det är AMD man konkurrerar mot är att det "enda" man måste göra är att få till en snabbare produkt som "vinner" benchmarks igen. Vore märkligt om Intel inte lyckas med det inom några år givet att de har en tiopotens mer resurser.

Intels riktigt problem är om strömmen går bort från x86, för i det läget lär man aldrig få tillbaka de man tappar. ARM för tillfället avnoterat från börsen (uppköpta av Softbank), det gör det enklare för dem att hålla saker borta från rampljuset innan det är klart att presenteras. Cortex X1 lär ha varit en rejäl kalldush för Intel, AnandTechs kommentar är spot-on

"What’s really shocking here is how close Arm would be getting to Intel and AMD’s current best desktop systems in terms of performance. If both incumbent x86 vendors weren’t already worried about Arm’s yearly rate of improvement over the last few generations, they should outright panic at these figures if they actually materialize – and I do expect them to materialize.
...
For years we’ve wanted Arm to finally go for no-compromise performance, and the Cortex-X1 is seemingly exactly that."

Markerade visar var huvudproblemet ligger: att man redan är totalt omkörd i perf/W (Cost Analysis - An x86 Massacre, prestanda per vCPU är ungefär samma hos Amazons Graviton 2 som AMD/Intels modeller, men priset är långt lägre då dels Amazon själva designat HW samt perf/W är ungefär 2:1) och lär bli omkörd även i absolut prestanda, det p.g..a tekniska fundamentala orsaker som inte kan fixas inom ramen av x86.

Är nog ingen slump att Intel accelererat sina investeringar i teknik utanför x86-CPUer. Intels omsättningen utanför x86-CPUer överstiger redan hela AMDs omsättning, man vet att det är en fight som kommer förloras men man vill dra ut på det så mycket det bara går.

Ett område man kan ha något stort på gång är oneAPI. Jensen Huang har redan förklarat hur detta aldrig kommer fungera, får se om han har rätt, för annars är Nvidia illa ute då oneAPI i teorin löser den sista stora pusselbiten CUDA inte löser: CUDA är lysande för att skriva programvara för GPU, men det finns inget standardmässigt sätt att köra den programvaran på ett system som saknar Nvidia GPU. Det dämpar kraftigt användbarheten då det dra upp kostnaden när man alltid måste utveckla (minst) två versioner.

Om oneAPI fungerar är det problemet ur vägen. Endera har man en GPU som är kompatibel, då används den. Men exakt samma kod kompileras också till CPU+SIMD, d.v.s. en väldigt effektiv CPU-version som automatiskt inte bara utnyttjar alla CPU-kärnor utan det drar också nytta av SSE/AVX (fast det blir ändå inte lika snabbt som ens en modern mellanklass GPU). Det kan riktigt få fart på GPGPU accelererade program och därmed göra benchmarks som Cinebench helt meningslösa i deras nuvarande format.

Vill ej låta taskig men man börjar undra om du jobbar hos ARM eller har affilieringar med dem på något sätt.

Skrivet av Klappa:

Vill ej låta taskig men man börjar undra om du jobbar hos ARM eller har affilieringar med dem på något sätt.

För att han förklarar hur saker ligger till? Eller vad får dig att tro det?

Skrivet av CubaCola:

Här tjatas det ofta om ryzens kärnor men AMD har ju själva med 3300x visat att antalet kärnor är ganska orelevant än så länge i spel.

Nya konsollerna kommer att bidra till en snabbare adaptering till flera kärnor, och då de är AMD riggar i grunden så lär det inte vara negativt på något sätt. Nu är det svårt att predika om UE5 demon betyder något för framtida spelutveckling, men om den gör det så är det enorma mängder data som skyfflas jämfört med tidigare, att CPU hänger med att uppdatera denna data och göra den redo för rendering blir allt viktigare. Jag hoppas också detta skifte ger mer dynamik i spelen, vi har allt för länge begränsats av konsoller som redan var antika vid släpp. Nu lär det ju bli samma elände efter ett tag, men det blir förmodligen ett rejält trappsteg nästa år.

@Dalton Sleeper:
Nja, problemet ligger i chiplet designen där latenser mellan CCX kluster i CCD (chiplets) orsakar lägre prestanda. 3300X presterar så bra jämnt mot 3600 just för att den har 4 kärnor i en CCX i en CCD. Oavsett hur spel optimeras kommer 3300X ligga över 3600 i spelprestanda. För Zen2 har en stor Akilles häl i sin design, även 2 kärnor i separata CCDs skulle prestera sämre än 3300X pga latenser.

I stort set, 3300X använder inte de modulära fördelarna med chiplet designen, vilket gör den starkare för spel. 3300X visar potentialen av Ryzen som throttlas av sin egen modulära design.

Senast redigerat 2020-06-07 16:15

Bättre att knipa igen? AMD tar ju mark på alla fronter men intel kanske är tillbaka och tävlar på servermarknaden om några år då känns det kanske lite dumt att ha sagt något sånt.
Sen är intel så integrerade i datorerna idag ( moderkort ) att ju mer AMD säljer så tjänar intel på det ändå så ser inte att förutsättningarna för en comeback är dåliga.

Märkligt att man inte förde detta resonemang tidigare också, när man överlägset toppade benchmarksen?

Det är också ett ytterst märkligt och tämligen flagrant grepp av dem att kroka på den allmänna COVID-19-yran i sin marknadsföring. Ska man nu ägna sig åt den sortens billiga försök att göra sig mer aktuell och relevant, kan man väl åtminstone försöka hitta någon buzz som har någon slags relation till ens produkter?

Det hela luktar desperation långan väg. Hoppas verkligen inte Intel är på väg att bli vad AMD var fram tills Ryzen släpptes. Förvisso skulle det finnas en viss poetisk rättvisa i det, men man bör nog inte göra misstaget att inbilla sig att AMD skulle bära sig ett dugg bättre åt än Intel som envåldshärskare. Optimalt är konkurrens mellan hyfsat jämnstarka parter.

Skrivet av Daemon85:

Tycker att sweclockers ska sluta fokusera på att refresha nyheter, sämsta som de kommit på

Hej nu blir det väldigt off topic här förvisso:

Anledningen att vi bumpar nyheter är för att genomsnittsläsaren inte är inne på sidan varje dag (eller ens varje vecka). Därför lyfter vi de nyheter som genererat mest intresse, artiklar vi lagt mycket tid på att skriva osv. då och då.

Jag förstår att det kan upplevas som irriterande att saker hamnar i en ordning som inte är kronologisk och vi ska försöka hitta ett sätt att antingen markera dem tydligare som reposts eller låta användare sortera bort det.
Jag har ingen riktig ETA på när det kan vara på plats, det kan röra sig om många månader.

Men då vet ni iaf varför vi gör det och att vi också är medvetna om att inte alla gillar det och därför ska försöka hitta en lösning för dem.

Senast redigerat 2020-06-07 18:22
Skrivet av UndaC:

Hej nu blir det väldigt off topic här förvisso:

Anledningen att vi bumpar nyheter är för att genomsnittsläsaren inte är inne på sidan varje dag (eller ens varje vecka). Därför lyfter vi de nyheter som genererat mest intresse, artiklar vi lagt mycket tid på att skriva osv. då och då.

Jag förstår att det kan upplevas som irriterande att saker hamnar i en ordning som inte är kronologisk och vi ska försöka hitta ett sätt att antingen markera dem tydligare som reposts eller låta användare sortera bort det.
Jag har ingen riktig ETA på när det kan vara på plats, det kan röra sig om många månader.

Men då vet ni iaf varför vi gör det och att vi också är medvetna om att inte alla gillar det och därför ska försöka hitta en lösning för dem.

Tycker det är en urursel ide att bumpa nyheter. Snudd på oprofessionellt. Jag har aldrig sett en site göra så tidigare. Jag är inte på så många olika siter som jag går till frekvent så detta kanske är vanligt? Gör ni detta för att det kanske är nyhetstorka på grund av Covid? I så fall vore det nog bättre att ha en banner och förklara läget att det är mindre nyheter på grund av det.

Med det sagt så gör ni ju precis som ni vill med er site. Det finns ju inge demokrati här eller i forumdelen. Ni bestämmer! Jag kommer fortsätta att läsa här i vilket fall, fast jag kommer tycka det är mindre bra.

Skrivet av str8forthakill:

@Dalton Sleeper:
Nja, problemet ligger i chiplet designen där latenser mellan CCX kluster i CCD (chiplets) orsakar lägre prestanda. 3300X presterar så bra jämnt mot 3600 just för att den har 4 kärnor i en CCX i en CCD. Oavsett hur spel optimeras kommer 3300X ligga över 3600 i spelprestanda. För Zen2 har en stor Akilles häl i sin design, även 2 kärnor i separata CCDs skulle prestera sämre än 3300X pga latenser.

I stort set, 3300X använder inte de modulära fördelarna med chiplet designen, vilket gör den starkare för spel. 3300X visar potentialen av Ryzen som throttlas av sin egen modulära design.

Ja, men antalet kärnor blir inte orelevant för det, för spel som gillar lägre latens så är ju det bra, men vill man läsa in och behandla annan data samt köra os eller uppackning av diverse filer vid sidan om så finns det fördelar med fler kärnor. Teoretiskt så bör man ju också kunna ställa in vilken grupp av kärnor man vill köra spelet på, förutsatt att man har det nödvändiga antalet kärnor inom samma kluster.

Jag vet inte hur smart schedulern har blivit och hur bra distributionen av arbete är. Känns som en ganska omöjlig uppgift att få bra spelprestanda om man har så pass hög latency mellan kluster. Väljs processer att helst köras i samma kluster? Högprioritetstrådar? Fullskärmsappar i windows?

Om man adderade två extra minneskanaler till det andra klustret, reducerar detta problemet? Eller är spelprestandan beroende på datan i cacheminnet, eller kanske båda? Isåfall hur mycket?

Jag har inte grävt så mycket i AMDs arkitektur och test, men man ser i en del tester att threadripper ligger bättre till i vissa fall, och där har de ibland flera cores per cluster, och två minneskanaler extra att tillgå.

Jag hoppas på att AMD reducerat latensen i 4000-serien, då blir det en sån i min näst rig.

Fixa buggarna då ... 😅

Fast ..?

Användningen eller innebörden av ordet "benchmarks" för en person på ledningsnivå kanske inte är detsamma som "benchmarking" eller prestandatester, som väl syftas till med rubriken "benchmark-resultat"? Eller? Bara en tanke ...

Jag känner iaf på mig att han inte pratar om resultat i prestandatester när han säger så. Ordet har mer än bara en innebörd.

Tja... jag transkodar film, raytrace:ar och foldar protein i princip dagligdags.... jag skulle gissa att jag kan dra viss nytta av att läsa de syntetiska testen.

Skrivet av mar3ld:

Fast ..?

Användningen eller innebörden av ordet "benchmarks" för en person på ledningsnivå kanske inte är detsamma som "benchmarking" eller prestandatester, som väl syftas till med rubriken "benchmark-resultat"? Eller? Bara en tanke ...

Jag känner iaf på mig att han inte pratar om resultat i prestandatester när han säger så. Ordet har mer än bara en innebörd.

Benchmark kan absolut betyda många andra saker men om du kollar videon är det ganska tydligt att det är just prestandatest av hårdvara han talar om.

Sky Lake
Sky Lake SP
Cascade Lake
Cascade Lake SP
Sky Lake X
Sky Lake S
Kaby Lake
Kaby Lake S
Kaby Lake Refresh
Gemini Lake
Coffe Lake
Coffe Lake S
Coffe Lake Refresh
Cannon Lake
Whisky Lake
Comet Lake
Comet Lake S/U
Ice Lake
Sapphire Lake
Rocker Lake
Tiger Lake

Och en drös andra U/H/X varianter och en jäkla massa ++++ tecken.

Dags för länge sen att byta namn från Lake, 14 nm och skylake. Jag brukar ha koll på vad intel kommer med. Men nu är jag spyless på alla jävla lakes och 14nm varianter. Släpp en ny arkitektur på 7 nm som andra leverantörer och nämn aldrig mer ordet lake.

Folk brukar säga att USB är svårt att hålla koll på alla versioner. Skulle någon nämna kaby lake refresh så har jag inte en susning om vilken processor längre.

Senast redigerat 2020-06-07 21:03

Aldrig mera Intel efter detta alltså.

Nästa bygge blir AMD CPU OCH GPU.

@Yoshman: Angående 3D-rendering: Ja de funktioner som fungerar att utföra med ett grafikkort är alltid snabbare. Däremot är vi fortfarande i en tidig övergångsfas och det är fortfaranfe otaliga funktioner som inte stöder GPU-rendering. Arnold (Maya's numera inbyggda renderingsmotor) är ett praktexempel på en sådan renderingsmotor.

Skrivet av Dizzö:

Aldrig mera Intel efter detta alltså.

Nästa bygge blir AMD CPU OCH GPU.

Men det har du ju skrivit i 3 år nu i lite olika variationer..

Skrivet av ClintBeastwood:

Men det har du ju skrivit i 3 år nu i lite olika variationer..

Yes och blir mer och mer övertygad om att det rätt val.

Skrivet av Dizzö:

Yes och blir mer och mer övertygad om att det rätt val.

Det känns mest som att du jagar likes men visst, säger du det så.