Intels VD: "Dags att sluta fokusera på benchmark-resultat"

Skrivet av SwedenVirre:

@Ase: Är det något jag lärt mig med min X299 rigg så är latenserna inte bra ändå

Inte ens 5.4GHz hjälpte för att få ner latenserna tillräckligt utan att ljudet "klicka"

kanske är annorlunda på ringbus än på mesh när det kommer till den biten men min 3900x spöar skiten ur min gamla intel.

Och då är min DAW(gammal som gatan, FL9) inte särskilt mångtrådig.

Kanske finns något knep men det kvittade nästan vad jag gjorde kändes det som. Midi var att fett glömma innan, hade sjuka problem att sequneca min synt med låga latenser, vilket gjorde att allt hamna ur fas.

nu är det bara att klicka play och detär problemfritt.

aja nog om denna diskussionen. hade velat benchmarka en 10xxx serie på 1200 plattformen och se ifall det är x299 specifikt(tror det med tanke på att 1151 inte hade lika stora problem med min gamla 6700K)

Jag har x99 6900k - datorn funkar super till allt - FÖRUTOM att jag haft problem med VST o Cubase. Upplever dock att med nyare chipset drivers så har problemet "gett med sig". Upplever att det mesta funkar utan klick etc nu - enda gången jag kan ha strul är om jag råkar ha Visual Studio igång samtidigt men tror det är för att debugern i Visual studio liksom tar över datorn Kör ett USB Steinberg UR22 ljudkort. Google ger vid handen att många haft problem med ljud just på X-plattformarna. Tror inte det är för att CPUn är slö utan för att chipsettet inte passar för just ASIO av någon anledning

Steinberg själva rekommenderar fortfarande Intel... har inte lyckats hitta någon bra Ryzen / DAW / ASIO test - har du?

Med vänlig hälsning Lazze

Skrivet av anders190:

Fanns även en Core Solo, enkärnig. Var först med Core 2 som folk började bry sig om Intels processorer igen och känns som många missade första generationen helt. Jag har själv inte i verkligheten sett ett Core (1) system ens.

Och här är ett lysande exempel varför herr Swan har fel om benchmarks, man måste kunna destillera ner jämförelser till något som kan ställas i relation till varandra. D.v.s. man måste kunna sätta ett värde på "prestanda".

Core Duo användes nog aldrig i stationära datorer, däremot användes modellen i de flesta bärbara (samt även någon Xeon-krets) och dessa presterade så bra att det måste ha varit smärtsamt uppenbart för Intel hur fel väg Netburst var. Första x86-baserade MacBook Pro körde Core Duo, det gjorde även iMac och MacMini sant de flesta bärbara PC-datorer vid den tiden.

Då Core Duo inte användes i stationära är det ont om tester hos tech-site:erna och då Core Duo var den sista Intel CPUn som inte hade stöd för x86_641 är det idag svårt att hitta några tester alls på dessa modeller. GB5 är t.ex. 64-bit only numera, men GB4 har stöd för 32-bit och hittade flera tester av Core Duo T2500 (dual core "Yohah" @ 2,0 GHz) och Core 2 Duo E4400 (dual core "Allendale" @ 2,0 GHz).

Är 15-16 % bättre IPC i heltal hos Core2 över Core (som i praktiken är en omdöpt Pentium M) medan det är 22-23 % bättre IPC i flyttal. Ett hyfsat lyft, men ingen revolution. Core2 gick att klocka högre, det även mot AMDs samtida modeller, vilket var en större del i prestandalyftet jämfört med övertaget i IPC.

Rent generellt har IPC ökat väldigt långsamt sedan Pentium Pro. Vi har sett två gigantiska hopp från både Intel och AMD, men det beror på att båda gett sig in på varsitt stickspår antagligen då de sett att frekvens > IPC under hela historien: Pentium 4 resp. Bulldozer (båda hade sämre IPC än deras föregångare men kunde klockas långt högre).

Nu inser alla att det handlar om en balans, enda som spelar roll är IPC * frekvens för CPU-prestanda och i det större perspektivet hur effektivt ett system löser det problem just du har, vilket i allt större utsträckning gör att saker löses av andra kretsar än CPU.. Det senare är nog är vad herr Swan försöker säga, men lindar in det i så mycket buzz-words att det blir skrattretande...

Klicka för mer information

1 Rent krasst använder Intel "Intel64", som initialt kallades EMT64, medan AMD använder "AMD64" och dessa är faktiskt inte 100 % kompatibla, men i praktiken är de bara inkompatibla i delar som endast OS-kärnor behöver bry sig i'

Visa mer
Skrivet av Tea42BBS:

Jag har x99 6900k - datorn funkar super till allt - FÖRUTOM att jag haft problem med VST o Cubase. Upplever dock att med nyare chipset drivers så har problemet "gett med sig". Upplever att det mesta funkar utan klick etc nu - enda gången jag kan ha strul är om jag råkar ha Visual Studio igång samtidigt men tror det är för att debugern i Visual studio liksom tar över datorn Kör ett USB Steinberg UR22 ljudkort. Google ger vid handen att många haft problem med ljud just på X-plattformarna. Tror inte det är för att CPUn är slö utan för att chipsettet inte passar för just ASIO av någon anledning

Steinberg själva rekommenderar fortfarande Intel... har inte lyckats hitta någon bra Ryzen / DAW / ASIO test - har du?

Med vänlig hälsning Lazze

Åh fan, kände mig alltid frustrerad när jag försökte felsöka mina latensproblem på mitt ASUS x99 system som hade en 5820k då alla forum överallt sa att intel var bäst för DAWs osv, och deras HEDT cpus var att rekommendera. Detta var ett par år sedan dock.
Ändlöst strul och fick aldrig faktiskt till det, slutade med att när jag skulle göra något som krävde låga latenser så drog jag igång min gamla i7-950 dator som klarade av rätt tight settings men framförallt var konsekvent och inte krävde att man pillade och ställde om varannan vecka.

Hade en del strul med ryzen med, specifikt på ett ASUS x470 kort, när jag bytte till ett ASrock x570 funkade det mesta mycket bättre omedelbart, inte testat sedan jag bytte till MSI nyligen.

Tror inte det handlar så mycket om CPU egentligen, mest märke på moderkort och huruvida tillverkaren bryr sig om att lösa sådana problem när de uppstår- alltid fått en känsla att ASUS liksom inte bryr sig.

Komiskt att benchmarks nu plötsligt inte är något vi ska bry oss om, när Intel börjar halka efter i fler och fler. Å andra sidan har AMD dragit samma vals vid olika tillfällen. Men lite lågt är det att utnyttja pandemin för att försöka bortförklara att man börjat halka efter i prestanda. Om Intel plötsligt släpper en CPU som slår AMD med god marginal i syntetiska tester lär benchmarks plötsligt bli det viktigaste igen.

Skrivet av Shiprat:

Åh fan, kände mig alltid frustrerad när jag försökte felsöka mina latensproblem på mitt ASUS x99 system som hade en 5820k då alla forum överallt sa att intel var bäst för DAWs osv, och deras HEDT cpus var att rekommendera. Detta var ett par år sedan dock.
Ändlöst strul och fick aldrig faktiskt till det, slutade med att när jag skulle göra något som krävde låga latenser så drog jag igång min gamla i7-950 dator som klarade av rätt tight settings men framförallt var konsekvent och inte krävde att man pillade och ställde om varannan vecka.

Hade en del strul med ryzen med, specifikt på ett ASUS x470 kort, när jag bytte till ett ASrock x570 funkade det mesta mycket bättre omedelbart, inte testat sedan jag bytte till MSI nyligen.

Tror inte det handlar så mycket om CPU egentligen, mest märke på moderkort och huruvida tillverkaren bryr sig om att lösa sådana problem när de uppstår- alltid fått en känsla att ASUS liksom inte bryr sig.

det är min känsla oxo - att det mer är moderkort än cpu. Jag bytte min x99 Asus bräda till ett MSI X99 SLI Krait - funkade mycket bättre. Så känner mig tveksam till Asus igen

Med vänlig hälsning Lazze

@Ase: Minns ärligtalat inte hela namnet på ljudkortet, är nått gammalt avid solo.

grejen är ju den att jag prövat med ett varierande antal burkar med samma ljudkort. än sålänge har 3900x som sagt varit bäst. näst bäst var 6700K, 1700(även 1900x), 2700 var sådär men x299 burken strulade mycket, iaf när det kom till DAW.

Skrivet av Shiprat:

Åh fan, kände mig alltid frustrerad när jag försökte felsöka mina latensproblem på mitt ASUS x99 system som hade en 5820k då alla forum överallt sa att intel var bäst för DAWs osv, och deras HEDT cpus var att rekommendera. Detta var ett par år sedan dock.
Ändlöst strul och fick aldrig faktiskt till det, slutade med att när jag skulle göra något som krävde låga latenser så drog jag igång min gamla i7-950 dator som klarade av rätt tight settings men framförallt var konsekvent och inte krävde att man pillade och ställde om varannan vecka.

Hade en del strul med ryzen med, specifikt på ett ASUS x470 kort, när jag bytte till ett ASrock x570 funkade det mesta mycket bättre omedelbart, inte testat sedan jag bytte till MSI nyligen.

Tror inte det handlar så mycket om CPU egentligen, mest märke på moderkort och huruvida tillverkaren bryr sig om att lösa sådana problem när de uppstår- alltid fått en känsla att ASUS liksom inte bryr sig.

Vilka strul? Jag har ett 5820K och jag har aldrig haft ett mer stabilt system. Jag tror snarare att det handlar om oerfarenhet. Vad mätte du latenserna med? Jag kör 48 Samples utan problem.

Vad Swan har en poäng kring är att enskilda benchmarks har i allt större utsträckning blivit mindre relevanta. Backar man 15-20 år när vi satt med 1-2 kärnor gav de flesta benchmarks en hyfsad bild av prestanda, det oavsett vad man skulle göra så länge problemet var beroende av CPU-prestanda.

Trenden idag är att alla problemområden av någon större vikt får dedicerat stöd direkt i kisel. Det medför att resultatet benchmark som testar problemområde A kan vara totalt irrelevant för hur samma system presenterar i problemområde B.

Även inom ett problemområde kan benchmarks bli totalt missvisade. Ta Blender där man i praktiken bara testar ett enda specifikt fall: final render när det utförs på CPU. Det kan vara en relevant benchmark, men inte ens för en majoritet av de som använder just Blender är det den mest relevanta siffran då just det steget idag utförs långt snabbare på Nvidias RTX-serie GPUer samt att den mesta tiden en kreatör jobbar med Blender läggs inte på final-render utan på modellering, simulering etc. Dessa steg är i många fall också väldig krävande, men till skillnad från final-render kan de inte effektivt accelereras av GPUer eller multi-core CPUer, utan de beror primärt av enkeltrådprestanda!

Benchmarks är fortfarande högst relevanta, men det krävs långt mer från den som konsumerar resultatet idag. Man måste både förstå vad en benchmark faktiskt är ett test av samtidigt som man förstår vad flaskhalsarna i det man själv gör består i.

Vad jag tror Swan försökte peka på, men är inte säker vilket visar hur han i så fall misslyckades, är att ofta finns långt viktigare aspekter än rå CPU-prestanda. Ta t.ex. GPGPU, ett område som AMD inledde med sitt köp av ATI och där AMD många gånger rent tekniskt haft prestandakronan mot Nvidia. Ändå är Nvidia totalt dominerande idag inom GPGPU, varför?

Där handlar det enbart om att Nvidia haft något som varit i samma härad vad det gäller rå prestanda, men de har haft (och har fortfarande) den klart bästa lösningen för att man faktiskt ska kunna använda GPGPU tack vare sin CUDA-plattform. Även här har benchmarks inte varit helt ovikta, hade Nvidia legat hopplöst efter i benchmarks hade GPGPU endera aldrig tagit fart (för programvaran utanför CUDA fram till väldigt nyligen har verkligen varit bedrövlig) eller så hade AMD varit ledaren nu. Så benchmarks spelar roll för de är en kritiskt komponent, av flera, när det avgörs vilken lösning som kan antas vara "bäst".

Undrar om det verkligen är AMD som Intel primärt oroar sig för. Fördelen för Intel när det är AMD man konkurrerar mot är att det "enda" man måste göra är att få till en snabbare produkt som "vinner" benchmarks igen. Vore märkligt om Intel inte lyckas med det inom några år givet att de har en tiopotens mer resurser.

Intels riktigt problem är om strömmen går bort från x86, för i det läget lär man aldrig få tillbaka de man tappar. ARM för tillfället avnoterat från börsen (uppköpta av Softbank), det gör det enklare för dem att hålla saker borta från rampljuset innan det är klart att presenteras. Cortex X1 lär ha varit en rejäl kalldush för Intel, AnandTechs kommentar är spot-on

"What’s really shocking here is how close Arm would be getting to Intel and AMD’s current best desktop systems in terms of performance. If both incumbent x86 vendors weren’t already worried about Arm’s yearly rate of improvement over the last few generations, they should outright panic at these figures if they actually materialize – and I do expect them to materialize.
...
For years we’ve wanted Arm to finally go for no-compromise performance, and the Cortex-X1 is seemingly exactly that."

Markerade visar var huvudproblemet ligger: att man redan är totalt omkörd i perf/W (Cost Analysis - An x86 Massacre, prestanda per vCPU är ungefär samma hos Amazons Graviton 2 som AMD/Intels modeller, men priset är långt lägre då dels Amazon själva designat HW samt perf/W är ungefär 2:1) och lär bli omkörd även i absolut prestanda, det p.g..a tekniska fundamentala orsaker som inte kan fixas inom ramen av x86.

Är nog ingen slump att Intel accelererat sina investeringar i teknik utanför x86-CPUer. Intels omsättningen utanför x86-CPUer överstiger redan hela AMDs omsättning, man vet att det är en fight som kommer förloras men man vill dra ut på det så mycket det bara går.

Ett område man kan ha något stort på gång är oneAPI. Jensen Huang har redan förklarat hur detta aldrig kommer fungera, får se om han har rätt, för annars är Nvidia illa ute då oneAPI i teorin löser den sista stora pusselbiten CUDA inte löser: CUDA är lysande för att skriva programvara för GPU, men det finns inget standardmässigt sätt att köra den programvaran på ett system som saknar Nvidia GPU. Det dämpar kraftigt användbarheten då det dra upp kostnaden när man alltid måste utveckla (minst) två versioner.

Om oneAPI fungerar är det problemet ur vägen. Endera har man en GPU som är kompatibel, då används den. Men exakt samma kod kompileras också till CPU+SIMD, d.v.s. en väldigt effektiv CPU-version som automatiskt inte bara utnyttjar alla CPU-kärnor utan det drar också nytta av SSE/AVX (fast det blir ändå inte lika snabbt som ens en modern mellanklass GPU). Det kan riktigt få fart på GPGPU accelererade program och därmed göra benchmarks som Cinebench helt meningslösa i deras nuvarande format.

Skrivet av mrqaffe:

Jo visst gör det det men Gemeran är nog skapligt rustad för att hantera turbo V8or i vilket fall...
All-wheel drive, all-wheel torque vectoring, and all-wheel steering
That is why the Gemera has 3500 Nm of torque from standstill and why it can accelerate from 0-400 km/h in a single gear. power output of the Gemera is 1700 bhp or 1.27 MW.

Nåja, vi lär få se benchmarks på Gemeran i vart fall, jag tror den kommer att stå sig bra mot alla andra gatlegala bilar, tekniken har gått framåt och nån Intelchef kanske faktiskt beställer en

Finns Honda fyrcyl på 1.8 som också tillverkar 1700hk. Så effekt är inte så coolt egentligen. Samt då är väldigt många awd också torque vectoring. Gemeran kommer självklart vara snabb.

Skrivet av Daark:

Finns Honda fyrcyl på 1.8 som också tillverkar 1700hk. Så effekt är inte så coolt egentligen. Samt då är väldigt många awd också torque vectoring. Gemeran kommer självklart vara snabb.

Det är jätte coolt med 1700 hk ur en 1,8 liters motor.

Skrivet av anders190:

Läs nogrannare, han skriver Core Duo, föregångaren till Core 2 Duo. Core Duo sög snabel medans Core 2 var bland det bästa Intel lyckats ta fram.

Fanns även en Core Solo, enkärnig. Var först med Core 2 som folk började bry sig om Intels processorer igen och känns som många missade första generationen helt. Jag har själv inte i verkligheten sett ett Core (1) system ens.

Suger snabel skulle jag inte säga.
Core (1) var i första hand ersättare för Pentium M, snarare än Pentium 4 och såvitt jag kan minnas var de mestadels bättre än Pentium M.

Användes mestadels i bärbara datorer.
Men fanns i enstaka modeller av stationära datorer också.
Har för mig första generationen Intel iMac hade Core (1) processor.

Har själv en gammal Fujitsu Lifebook med Core (1) Duo och 14” skärm.
Den väger 1.8kg och från en tid när en mindre iBook med 13” skärm på typ 2.2 - 2.3kg var sååå lätt enligt många.
T.o.m. batteriet fungerar fortfarande. Men inte lika bra batteritid som när den var ny.

Den är från en tid när bärbara datorer var uppgraderingsbara.
Hade 1GB RAM och 80GB HDD från början.
Har uppgraderat till 4GB RAM och 128GB SSD vilket gör att när det kommer till minne och lagring står den sig mot många bärbara med fastlödda minnen och SSD som är 10 år nyare, kanske t.o.m. vissa som är 15 år nyare.

Har ominstallerat OS från image fil så med en ren installation på SSD är den rätt så rapp faktiskt.
Men processorn är så klart inte speciellt snabb mot nya och intels iGPU var inte ens snabb när den var ny och det är med Windows XP som var vad den levererades med när den var ny.

Det är lite som att ha en nytvättad 125cc motorcykel som blänker och är fin och på ettans växel kan du komma över 10k rpm på nolltid.
Men du är över 20 år och undrar lite vad du ska ha den till.

Skrivet av skanepiraten:

Får mig tänka på uttalandet att vi inte behöver mer än 30Fps på konsolspel för vi behöver inte och ser ingen skillnad... Vad är det nu konsolerna gör reklam nu inför nästa generation? ^^

Det var väl när average Joe satt med en TV med max 60 bilder i sekunden intelaced = vilket är 60 halvbilder i sekunden = 30 FPS.

Att då göra något med mer än 30 FPS skulle ju endast resultera i dyrare konsol som bara ett fåtal kunde dra nytta av.

Är det bara jag som får känningar av att ett nytt säkerhetshål är på väg att patchas med enorma prestanda förluster?

Jag har aldrig riktigt förstått mig på poängbaserade prestandatester. Visst, processorn med högre poäng "borde" vara bättre. Men vad är det som säger att den är bättre för det ändamålet jag tänker använda den för?
Det intressanta är väl specifika tester för olika ändamål..?

Låter som något en förlorare skulle säga.

Skrivet av Klappa:

Vilka strul? Jag har ett 5820K och jag har aldrig haft ett mer stabilt system. Jag tror snarare att det handlar om oerfarenhet. Vad mätte du latenserna med? Jag kör 48 Samples utan problem.

Jaså! vet inte hur du fick tag i min gamla x99-burk då det definitivt inte var dig jag sålde den till, men om du säger det så är det säkert så!

Skämt åsido- man behöver inte vara expert för att konstatera att något som fungerar på ett system inte fungerar på ett annat system. Jag vill minnas att det var latencymon jag körde, minns inte att jag ska ha kört något annat iallafal, som sagt ett par år sedan.

Var alltid kernel driver framework och "usbport" som visade höga spikar, behövde inte vara medan man körde DAW heller, även på bästa inställning jag någonsin fick att funka så fick jag stora spikar från och till när jag spelade spel om jag använde usb-ljudkort med så högt som 64 i samplerate, kunde ses i latencymon och hördes som ett högljutt popp, i inspelningar poppade det till och ljudet försvann typ en halv sekund. Vissa plugins fungerade klockrent, vissa var kaos, guitar rig funkade okej utanför FL-Studio men fruktansvärt som plugin.

Meanwhile, på gamla riggen med sabretooth x58 och i7-950 var det inga problem, trots i övrigt samma ljudkort, samma grafikkort osv, färska installationer på båda från samma dag vid åtminstone ett tillfälle när jag felsökte- tro mig jag la inte 10k på uppgraderingar för att sedan ge upp direkt när något strulade- höll på ett tag, behöll till slut gamla riggen för ljudgrejer och nya för spel.

Gillar att du tror att bara för att du har en 5820k med x99 som funkar väl så betyder det att alla likadana fungerar lika väl ^^
Tror snarare att det handlar om oerfaranhet, är det din första dator kanske? (:

Men behöver inte vara ord mot ord- prova att googla "x99 latency" eller "x99 dpc" eller "x99 realtime audio" eller något i den stilen- hittar du inga issues alls så har du nog rätt och jag är oerfaren, hittar du folk som har strul, kanske folk på audio-forum som gjort allt man normalt gör för att felsöka sådana saker- ja då kanske det finns mer än ett instabilt x99-system.

Skrivet av Yoshman:

Vad Swan har en poäng kring är att enskilda benchmarks har i allt större utsträckning blivit mindre relevanta. Backar man 15-20 år när vi satt med 1-2 kärnor gav de flesta benchmarks en hyfsad bild av prestanda, det oavsett vad man skulle göra så länge problemet var beroende av CPU-prestanda.

Trenden idag är att alla problemområden av någon större vikt får dedicerat stöd direkt i kisel. Det medför att resultatet benchmark som testar problemområde A kan vara totalt irrelevant för hur samma system presenterar i problemområde B.

Även inom ett problemområde kan benchmarks bli totalt missvisade. Ta Blender där man i praktiken bara testar ett enda specifikt fall: final render när det utförs på CPU. Det kan vara en relevant benchmark, men inte ens för en majoritet av de som använder just Blender är det den mest relevanta siffran då just det steget idag utförs långt snabbare på Nvidias RTX-serie GPUer samt att den mesta tiden en kreatör jobbar med Blender läggs inte på final-render utan på modellering, simulering etc. Dessa steg är i många fall också väldig krävande, men till skillnad från final-render kan de inte effektivt accelereras av GPUer eller multi-core CPUer, utan de beror primärt av enkeltrådprestanda!

Benchmarks är fortfarande högst relevanta, men det krävs långt mer från den som konsumerar resultatet idag. Man måste både förstå vad en benchmark faktiskt är ett test av samtidigt som man förstår vad flaskhalsarna i det man själv gör består i.

Vad jag tror Swan försökte peka på, men är inte säker vilket visar hur han i så fall misslyckades, är att ofta finns långt viktigare aspekter än rå CPU-prestanda. Ta t.ex. GPGPU, ett område som AMD inledde med sitt köp av ATI och där AMD många gånger rent tekniskt haft prestandakronan mot Nvidia. Ändå är Nvidia totalt dominerande idag inom GPGPU, varför?

Där handlar det enbart om att Nvidia haft något som varit i samma härad vad det gäller rå prestanda, men de har haft (och har fortfarande) den klart bästa lösningen för att man faktiskt ska kunna använda GPGPU tack vare sin CUDA-plattform. Även här har benchmarks inte varit helt ovikta, hade Nvidia legat hopplöst efter i benchmarks hade GPGPU endera aldrig tagit fart (för programvaran utanför CUDA fram till väldigt nyligen har verkligen varit bedrövlig) eller så hade AMD varit ledaren nu. Så benchmarks spelar roll för de är en kritiskt komponent, av flera, när det avgörs vilken lösning som kan antas vara "bäst".

Undrar om det verkligen är AMD som Intel primärt oroar sig för. Fördelen för Intel när det är AMD man konkurrerar mot är att det "enda" man måste göra är att få till en snabbare produkt som "vinner" benchmarks igen. Vore märkligt om Intel inte lyckas med det inom några år givet att de har en tiopotens mer resurser.

Intels riktigt problem är om strömmen går bort från x86, för i det läget lär man aldrig få tillbaka de man tappar. ARM för tillfället avnoterat från börsen (uppköpta av Softbank), det gör det enklare för dem att hålla saker borta från rampljuset innan det är klart att presenteras. Cortex X1 lär ha varit en rejäl kalldush för Intel, AnandTechs kommentar är spot-on

"What’s really shocking here is how close Arm would be getting to Intel and AMD’s current best desktop systems in terms of performance. If both incumbent x86 vendors weren’t already worried about Arm’s yearly rate of improvement over the last few generations, they should outright panic at these figures if they actually materialize – and I do expect them to materialize.
...
For years we’ve wanted Arm to finally go for no-compromise performance, and the Cortex-X1 is seemingly exactly that."

Markerade visar var huvudproblemet ligger: att man redan är totalt omkörd i perf/W (Cost Analysis - An x86 Massacre, prestanda per vCPU är ungefär samma hos Amazons Graviton 2 som AMD/Intels modeller, men priset är långt lägre då dels Amazon själva designat HW samt perf/W är ungefär 2:1) och lär bli omkörd även i absolut prestanda, det p.g..a tekniska fundamentala orsaker som inte kan fixas inom ramen av x86.

Är nog ingen slump att Intel accelererat sina investeringar i teknik utanför x86-CPUer. Intels omsättningen utanför x86-CPUer överstiger redan hela AMDs omsättning, man vet att det är en fight som kommer förloras men man vill dra ut på det så mycket det bara går.

Ett område man kan ha något stort på gång är oneAPI. Jensen Huang har redan förklarat hur detta aldrig kommer fungera, får se om han har rätt, för annars är Nvidia illa ute då oneAPI i teorin löser den sista stora pusselbiten CUDA inte löser: CUDA är lysande för att skriva programvara för GPU, men det finns inget standardmässigt sätt att köra den programvaran på ett system som saknar Nvidia GPU. Det dämpar kraftigt användbarheten då det dra upp kostnaden när man alltid måste utveckla (minst) två versioner.

Om oneAPI fungerar är det problemet ur vägen. Endera har man en GPU som är kompatibel, då används den. Men exakt samma kod kompileras också till CPU+SIMD, d.v.s. en väldigt effektiv CPU-version som automatiskt inte bara utnyttjar alla CPU-kärnor utan det drar också nytta av SSE/AVX (fast det blir ändå inte lika snabbt som ens en modern mellanklass GPU). Det kan riktigt få fart på GPGPU accelererade program och därmed göra benchmarks som Cinebench helt meningslösa i deras nuvarande format.

Jag är intresserad av att investera pengar i ARM men undrar då om man får investera i Softbank eller Qualcom (eller annan tillverkare) när ARM som sagt är avregistrerade. Tror AMD kommer plana ut (eller redan har). De VAR starkt undervärderade, nu är kursen rätt hög. De är fortfarande mycket mindre än intel och nvidia.

FYI: AMD är inte sena på bollen om ryktet stämmer. Och kanske överger de sina egna kärnor i framtiden
https://www.guru3d.com/news-story/amd-ryzen-c7-for-smartphone...

Skrivet av SwedenVirre:

@Ase: Minns ärligtalat inte hela namnet på ljudkortet, är nått gammalt avid solo.

grejen är ju den att jag prövat med ett varierande antal burkar med samma ljudkort. än sålänge har 3900x som sagt varit bäst. näst bäst var 6700K, 1700(även 1900x), 2700 var sådär men x299 burken strulade mycket, iaf när det kom till DAW.

Beror jättemycket på ljudkort. Har tidigare haft problem med billiga USB2 ljudkort trots ASIO stöd. Kan rekommendera MOTU.
Själv kör jag en mixer med Firewire ljudkort just nu, funkar toppen.

Skrivet av _Merc_:

Är det bara jag som får känningar av att ett nytt säkerhetshål är på väg att patchas med enorma prestanda förluster?

Jaha... Då är det bara att vänta

Skrivet av Herr Kantarell:

Jag är intresserad av att investera pengar i ARM men undrar då om man får investera i Softbank eller Qualcom (eller annan tillverkare) när ARM som sagt är avregistrerade. Tror AMD kommer plana ut (eller redan har). De VAR starkt undervärderade, nu är kursen rätt hög. De är fortfarande mycket mindre än intel och nvidia.

FYI: AMD är inte sena på bollen om ryktet stämmer. Och kanske överger de sina egna kärnor i framtiden
https://www.guru3d.com/news-story/amd-ryzen-c7-for-smartphone...

AMD har länge byggt ARM cpuer, Opteron A1100 serien är ARM för server så det är inte så konstigt om de breddar sig inom ARM.

Personligen skiter jag i syntetiska tester. Skippar ofta dessa sidor i tester. För mig är det mer intressant med, hur lång tid det tar att exportera bilder, kryptera data, FPS i spel etc. Finns techtubers som har mer syntetiska tester än riktiga applicationstester vilket känne lite "meh"

Å andra sidan tycker jag att vi bör fokusera ganska ordentligt på vad benchmarkresultaten (blink blink, med hela sanningen nu) egentligen förmedlar, och vad vi som konsument och allmän informationsförmedlare egentligen kan bidra med i det här.

Ingen shifting focus, inget "inte detta", utan just här och nu.

Skrivet av mrqaffe:

Jo visst gör det det men Gemeran är nog skapligt rustad för att hantera turbo V8or i vilket fall...
All-wheel drive, all-wheel torque vectoring, and all-wheel steering
That is why the Gemera has 3500 Nm of torque from standstill and why it can accelerate from 0-400 km/h in a single gear. power output of the Gemera is 1700 bhp or 1.27 MW.

Nåja, vi lär få se benchmarks på Gemeran i vart fall, jag tror den kommer att stå sig bra mot alla andra gatlegala bilar, tekniken har gått framåt och nån Intelchef kanske faktiskt beställer en

Men låter som en dildo..

Har min slöa V8 för jag har inga problem med storleken på min penis och att V8 låter fint jämfört med inline motorer, sen att 5.2L drar mindre än valfri Volvo med tråkig motor är en annan sak.
Perfekt pendlarbil, Greta får kanske högt blodtryck på sin rosa enhörning..

Inget pik eller vill verka båthuve, men det är ljudet av motorn, inte kompensera pitten eller så med fart.

Annars duger Passat

Skrivet av quattro-2.6:

Men låter som en dildo..

Har min slöa V8 för jag har inga problem med storleken på min penis och att V8 låter fint jämfört med inline motorer, sen att 5.2L drar mindre än valfri Volvo med tråkig motor är en annan sak.
Perfekt pendlarbil, Greta får kanske högt blodtryck på sin rosa enhörning..

Inget pik eller vill verka båthuve, men det är ljudet av motorn, inte kompensera pitten eller så med fart.

Annars duger Passat

Vi får väl se hur det blir med ljudet och Christian kommenterar själv ljudet så här

Skrivet av quattro-2.6:

Men låter som en dildo..

Har min slöa V8 för jag har inga problem med storleken på min penis och att V8 låter fint jämfört med inline motorer, sen att 5.2L drar mindre än valfri Volvo med tråkig motor är en annan sak.
Perfekt pendlarbil, Greta får kanske högt blodtryck på sin rosa enhörning..

Inget pik eller vill verka båthuve, men det är ljudet av motorn, inte kompensera pitten eller så med fart.

Annars duger Passat

Mindervärdeskomplexet verkar mer vara att man ska kompensera med högt motorljud än att det nödvändigtvis ska gå fort.

Skrivet av anders190:

Mindervärdeskomplexet verkar mer vara att man ska kompensera med högt motorljud än att det nödvändigtvis ska gå fort.

Den lär gå snabbt nog för de flesta, 400+ och 0-100 på 1,9 Sekunder så man kan sprinta lite inne i stan vid rödljusen och den har isofix fästen för barnstolar så det är ju en perfekt bil för att köra barnen till dagis.

@anders190: Tack!

Ingen av dom båda Core Duo/Core 2 Duo var dåliga, utan fyllde sitt syfte i varsitt sammanhang.
Core Duo i bärbart och Core 2 Duo på desktop.

Tror han läste min kommentar om Itanium och på något sätt tog det som Core Duo, kanske...

Förresten, på din kommentar:
Mindervärdeskomplexet verkar mer vara att man ska kompensera med högt motorljud än att det nödvändigtvis ska gå fort.

Det kan vara både och, man får köra som f...n för att slippa undan oljudet

Oavsett, jag fick ett gott skratt

Så tack än en gång

det är bara en tidsfråga till Intel kommer också säga att spelprestandaden är ju igentligen inget viktig heller då dem flesta av deras kunder inte använder deras produkter till det. skulle jag gissa så är det väl om 1 eller 2 generationer när dem tappa även den fördelen.

Oj då, rädd för att jämföras? Ifall jag vill ha en processor som är vass för spel så är det väl sådana tester som visar tydligast vilken som är bäst för mig? Där kan ju branschen med fördel hjälpa till också genom att gå ut med vilken som lämpar sig bäst för olika ändamål istället för bara: ”tadaaa! Här-rörelsen vår allra nyaste,världsbästa och dyraste processor!”

När blev det ett problem liksom?

*uppmaning*

Kom igen, bilar är ju trevligt såklart men det är bättre vi kör det snacket i en egen tråd