Inlägg

Inlägg som Yoshman har skrivit i forumet
Av Yoshman

AMD lanserar en ny ARM64 baserad systemkrets för "AI", Versal Gen 2.

https://community.amd.com/t5/image/serverpage/image-id/108407i60...

https://community.amd.com/t5/adaptive-computing/amd-enables-s...
https://www.phoronix.com/news/AMD-Versal-Gen-2-Adaptive-SoC
https://wccftech.com/amd-releases-versal-gen-2-adaptive-socs-...

Kretsen består av 8 st Arm Cortex A78AE kärnor (för beräkningar och "vanliga" program) samt 10 st Arm Cortex R52 kärnor för realtids-funktioner.

Delen som kanske är lite förvånande är att GPU-delen är Arm Mali G78AE, inte Radeon. Så med andra ord har man inga planer att köra Windows på denna, utan hålla sig till Linux (Arm Mali har inte fullt stöd för DX12).

Av Yoshman
Skrivet av zetruz:

Den påstådda läckan sade ju inte bara att de "utvärderat" ARM64, utan rätt och slätt inte ännu har bestämt sig för om de ska köra x86-64 (via Zen 6) eller ARM64. Länkklick!
Sedan vet jag inte hur trovärdig läckan är, men jag tycker det är viktigt att påpeka att det i den påstådda läckan presenterades som en diskussion utan förutfattad slutsats. Sedan kan det ju finnas väldigt starka krafter som i praktiken redan har bestämt sig, och man kan ju argumentera för att en sådan indikation är att man redan har den processorn bestämd (tillverkare och generation). Man kan väl alltid hoppas.

Man får hoppas

Skrivet av JonHolstein:

Det där ser inte helt övertygande ut.
För det beror ju helt på hur kärnorna presterar, och hur systemet kan dra nytta av det.
Inom musikproduktion i alla fall, så verkar det inte som själva musikmjukvarorna kan nyttja kombinationen av prestanda och effektivitetskärnor, även med Apples egna logic, så använda typ inte effektivitetskärnorna alls. Jag vet inte om det är skillnad i windows. Om dom har högre prestanda per Watt mot Apples M pro-serie, så oroar jag mig för konfigurationen av kärnor. För det känns osannolikt att dom slår Apple när det gäller prestanda per watt på prestandakärnorna, vilket i så fall antyder att den där jämförelsen är baserad på en konfiguration med färre prestandakärnor, vilket alltså kan vara förödande för real-world prestanda.

Här kanske ändå Qualcomm tänkt till. Windows verkar fortfarande inte var helt övertygande i dess hantering av asymmetriska CPUer, även om det blivit mycket bättre med Windows 11.

Snapdragon X Elite överraskade lite i att den faktisk bara har "prestandakärnor", specifikt 12 st. Så ur den aspekten lär inte Windows ha något problem med designen. Den har ju inte ens SMT, vilket i viss mån är en form av asymmetri.

Och angående Apple: MacOS verkar prioritera de små kärnor hårt till att köra bakgrundsuppgifter, medan det man kör i förgrunden nästan uteslutande går på de snabba kärnorna. Nog helt helt rätt prioriterat på en bärbar dator, men precis som Intels E-kärnor är Apple E-kärnor faktiskt rätt snabba så de ger ett värdefullt tillskott till t.ex. kompilering på de enklare modellerna med 4+4 konfiguration (mindre viktigt på Pro/Max som har 8+2, 10+4 och 12+4).

Av Yoshman
Skrivet av EntropyQ3:

När de inte ens i sin egen pre-release propaganda säger något om energieffektiviteten, så är det naturligt att gissa att den inte är på samma nivå som Apples produkter. Det är ju den som tillåter den attraktiva kombinationen av god prestanda också vid batteridrift, nätta mått och vikt, och bra batterilivslängd.
En 14900KS är också snabbare än en M3. Det är liksom inte vad det handlar om i segmentet.

Qualcomm hade event i NY för press och influensers, där visade man några begränsade energieffektivitetssiffror

https://cdn.sweclockers.com/forum/bild/25166?l=eyJyZXNvdXJjZSI6I...

Ser ut som M3 kommer vara perf/W kungen. Positiva ändå är att Snapdragon X Elite (vid 23 W TDP) är mer jämförbar med M3 Pro i MT prestanda och den verkar även matcha M3 Pro i perf/W.

Problemet för Qualcomm är att M3 serien har bättre ST-prestanda (och ST är och lär förbli långt viktigare än MT på desktop). Vidare ligger GPU hos Snapdragon X Elite på M3 nivå, M3 Pro är ju ungefär dubbelt så snabb GPU-mässigt.

"Killer Feature" hos Snapdragon X Elite verkar i det korta loppet vara AI. Dess NPU är långt snabbare än Apples, AMDs och Intels. NY-eventet visade också att Qualcomm verkar jobbat hårt med att också utnyttja denna NPU i program som Davinci Resolve, man visade något ljudstudio program (har noll koll på den branchen, så säger mig inget) och även lokala LLMs (sista är helt klart vettigt, LLMs är användbara i programutveckling men många företag lär inte vilja köra molntjänster för detta utan hålla informationen lokalt, det för att inte läcka IP).

GPU i M3 Pro/Max och dGPUer har bättre AI-prestanda, men dessa NPUer är långt mer energieffektiva och passar därför bärbara bättre.

Av Yoshman

"50 procent snabbare än virtuella maskiner på x86-processorer med 60 procent lägre strömförbrukning"

Vad hjälper det? Ska man gå på vissa inlägg här står och faller större delen av industrisverige med programvara skivet för 16/32-bit x86 som av någon anledning inte kan emuleras på en modern miniräknare

Seriöst: funderar lite på vad som händer med Ampere Computing (som är grundat av flera som tidigare jobbat på Intel). Amazon designade sin egen ARM64 baserad Graviton-serie från start, medan Google, Microsoft och Oracle alla valde Ampere Altra för deras första generation ARM64 instanser (och de tester som gjordes visade på att de stod sig väldigt väl mot Graviton).

Nu ser det ut som både Microsoft och Google väljer samma väg som Amazon, så uppförsbacke för Ampere. Ampere Computing är egentligen de enda som gjort de vissa här på SweC frågat efter i andra trådar: en desktop lösning med vanliga PCIe-platser. Den man gjorde var dock riktad som lokal dator för de som utvecklar molntjänster mer än något som var vettig som hemdator.

Av Yoshman
Skrivet av dlq84:

Det är tveksamt alltså. Vilken GPU skulle de integrera? AMD är ju perfekt för dem eftersom de kan få både snabb CPU och GPU från samma tillverkare i ett paket.

Finns inget som hindrar att man fortsätter med AMDs GPUer. Både Microsoft och Nintendo har ju använt AMD/ATI GPU ihop med PowerPC, Samsung använder RDNA i de två senaste generationerna av Exynos ihop med just ARM64.

Men tror tyvärr det blir en generation till konsoler med x86_64, rimligen har de redan kommit en bit på vägen och lär inte vara gratis att göra större förändringar i HW när man passerat planeringsstadiet. Annars är konsoler ett bra exempel på där man får fin utväxling på en CPU med betydligt högre perf/W, mer effekt kan skickas till GPU med för samma CPU-prestanda.

Finns i.o.f.s. rykten att Microsoft utvärderat ARM64 för nästa generation, men ska man tro ryktena där är kanske första frågan om det överhuvudtaget blir någon mer Xbox.

Av Yoshman
Skrivet av Zero Cool:

Är inte Apple silicon också ARM?

För att vara specifik: Arm har två separata instruktionsuppsättning idag.

Dels den "gamla" 32-bit ISA, var den Microsoft försökte med i deras Windows RT satsning. Finns en del trevliga egenskaper med denna ISA, en är att den kan ge otroligt kompakt kod och är rätt enkelt, vilket gör den populär för t.ex. mikrokontrollers.

Ett stort problem ed 32-bit Arm är att det som gör den väldigt kompakt också visade sig vara ett stort problem om man ville bygga moderna högpresterande "breda" mikroarkitekturer. Betydligt värre än x86!!!

2010 lanserade Arm en ny ISA: ARM64 (Aarch64). Den har visat sig vara en nära nog perfekt match till dagens krav från kompilatorer, etc. Vilket är en viktig orsak till varför Arm, Apple och nu Qualcomm kan bygga ARM64 CPUer som presterar långt bättre än x86_64 vid samma frekvens.

Det är två helt separata instruktionsuppsättnignar, inte en utökning till 64-bit som de flesta ändra, inkusive x86_64, är.

Apple Silicon, Qualcomm Snapdragon X Elite och även Arms aktuella Cortex A och Cortex X serier är alla ARM64-only.

Av Yoshman
Skrivet av Dinkefing:

Tror det är ett betydligt utgångsläge än 2012 för Windows RT och 2017 när Windows 10 lanserades med ARM-stöd men det kommer gå segt väldigt segt. De flesta stannar nog kvar på x86 för bakåtkompatibliteten och att de flesta program redan finns till x86. Nu tror jag Yoshman kommer hoppa in och förklara att så inte är fallet men jag tror jag har rätt.

Det är nog inte många utvecklare som orkar gå in och koda nya versioner bara för att Qualcomm släpper begränsade bärbara med deras egna chip.

Hej, eftersom du tydligen så gärna vill ha min åsikt här

Objektivt sett finns inte de flesta program till x86. Det har under många år sålts ungefär 100 Arm CPUer per x86 CPU, de flesta program finns på andra plattformar än Windows. Ca 300 miljoner x86 CPUer per år, strax under 30 miljarder Arm CPUer per år.

Däremot körs absolut de flesta Windows-program på x86, och det kommer troligen att fortsätta vara så under lång tid.

Det är inte alls säkert att ARM64 kommer att bli en succé på Windows, både Qualcomm kan förstöra det (genom för höga priser, dåliga drivrutiner, inte tillräckligt bra roadmap framåt, etc) och Microsoft (“marknaden” måste verkligen känna att Microsoft går all-in).

Det som talar för att i alla fall Microsoft kommer att göra sin del är att de själva satsar hårt på ARM64, de har flera egna server-designer som är ARM64-baserade. Efter mer snack än verkstad har de nu också fixat riktigt bra ARM64-stöd i .NET, Visual Studio, MS Office etc.

Många på SweC använder sin dator primärt för spel. Snapdragon X Elite verkar vara marginellt bättre än Intels/AMDs iGPUer för detta, d.v.s. knappast någon spelplattform. Vi får se om det finns någon sanning bakom att Nvidia ska släppa sin egen ARM64 CPU 2025, men de ska ju också ge sig på desktop (deras nuvarande ARM64-plattformar är ju bara för server, Grace, och inbyggda system, Tegra och använder Arms CPU med Nvidias GPU).

För 20 år sedan var det betydligt svårare att flytta program mellan CPU-arkitekturer, av en rad olika tekniska orsaker. Nästan ingen av dessa tekniska orsaker finns längre kvar idag, det är helt trivialt att stödja flera CPU-arkitekturer med allt som är skrivet i “moderna” språk/ramverk. Spelmotorer som UE5/Unity stödjer redan ARM64, så inget problem där heller.

Skrivet av Det Otroliga Åbäket:

Kan de landa på ett pris under Air också, utan för stora kompromisser - och om man kan köra annat än Windows på dem- så kommer jag definitivt vara intresserad av att komplettera med en sådan.

Jag håller med. Är inte primärt en MacOS-användare, har totalt sett använt Linux på skrivbordet betydligt längre än MacOS. Jag vill bara ha ett bra *NIX-system.

Qualcomm har inte sagt mycket om Linux, men de har nämnt att det ska finnas bra stöd för Snapdragon X Elite på Linux. Min gissning är att det, åtminstone initialt, i praktiken kommer att handla om bra stöd för WSL2 i Windows. Om Apple går helt crazy på något sätt med MacOS/M-serien, är WSL2 OK för mig, så jag kan absolut tänka mig en Windows-laptop framöver.

Att något annat än MacOS har känts otänkbart sedan hösten 2020 beror specifikt på att Apples M-serie är så löjligt mycket bättre än vad Intel/AMD har att erbjuda. Så just nu skulle jag i praktiken vilja få betalt för att använda en x86-baserad laptop…

Därför är jag väldigt entusiastisk över Snapdragon X Elite, detta trots att Qualcomm flera gånger har visat att de inte är det enklaste företaget att ha att göra med. Men om denna lansering går bra kommer det inom ett par år att finnas ett gäng ARM64 CPU-tillverkare att välja mellan. Ryktet säger att ARM Cortex X5 också ska prestera som high-end på skrivbordet (den bör lanseras i april/maj, vilket är när Arm brukar ha sin årliga uppdatering). Redan Cortex X4 har bättre ISO-frekvensprestanda än något från Intel/AMD, men den kan inte klockas högre än 3,2-3,3 GHz någonstans.

Av Yoshman
Skrivet av mar3ld:

Jag är Mac-användare och instämmer. Det är sån bullshit att Mac klarar sig med mindre än t ex Windows vid samma arbetsuppgift. Tycker synd om de som låter sig luras då det inte går att uppgradera RAM i Mac-datorerna.

Hantera din speldator hur du vill, kunde inte bry mig mindre om du fick blåskärmar eller annan instabilitet. Hantera en företagsserver med data värt 20 miljoner utan ESD-band bl a och du får räkna med att bli kortvarig i branschen däremot.

Lösenordshanterare är bra för oss som hanterar många, naturligtvis starka och unika, lösenord. Förstår inte vad du vill säga.

Som @ROGBear skrev det

"Macar är så minneseffektiva, 8 GB RAM motsvarar 16-32 GB RAM hos en PC!"

så är det det en myt, om nu någon någonsin sagt detta (jag har då aldrig hört någon påstå att det mer än fördubblar effektiv RAM-användning).

Det som ändå stämmer är att MacOS faktiskt har en fungerande komprimering av RAM. Win10 har också komprimering av RAM, men inte ens Microsoft verkar påstå att det fungerar väl, ska vara förbättrat i Win11.

Vad minneskomprimeringen realistiskt kan åstadkomma beror kraftigt på typ av last. För bildhandling, om det är det enda som äter all RAM så hjälper det inte alls då RAM i praktiken består av data som används aktivt hela tiden och lär vara rätt hopplöst att komprimera.

I ett mer typiskt användarscenario med ett par öppna program så kommer man inte heller göra så att 8 GB motsvarar 16 GB, och definitivt inte 32 GB. Mer realistiskt är att man får kanske 20-50 % högre effektiv användning.

Det senare kan jag själv skriva under på. Har två bärbara med 32 GB RAM, en med Windows 10 och en med MacOS. När båda kör samma last, programutveckling med IntelliJ, docker-desktop, databaser, etc så får Win10 datorn ibland grava problem med RAM (i bästa fall bara långsam, i värsta fall kraschar saker) och trots det används minneskomprimering knappt alls i Win10. MacOS datorn får en viss prestandaförsämring när dem måste börja förlita sig på RAM-komprimering, men det är en relativt liten skillnad (och MacOS använder RAM-komprimering rätt aggressivt i det läget).

Så handlar inte om att MacOS-program skulle vara mer minneseffektiva, är ju rätt mycket samma kod som körs oavsett här + att so m körs i Docker är ju Linux-program i båda fallen. Handlar om att MacOS har en fungerande implementation av minneskomprimering, något Windows 10 i praktiken saknar (men ska som sagt vara bättre i Win11, har inte testat det).

Av Yoshman
Skrivet av 0cool:

"Fuel tank" listas exempelvis som en monteringspunkt för ICE jämförbar med "Battery pack" för en BEV. I dag finns det automater som byter batteri i en elbil på 5 minuter utan att en människa behöver göra något. Om bränsletanken i en ICE kan monteras utan människor skall jag låta vara osagt men den har ju packningar, pumpar, skall anslutas till diverse rör etc så jag är tveksam? Att "cooling tubes" vore något man bara behöver i en BEV känns också konstigt. Det känns lite som att man har velat komma fram till att det är samma antal "grejor som skall göras" och satt etiketter på moment tills det blev samma.

Ett modernt EV-batteri lär ju ha minst 4 kablar, dels högspänning och dels cellövervakningen (som typiskt använder en isoSPI-slinga, så två kablar elektroniken tar sedan ström direkt från battericellerna som övervakas) och slutligen anslutning för vätskekylning. Gissar att den sista är det som kallas "cooling tubes".

En "fuel tank" har bränsleledningen, påfyllning och tre kablar (Vcc, jord och bränslenivå). That's in, för pumpen sitter redan monterad inne i tanken.

Så båda är väldigt enklare ur "sätta dit" aspekten, men en tom bensintank är något man kan själv kan hålla på plats medan man skruvar dit den medan EV-batteri väger ett par hundra kilo. Så även när det görs med robot handlar det om en långt enklare robot för en bränsletank.

Just vikten lär dra upp kostnaden för EV, allt relaterat till hjulupphängning måste vara kraftigare (och därmed dyrare). Även om EV primärt använder regen vid inbromsning antar jag att säkerhetsföreskrifter fortfarande kräver att bromsar är dimensionerade för att själva kunna stoppa fordonet, så större skivor och dyrare/mer avancerade ok/belägg.

Klicka för mer information

Rent generellt är bilar förvånansvärt enkla i sin design, så nu när jag lärt mig byta det mesta själv känner man sig rätt blåst efter att för många år sedan betalat ett gäng tusenlappar för byte av bromsok/skivor, något som man kan göra själv på uppfarten på 1-1,5 timme...

Visa mer
Av Yoshman
Skrivet av Dyluck:

Jag tackar och bockar för dina utförda prestandatester.

Är faktiskt förvånad att det fungerar så bra som det gör, https://developer.apple.com/documentation/apple-silicon/about... så står det dom inte översätter AVX*-kod, men kan faktiskt vara så att spelen i större grad nöjer sig med SSE.
SSE register får plats i dom som ARM64 Neon använder, så möjligt det går översätta flesta instruktioner direkt.

Gissar nu, men spelen som inte starar är nog pga AVX. Så vore supernajs om Snapdragon X Elite startar med 256bit registerbredd bredd ist för 128bit som Apple chippen.

Det som avgör om det ens finns 256-bit register eller ej är om Oryon implementerar ARMv8 eller ARMv9. SVE, eller mer specifikt SVE2 då SVE är en valfri utökning till ARMv8 som väldigt få implementerat utanför HPC, blir det fullt möjligt då SVE är otroligt flexibelt och tillåter allt från 128-bit register till 2048-bit register i steg om 128-bitar (är sedan valfritt för mikroarkitektur att välja fysisk bredd, Cortex X4 kör med 128-bit vilket nog är vettig för konsumentprodukter).

Länge undvek spel AVX då många CPU-modeller, framförallt Intels, tenderade att klocka lägre när AVX-enheter användes och mycket nytta har inte spel av 256-bitar. Tvivlar att spel som använder AVX egentligen använder 256-bit AVX, utan de kör de bättre instruktionerna i AVX fast i 128-bitars bredd.

Intel tar ju detta ännu ett steg med AVX10 som kommer i höst. Där har man även alla instruktioner från AVX-512, men konsumentmodellerna kommer bara ha 256-bit register. Vilket inte är exakt samma som Zen4, den har 512-bit register men får hantera dessa genom att köra två varv då mikroarkitekturen är 256-bitar. AVX är en hyfsad soppa, enda positiva är att Intel har lyckats väldigt bra att gömma mycket av komplexiteten i deras OneAPI och ISPC-kompilator (Unreal Engine använder just ISPC för att SIMD optimera saker som fysik).

Är just ett bra frikopplande mellan fysisk bredd och logisk bredd som SVE fått till mycket bättre än AVX/AVX-512. I den senare måste man vid kompileringstillfället sätta bredd, SVE genererar kod där samma instruktioner kan dynamiskt anpassa sig efter underliggande CPUs fysiska bredd.

Just fysik passar bra på 128-bit. Man kör 32-bit flyttal, 3 dimensioner och typiskt med homogena koordinater -> 4 st 32-bit beskriver varje punkt -> en punkt per 128 bitars register.

Vad både Arm och Apple valt att göra är att ha 4 st kompletta flyttals pipelines som. Intel/AMD har istället valt 2 st 256-bitars FMA (bara Intel Xeon som har 2 st 512-bitars FMAs) samt ett par pipelines som gör rätt specifika saker. Finns fördelar med båda, men tittar man på SPECfp verkar flera 128-bitars fungera bättre då Apples CPU står sig väldigt bra där.

Det som talar för att Qualcomm "nöjer" sig med ARMv8 är kanske att då Apple är kvar där finns inte en jättestort push att SVE2 optimera bibliotek. Det som talar för ARMv9 är att Arms Cortex X serie haft det i två generationer nu och det verkar komma laptop-baserade kretsar från andra tillverkare baserad på dessa.

Av Yoshman
Skrivet av Dinkefing:

Jag tror de visar en av sina 23W varianter och jämför dem. Deras 80W varianter kommer inte vara lika bra med prestanda/energi.

Personen som driver "Just Josh", fokuserad på tester av bärbara datorer, var med på det event i NY som också TomsHardware deltog i.

I videon finns Joshs och även Maxs (från MaxTech) jämförelser på lite olika saker.

Summeringen är

Detta är definitivt ingen gaming krets. Även om det går att spela vissa spel på AMD 780M och Intel Xe Graphics, två GPU-kretsar GPUn i Snapdragon X verkar klå, men med rätt liten marginal, så handlar det då om gamla titlar eller absolut lägsta tänkbara inställningar.

Det som riktigt står ut prestandamässigt är NPU och Qualcomm verkar ha jobbat en hel del med program som Davinci Resolve, en del LLMs och vissa ljudprogram/plugins så de utnyttjar NPU. Prestandamässigt verkar den NPUn prestera 2-3 gånger bättre än motsvarande GPU-accelererat med AMDs/Intels/Qualcomms/Apples iGPUer (i Apples fall då instegesvarianten av M2/M3). Det med väldigt låg effekt, så en annan video som hävdar att NPUn i Snapdragon X har 10-20 gånger bättre perf/W jämfört med att göra samma sak på en Intel Meteorlake CPU.

Att 23 W är "standardeffekt" verkar inte vara helt slumpmässigt, det är tydligen var Apple M2/M3 ligger och ställd mot dessa presterar Oryon klart bättre i MT (den ligger helt i nivå med Apple M3 Pro som drar 35-45 W).

Vid 80 W presterar Oryon väldigt snarlikt ST, MT är högre men typ bara 20-30 % högre. Så mycket sämre perf/W där.

Har inte mycket till övers för CB som prestandamätare, men är tyvärr den info som finns tillgänglig.

Skrivet av evil penguin:

Har Qualcomm faktiskt sagt något om "systemkretsar" öht?

För om vi nu snöar in på det specifika ordvalet i Sweclockers rubrik så undrar jag verkligen om jag bara missat något. Rubriken förefaller ju utifrån vad jag sett vara helt och hållet skapad och signerad av Sweclockers, inte Qualcomm, trots att den utger sig för att vara någon form av citat.

Sedan är det ju så att Qualcomm mycket riktigt jämför med mobilkretsar från Intel och AMD och kallar sin skapelse för "best-in-class CPU", så jag tror ju det snarast är detta man får ta fasta på sett till vad Qualcomm faktiskt hävdat...

"Klassen" verkar ju lämnas opreciserad i vad de visat, men baserat på jämförelsen får man kanske anta att den är något i stil med "CPUer att stoppa i Windows-laptops"? På det viset blir de ju snabbt och enkelt av med Apple-problemet också.

Så är det nog. Såg en video där Qualcomm visade upp deras NPU-prestanda och där var ju alla jämförelser ställda mot andra tunna/kompakta bärbara, så är rimligen det man refererar till när man säger "vi presterar bäst". Håller man sig sedan till tillräckligt låg effekt verkar de ju faktiskt bättre än Apple också, i MT (i ST vinner Apple oavsett).

Skrivet av Snabbt_o_Hårt:

en Intel I 3 10100 ligger ju på 5504 poäng ARM slagen av överklockning håll dig till prestanda per W

"Oryon når inte M3, men en CPU för ultratunn dator slår det bästa Intel/AMD har att erbjuda ens för stationära just nu." var är alla dessa CPU i överklockining??? vad är en stationär dator på forumet sweclockers, något som de kan visa prestanda från en dator från Elgiganten eller en dator från forumet som kan nå upp till betydligt högre överklocknings prestanda?

Gissar att du försöker vara lustig med länken, men om inte: du tror inte någon som slagit alla tiders överklockningsresultat och framförallt brutit 10 GHz barriären, så skulle det kanske nämnts t.ex. här på SweC?

Om det är något Geekbench inte kan användas till så är det "tävla i resultat med överklockade datorer". Det är relativt enkelt att skapa orimligt höga resultat i GB p.g.a. hur de räknar ut resultatet från timers.

Bästa sättet att använda GB är att kolla på tester hos Notebookcheck eller SweC där man kan utgå från att testerna är gjorda på ett korrekt sätt (d.v.s. utan att försöka "fuska" sig till höga poäng).

Av Yoshman
Skrivet av lillaankan_i_dammen:

Ett problem med uttalande om den snabbaste är svårt att ha det inom alla klasser. Alltifrån den billiga ultraportabla, till den mest extrema workststationen. Många tester idag kan liknas att man kör sin lilla 3.5tons grävmaskin och imponerar hur otroligt snabbt kan kan köra fram och tillbaka, hur snabbt skopan kan röra sig etc. Sedan säger man att denna 3.5tons grävmaskin är den snabbaste grävmaskinen som finns och den utklassar alla 50tons grävare i råprestanda.

Med det sagt de snabbaste persondatorerna idag är ofta för klena för stora laster som tekniker kör på sina persondatorer och det blir lite ironi över det hela att den både är snabbast och för klen för att utföra jobbet.

För vanligt folk är det dock intressant vad de får för pengarna. Jag själv skulle aldrig lägga mig över 50 000kr på en desktop, i denna budget ligger x86 bra till. Förhoppningsvis får de mer konkurrens av Qualcomm om nu operativsystemet till dem får lite bättre programutbud.
Det stora problemet jag har med Apple är att det blir så inih-lvete fort dyrt. Jag har inget emot att få en M3 max att jobba vid, jag har dock problem med att själv lägga ut pengarna.

De säger faktiskt bara "våra systemkretsar är snabbare än alla andras [systemkretsar]". Intel/AMD använder bara systemkretsar i kompakta laptops, stationära samt de "släpbara stationära" laptop:sen använder inte systemkretsar. Är väl återigen Apple där uttalandet stämmer sämst då de kör med systemkretsar även i deras Mac Studio serie.

Sen är M3 Max verkligen dyr om du faktiskt har nytta vad det plattformen erbjuder? Vilken annan tillverkare har en GPU med upp till 128 GB minne söder om 200k SEK? Definitivt inget normalanvändaren behöver, men du brukar ju lyfta fall som mikroskopisk del av marknaden har någon som helst nytta av.

För vissa AI fall är M3 Max just nu extremt prisvärd, trots att 128 GB versionen startar på ca 65k SEK.

Just det är en marknad Qualcomm faktiskt bör undvika givet att de primärt siktar in sig på Windows-marknaden. De mest använda ramverken, PyTorch och Tensoflow, presterar väsentligt sämre på Windows jämfört med Linux och MacOS och "ingen" verkar bry sig tillräckligt för att fixa det. I.e. det är inte en viktig marknad om man siktar på Windows.

Av Yoshman
Skrivet av Ikariwarrior:

Absolut, så länge det faller inom garantitiden/villkoren.
Det finns alltid undantag, men som jag förstått det räknar exempelvis Tesla att deras batteri har 85% kvar efter 32000 mil. Sen om det är många mil får var och en bestämma.

https://www.dagensps.se/motor/sa-mar-teslas-batterier-efter-3...

Tror att det man ska ta med sig är detta från artikeln

"Rapporten nämner att en bil från det amerikanska märket kommer ungefär 32 000 mil innan de måste skrotas på den amerikanska marknaden. Vi har dock tidigare rapporterat om en Tesla Model S som gått över 68 000 mil i USA. I Europa är den siffran lägre – 24 000 mil – eftersom européer i regel kör kortare än sina amerikanska motsvarigheter."

Hur långt man kan köra med en modern bil är i praktiken irrelevant för nästan alla, den går "tillräckligt långt".

Det som inte alls nämns i artikeln är att genomsnittlig livslängd för en bil är betydligt mer lika i Europa och USA, d.v.s. det som primärt verkar "döda" en bil är slitage från ålder. Det är extra sant på platser där vi har vinter och rost blir det som ställer till det. Bilar finns typiskt 15-20 år.

Och om saker som V2G ska kunna få något vettigt genomslag måste vi komma till en punkt där livslängden på batteriet från enbart körning av bilen är ett icke-problem. Hur skulle det annars vara rationellt att använda en teknik som V2G???

Av Yoshman

Amiga hade speciell HW som möjliggjorde multitasking medan konkurrenten Atari ST saknade sådan HW. Det handlade enbart om design av programvaran (proof: innan Linux droppade stödet för mk68k kunde man köra det på alla datorer med 68k+MMU).

Däremot hade Amigan HW-acceleration för flera saker som Atari ST saknade!

En annan är Amdahls lag bara är ett problem p.g.a. av "lata programmerare". Om det faktiskt vore sant skulle 8 st 4 GHz CPUer verkligen vara identiskt en CPU på 32 GHz! Amdahls lag, är tyvärr en "riktig" lag, inte bara en observation som Moores "lag".

Av Yoshman
Skrivet av Dinkefing:

Står det något om vilken TDP Qualcomms variant är?

Vilken borde man testa mot? AMDs 7840H? Är de en 54W eller 60W variant?

Så gissar Qualcomms är en 30-35W variant?

De jämför givetvis mot dagens generation av konkurrenternas modeller som redan finns ute men AMD Phoenix släpptes i början av 2023. AMD eller rykten har hintat om 10-15% ökad IPC men det kommer givetvis bli lite mer än det. Så Elite X kommer möta både mobila AMD 9000-serien på Zen 5, toppmodellerna då alltså i höst/vinter och Intel Lunar Lake nästa år.

Några Elite X bärbara från OEM kommer vi nog inte se förrän höst tidigast.

"Standardmodellen" av Snapdragon X sägs ha en TDP på 23 W. Men spannet går till 80 W, så kommer vara upp till tillverkarna att göra avvägningen.

Både AMD och Intel har ju numera "configurable TDP". Du frågar om 7840H, Qualcomm jämför med 7840HS som har en "default TDP" på låga 35 W men när man tittar på datorer som Notebookcheck testat är uppmätt median-effekt på de datorer med krets på helt vansinniga 105 W.

Tyvärr verkar inte Notebookcheck gjort samma mätning hos "vanliga" M3, men de har gjort det för M3 Pro och den ligger på 45 W. Så tror man kan förutsätta att oavsett vad Intel/AMD släpper kommer de fortfarande inte vara nära vare sig Qualcomm eller Apple vad det gäller perf/W, men de kan helt klart nå Qualcomm i prestanda. Det hade varit så mycket värt för Qualcomm (och även för oss för det är dags att gå vidare från x86) om de fått ut produkter med Oryon i början av året istället för i mitten.

Vad det gäller tillgänglighet så förstår jag det som Snapdragon X har skeppats sedan flera månader tillbaka, något som inte är fallet för vare sig Intels eller AMDs nästa generation laptop CPUer (båda dessa förväntas börja skeppa dessa 2H 2024).

Finns indikation på att bl.a. nästa generation Surface produkter ska dyka upp i juni med Snapdragon X.

Skrivet av Det Otroliga Åbäket:

Här har vi en lista över spelbarhetsstatus för en rad spel på dagens Apple Silicon-baserade Appledatorer. En AArch64-baserad dator som kör Windows bör förhoppningsvis inte behöva API-shims som Wine/Crossover, och Microsoft har, vad jag förstått, varit rejält mycket mindre aggressiva i att rakt ut förbjuda 32-bits kod att gå på sina Windowsversioner för ARM, vilket är två begränsningar i hur bra icke-porterade spel kan fungera på en Mac. (Som du ser, är det en hel del titlar som fungerar om man kör Windows via Parallels men inte annars).

Glöm inte att speltillverkare också har möjlighet att kompilera sin egen kod för andra arkitekturer. Det är ju vad som gör att program baserade på öppen källkod tenderar att dyka upp kvickt på annat än x86/AMD64.
Få av speltillverkarna har valt att ta sig jobbet för macOS - det är ingen stor marknad för dem, vilket leder till ett moment-22 - men det är definitivt inte omöjligt att Windows på snabb ARM är mer motiverande för dem.

Apples GPUer har en utmaning i att de faktiskt inte stödjer DX12 på ett bra sätt. Är inte helt med på de exakta detaljerna, med finns saker i DX12 som inte är kompatibelt med HW som använder sig av tile-based deferred rendering, TBDR (vilket Apple och även Arms Mali gör). Däremot stödjer Vulkan TBDR, men är rätt få spel som använder Vulkan.

Qualcomm har sedan flera generationer en GPU-design som stödjer både TBDR och en traditionell modell, så den är fullt kompatibel med DX12. TBDR har fördelen att vara mer energieffektiv och bättre hantera låg bandbredd mot RAM, men den har problem med väldigt komplex geometri.

Tycker man rätt bra kan se fördelarna med TBDR på Apples GPUer, de är förvånansvärt bra på att köra de spel som ändå finns i väldig höga upplösningar. Men man ser också nackdelarna, att slå på väldigt höga inställningar kan snabbt döda prestanda, framförallt om man kör på lite klenare GPUer (men ser det även med 40-kärnors varianten av M3 Max).

Rätt coolt att spel som Apex Legends och Resident Evil 4 flyter otroligt väl i "native-upplösning" på 16" MBP, d.v.s. 3456x2234.

Snapdragon X Elite kommer inte ha mer än dual-channel mot RAM, men de har fördelen mot alla andra i att stödja den snabbaste DDR-standarden: LPDDR5x-8533 (så 136 GB/sec). AMD Hawk point (8xxx serien) klarar max LPDDR5x-7500 medan Intel Meteor Lake toppar på LPDDR5x-7467 (så dessa två ligger på ~120 GB/s). Apple M3 ligger på 100 GB/s medan M3 Pro har 150 GB/s (Max är 300 eller 400 GB/s beroende på variant).

Av Yoshman
Skrivet av medbor:

Tycker det är tydligt och förväntat att de inte når apples M3 per kärna, men fortfarande slår de x86 med besked i något som kan nå ’vanliga’ datorer… tror det kan bli något bra av detta

Kul att se skillnaderna mellan AMD/Intel i din tabell, AMD funkar nästan lika bra i laptops, Intel är flera mil efter!

i7-1370P ligger på 2590 ST i Clang-testet. Men då är man en generation efter AMD/Qualcomm i processteknik (som jag förstår det kommer Oryon använda TSMC "4nm" som i praktiken är deras 5nm+) och två generationer efter M3. Så perf/W blir därefter.

Intel har alltid haft problem med att behålla peak-frekvenserna när de går till en ny process. Meteor Lake är ett rejält kliv framåt i framförallt GPU (typ fördubbling mot generationen innan) men även perf/W ökades rejält. Däremot minskade ST prestanda en del mot generationen innan, Redwood Cove är tydligen rakt av Raptor Cove på Intel 4 + fördubblad L1I$ till 64 kB.

Att öka L1I$ ger inte så mycket på moderna x86, både Intel och AMD har rätt begränsad kapacitet i sin front-end och bra prestanda är beroende av bra uop-cache hit-rate. Får se hur stor L1I$ Oryon har, Apple använder inte uop-cache utan har en brutalt bred front-end och 192 kB L1I$. Tror det är en stor förklaring varför M-serien är så brutalt snabb på kompilering, det är en "elak" last med stort kodsegment-avtryck -> passar uop-cache rätt illa.

Enda från x86-lägret som jag personligen känner kan bli riktigt spännande att se är om ryktet kring att Lunar Lake kör TSMC 3nm även för CPU-kärnorna. Tror inte Intel har möjlighet att hänga med TSMC kring optimeringar relevanta för kretsar med väldigt låg effekt, de saknar helt enkelt skalfördelar som TSMC (och delvis Samsung) har i att tillverka miljarder high-end mobilkretsar varje år.

Tvivlar starkt på att det kommer räcka för att Lunar Lake ska slå Apple/Qualcomm i perf/W, men vore en väldigt intressant datapunkt både mot dem och mot AMD. Då är det verkligen mikroarkitektur mot mikroarkitektur på samma tillverkning (nästa generation Qualcomm CPU lär vara på 3 nm den också).

Av Yoshman
Skrivet av Aleshi:

Hr aldrig fått något bra svar på hur väl Geekbench-resultat motsvarar prestandan vid användande.

Geekbench fick, och förtjänade, massor av kritik i de första generationerna. Man lade allt för stor vikt vid saker som i praktiken spelade rätt liten roll. Ovanpå det var data som användes mindre på mobiler än på "vanliga" datorer, så jämförelser däremellan var helt värdelösa.

Idag är Geekbench för desktop/laptop vad SPEC är för servers. Definitivt inte det slutgiltiga svaret, men på det stora hela det mest heltäckande svar på "hur bra presterar denna CPU i genomsnitt över typiska program".

Det viktiga att förstå kring GB6 (gällde även GB5) är att man använder "riktigt" program och "riktiga" bibliotek i testerna, inte handhackade microbenchmarks. Det är nu också samma data på alla plattformar och samma binära resultat (så t.ex. kompilator-testet är inte snabbare på ARM64 för det är billigare att generera ARM64 assembler, så är det men i testet producerar samma binär oavsett ISA).

En stor fördel i GB6 är att MT resultaten nu är betydligt mer relevanta för "riktiga fall" jämfört med alla tidigare versioner. Fram till GB5 körde man i praktiken X antal enkeltrådade fall där X var lika med antalet CPU-trådar. I GB6 kör man ett program som försöker använda alla trådar, så skalningen med CPU-trådar är långt sämre i GB6 jämfört med tidigare (men man har ändå lite valt fall som skalar hyfsat väl med CPU-kärnor).

Totalsumman: säger en del, men kan bli ordentligt missvisande för specifika fall.

Intel och AMD har trots rätt olika mikroarkitektur, förvånansvärt likvärdig relativ prestanda i deltesterna. Så där är totalsumman rätt bra när man ställer Zen4 mot Golden Cove.

Däremot kan det skilja rätt mycket i specifika fall när man jämför olika generationer, t.ex. Golden Cove mot Skylake. Och det skiljer mycket på vissa fall när man ställer x86 mot ARM64. HTML5 och kompilering är något som verkar rejält föredra ARM64 medan ray-tracing och vissa bildbehandling fall (object remover testet) rejält föredrar x86_64.

Båda dessa tester använder bibliotek från Intel med väldigt bra optimering för AVX, svårt att säga om NEON är sämre eller om det bara är mindre optimerat men gissar på en kombo (NEON är på väg att ersättas av SVE på ARM64 sidan, allt jag läst om SVE är att det rätt mycket är AVX-512 "done right", Arms Cortex A/X serie stödjer redan SVE men Apple är kvar på ARMv8.x och därmed NEON, oklart om Oryon är ARMv8.x eller ARMv9.x).

Av Yoshman

Så "Qualcomm: Våra systemkretsar är snabbare än alla andras, om man inte tar med de kretsar som är snabbare..."

I det här läget tror jag man utan problem kan förutsätta att kompakta bärbara datorer baserad på Qualcomms kretsar kommer vara betydligt bättre än motsvarande baserade på Intel/AMD-kretsar. Är just detta ihop med att Apples HW är, utanför tekniker som Parallels (som ändå fungerar väldigt bra), inte är en konkurrent på Windows-sidan som Qualcomm måste bygga sitt budskap kring vid lansering.

Undrar om Qualcomm fått skruva ned peak-frekvensen på Oryon? För tycker de är lite oväntat långt efter M3 på den punkten när det pratades om att Oryon skulle ha peak-frekvens på 4,3 GHz (när max två kärnor är aktiva) medan M3 ligger på max 4,2 GHz. Givet vem som är chefsarkitekt för Oryon lär dess mikroarkitektur påminna om Apples en hel del.

Detta är M3 Max testat precis nu på min laptop, 3200 i ST är helt i nivå med de bästa Intel/AMD kan uppbringa på desktop-sidan och en bra bit över vad de kan erbjuda på deras bärbara.

Vad Qualcomm riktigt sätter fingret på här är hur utmanande det är att avgöra om part A vinner över part B för att den förra gör något riktigt bra eller om den andra mest haltar fram. På CPU-sidan finns en hel del tekniska förklaringar till varför det är svårt för x86-gänget att hänga med ARM64 designer, men på GPU-sidan finns egentligen inte någon sådan förklaring.

Om nu Qualcomms GPU presterar som de visar här blir Intels framfart på iGPU-sidan rätt mycket mindre imponerande. I så fall har de långt mer kommit ikapp AMD p.g.a. att den senare tappat koncepten än att Intel skulle gjort något utöver det väntande. Och alla dessa tre blir oavsett totalt överkörda av Apple Pro och Max GPU, så inte riktigt "snabbare än alla andras".

Framåt tror jag ändå man kan vänta sig en hel del. Är trots mannen bakom Apple Silicon CPU-designen som är chefsarkitekt för Qualcomms CPU-serie, skulle hävda att han tagit över Jim Kellers krona som bästa CPU-designer i världen just nu. När de presenterade Oryon nämndes flera gånger att de måste begränsa scope för att få ut en produkt, de har massor med prestandaförbättrande idéer för kommande generationer.

Och som något som primärt använder datorn för programutveckling: riktigt kul att se att även Oryon verkar prestera riktigt väl för kompilering ställd mot konkurenterna.

Kompilator-testet från GB6 (SPECInt har ett liknande som är baserat på GCC i stället för Clang/LLVM som för Apple/Intel/AMD visar samma sak)

Oryon, M3, i7-155H, 7940HS, i9-14900K, 7950X

CPU

ST

Oryon

3335

M3

3918

i7-155H

2305

7940HS

2686

i9-14900K

3090

7950X

2875

Oryon når inte M3, men en CPU för ultratunn dator slår det bästa Intel/AMD har att erbjuda ens för stationära just nu.

Av Yoshman
Skrivet av Ikariwarrior:

Det var väl en tämligen orelevant jämförelse, statligt subventionerat, tidsbegränsat erbjudande från förra året, där det bara handlar om att norpa till sig marknadsandelar, exempelvis som BYD gjorde i euroområdet där de gick back 7000 dollar på varje såld bil när de introducerades på eu marknaden.

Exempelvis sålde Ford 20962 elbilar i q3 till operativ kostnadsförlust på 1,3 biljoner dollar, förvisso räknar man det som en investeringskostnad för nästa generation av EV bilar. Tydligen har Hyundai motorgroup (Kia) lyckas få ner produktionskostnaden till 19000 dollar per bil, oklart vilken version. Det finns några få märken idag som producerar elbilar med hyfsad vinst, för resten handlar det nog mer om att inte förlora marknadsandelar.

Förlusten var 1,6 miljarder USD (eng. 1.3 billion USD) på kvartalet och en förlust på 4,7 miljarder USD på helåret för EVs.

"Ford Model e drove a 14% increase in wholesales in the quarter, a 2% increase in revenue and EBIT loss of $1.6
billion. For the year, wholesales were up 20%, revenue was up 12% and EBIT was a loss of $4.7 billion. Both the
quarter and year were impacted by challenging market dynamics and investments in next-generation vehicles,
both of which Jim addressed in his remarks."

Orsaken är mycket att den delen av Ford håller på med väldigt kraftig expansion. Det är inte produktionskostnaden som är så hög, det är "up-front" kostnader för att bygga nya produktionslinor.

Sen pekade man också på detta under presentationen av den rapport vi refererar till

"Ford CEO James Farley laid much of the blame for the losses on EV pricing - a known sticking point for consumers unwilling to pay thousands more for a vehicle while inflation is up and interest rates remain high "

BEVs har fortfarande en bit kvar innan de är billigare att tillverka än ICE. Titta på insidan av "riktiga" elbilar, de ser inte ut som en 150k SEK kina-bil sett till inredningen för att det är "modernt", utan för att man just nu gör allt man kan för att kapa kostnader för att kunna konkurrera med marknadsledare som Tesla, BYO etc som redan gjort dessa justeringar.

Kostnaden för batterier minskar, men som nämnts i tråden kostar fortfarande de absolut billigaste kina-batterierna med kapacitet lämpliga för en elbil över 10k USD och för en "bra" elbil typ Tesla är den kostaden ungefär det dubbla.

Sen givet att denna tråd ligger på SweC. Att utveckla programvara och tillhörande dator-HW för den nya generationen bilar är rejält dyrt. Positiva är att just det helt klart har en stor potential att se enorma skalfördelar på sikt, men just nu är det en gigantisk "up-front" kostnad.

Av Yoshman
Skrivet av dalu1976:

5G med Telia från fritidshuset i Söderhamn. Jag är väldigt nöjd.

<Uppladdad bildlänk>

Riktigt ok hastighet uppåt också. Får liknande ned.

Så finns 5G verkar det ge bra snurr. Detta med Telenor.