Inlägg

Inlägg som Yoshman har skrivit i forumet
Av Yoshman

Som redan nämnts i tråden, den typ av programmering som normalt görs på utbildningar är inte alls krävande.

Det som kan ställa till det är om man behöver köra färdigpaketerade containers, även då lär 8GB fungera men då kan det bli rejält tight. Om det handlar om spelutveckling: nej, då behövs definitivt mer RAM.

Utgår från att du vill köra Windows, men bara som referens så går det fortfarande att köpa MBA med M1 nya från 10 000 SEK. Kollade snabbt benchmarks för kompilering, en M1 är lite mer än 50 % snabbare för kompilering jämfört med 7535HS (M3 är rätt exakt dubbel så snabb). Vet inte vilken modell det handlar om, men oavsett lär även batteritid vara 50-100 % bättre på MBA M1.

Denna dator kan fortfarande vara ett bra köp, men det förutsatt att den kostar max 7000-7500 SEK. Över det är det i.o.f.s. fortfarande billigare än MBA M1, men knappast prisvärd givet prestanda.

Av Yoshman
Skrivet av Stormraider:

För just 3d rendering är stödet för AMD dock väldigt lågt, flertalet renderingsmotorer stöder bara Nvidia vilket gör att du alltid måste kolla om AMD stöds om du behöver använda en mjukvara du inte brukar, medan med Nvida så finns alltid stödet redan där.
Om du exempelvis kollar på Redshift som kom 2014 och först fick stöd för AMD 2021 så kan man i detta testet se hur långt efter AMD är.
https://irendering.net/compare-nvidia-and-amd-gpu-when-render...

Att 7900xtx är långt efter 4090 är väl en sak, men den är också långsammare än 4070, vilket är ett kort som är billigare än 7900xtx i dagsläget.
Sen har AMD inget stöd alls i Vray längre för dom enligt utvecklaren slutade lägga stöd på OpenCL. Omniverse är också något som börjar användas mer i branchen och eftersom Nvidia utvecklar det så kommer det nog aldrig finnas stöd för AMD där heller.

Så generellt sett för 3d rendering så är AMD långsammare och har mindre stöd för dom största mjukvarorna som används än Nvida har, och det ser inte ut som det kommer ändras avsevärt i framtiden. Om du är hobbyist som bara behöver Blender eller leka lite i Unreal engine så klarar du dig nog utan Nvidia kort, men om du har detta som jobb där det krävs att du kan jobba med en stor mängd mjukvaror med bästa prestanda så har du tyvärr inget alternativ.

Jag kan dock hålla med dig om att det vore intressant att se andra aspekter än spel vägas in ett sånt här omdöme. Grafikkort kan användas till så mycket mer än bara spela så att det är det enda som vägs in i "bästa grafikkortsköpet" känns lite begränsat.

Snubblade över denna, bara en datapunkt men kanske ändå ger en vink kring varför Intels och AMDs GPUer inte riktigt är superrelevanta för 3D-rendering (GPGPU)... Pts/W = Points per Watt

Ouch om det är lika illa för AI. I fallet Blender presterar M3 Max i genomsnitt lite bättre än 7900XT fast drar bara ~35 W (GPU, totalt drar kretsen ~70 W) mot ~320 W för den senare...

Nvidia är mäkta imponerande, framförallt i absolut prestanda (detta är med OptiX som är ~dubbelt så snabbt som CUDA).

Av Yoshman
Skrivet av clnr:

Jämförs det rätt saker när det kommer till prestanda på NPU:erna?
Apple M3 har 18 TOPS för INT16/FP16 (källa: https://www.anandtech.com/show/21116/apple-announces-m3-soc-f... ) medans X elite är INT8 (källa: https://www.anandtech.com/show/21105/qualcomm-previews-snapdr...- ). Enligt den första länken så har Apple A17 35 TOPS för INT/FP8.

Vad som verkar helt klart är att Snapdragon X Elite siffrorna är just INT8/FP8 och 45 TOPS är enbart för NPU-delen, totalt ska kretsen vara kapabel till 75 TOPS.

I fallet Apple är det lite mer frågetecken då Apple själva nämnde just 35 TOPS för A17, det också för INT8/FP8. Men man sa just 18 TOPS för M3, trots att den presenterades senare. Det är för FP16.

De gissningar jag sett är att NPU i M1/M2 inte har explicit INT8/FP8 stöd, så det blir inte snabbare att köra det jämfört med INT16/FP16. Frågan är sedan om M3 har stöd, vilket verkar sannolikt då den rätt mycket är en uppskalad A17. Men då är frågan varför Apple inte pushade de siffrorna...

Tydligen kan man med OK resultat köra vissa LLMs med 8-bit vikter, vilket då gör prestanda i det läget relevant. Vi lär få mer klarhet längre fram, kanske vid WWDC 2024

Av Yoshman

Kort uppdatering.

En positiv sak med enheten är att all källkod som behövs för att använda dess HW finns på github.

Däremot ska man nog vara rätt bekväm med FreeRTOS för att kunna använda denna RISC-V plattform.

Det finns en början till Arduino stöd, men det är väldigt grundläggande och man får vara rätt påläst på Arduino, källkoden för CH32V307 i github-repot ovan samt fatta en del om drivers/TCP-IP om man vill få igång den integrerade Ethernet-enheten.

Krävs i.o.f.s. lite pillrande för just det även i FreeRTOS, men där är den stora fördelen att FreeRTOS är explicit designad för att man enkelt ska kunna hänga in eget HW-stöd.

Är helt klart en väldigt prisvärt MCU, kul med RISC-V och än mer så när drivers finns på github. Men för den som snabbt vill slänga ihop lite saker med färdiga bibliotek är det långt vettigare att hålla sig till Arduino UNO, ESP8266/ESP32, eller Rasperry/Orange/Xyz Pi.

Av Yoshman
Skrivet av SuperSverker:

Åh, jag önskar de kunde fixa en dedikerad knapp på tangentbordet istället...

Med risk för att du är sarkastisk och det rejält flög över mitt huvud, men Microsoft har redan kirrat det!

Av Yoshman
Skrivet av Yatagarasu:

Går att stänga av även direkt i inställningar för aktivitetsfältet, sedan vet jag inte när det lades till, full möjligt att det krävdes register-ändringar någon gång.

<Uppladdad bildlänk>

Skrivet av jnsson:

Jag kunde använda Cortana i Sverige, dock hade jag systemet på engelska men Cortana var på svenska och min region är inställd på Sverige
Precis som det skrivit tidigare så går den alldeles utmärkt att stänga av, heter följande på engelska
<Uppladdad bildlänk>

Verkar som både det jag googla fram och det ni skriver är korrekt. I Windows 11 fungerar det precis som ni skriver, startade upp min gamla Windows 10 laptop och kunde inte direkt se hur man kunde göra något annat än att stänga av "peek" funktionen som @ztenlund nämnde.

Så för Windows 11 användare borde detta vara ett totalt icke-problem då man kan fritt kan välja copilot/ingen-copilot samt visa-skrivbordet/inget-visa-skribordet.

Skrivet av Catcode:

Och ändå kallar du dig för "Datavetare" och inte känner till den knappen.
Själv använder jag knappen rätt så ofta har använt sen Windows 7.

Tja, man kan vända på det: lite svårt att se varför en van datoranvändare skulle ha någon användning av att se desktop. Vet precis hur man gör detta på MacOS, har i praktiken aldrig använt det. Har inget på skrivbordet, kan inte ens säga vilken bakgrundsbild mina datorer har, det lär vara den förvalda.

Sen är jag inte längre en speciellt van Windows-användare. Använder främst MacOS, följt av Linux och sen Windows. Hade inte ens någon egen Windows-dator mellan 2004 till 2014, så har egentligen aldrig använt Win7 och Vista.

Kollade med grabben (som enbart använder Windows) och frugan (som alltid kört Windows på jobbet och fram till 2020 även körde det privat), ingen av de två kände till den här funktionen. Inget direkt bevis för något, men inte så Microsoft varit väldigt bra att skylta med denna funktion...

Kan säga att tycker det finns en rad bra anledningar att börja köra Linux. Men har lite svårt att se just införandet av en copilot-knapp som något avgörande, framförallt inte om man kör Windows 11 där det verkar bli helt konfigurerbart.

Av Yoshman
Skrivet av johanandersson:

Det är en knapp jag är väl medveten om, då jag avaktiverar dess funktionalitet (eller i alla fall "peek") på alla datorer jag använder. Det är ett sånt ställe man ibland klickar oavsiktligt och det kommer garanterat vara ännu mer irriterande med Copilot där.

Då är det en ren förbättring för din del. Lite snabbt googlande indikerar att för att slå av "Visa skrivbordet" måste man ta till register-hack, för att stänga av Copilot-knappen går man in här

https://assets.techrepublic.com/uploads/2023/10/tr_20231011-how-...

Ovan känner jag till, slår av typ allt. Enda jag vill ha från task-bar:en är klocka/datum, varför skulle man starta program genom att sikta på en ikon istället för Win+<StartOfAppName>(Return)?

Av Yoshman

Till alla som nu förfasar sig om att "Visa skrivbordet" försvinner: hur många visste att denna "knapp" ens existerande innan denna artikel? Hade själv ingen aning, för det är ju en "knapp" som i alla fall på min dator saknar någon form av bild.

Och om man nu ens brydde sig om denna funktion, hur många av er visste inte redan om win+d (och det verkar inte ändras, copilot verkar hamna på win+c som förval)???

Däremot är frågetecknen kring vad som framåt kommer skickas till Microsoft vettiga. Men givet Microsoft uttalande om att "AI-funktionella PC" bör framåt ha en NPU med minst 40 TOPS låter det ändå som man kommer ha möjligheten att köra saker lokalt. Det lär ju vara ett krav hos en hel del organisationer, så Microsoft har inte så mycket val om de vill att användarna ska ha möjlighet att köra funktionen.

Av Yoshman
Skrivet av Stormraider:

Det förenklade svaret på detta är nej, amd är inget alternativ, du måste köra nvidia för att vara säker på att det ska fungera för 3d rendering. Vissa program har börjat med stöd för amd gpu rendering men om du vill vara säker på att det ska fungera i alla program så behöver du cuda cores. Vilket är tråkigt för det gör att vi inte har någon konkurrens för den typen av arbete.

Så kanske det är, men om något har Apple visat att det inte är en naturlag att saker bara stödjer Nvidia/CUDA.

Idag stöds rätt mycket GPGPU-relaterat bra både på Windows/Linux+CUDA samt MacOS/MetalCompute. Att det just nu bara är ljudet av syrsor därefter kommer rimligen ändras, i alla fall för AI (som av de 3 exempel jag gav är det enda jag personligen bryr mig om) givet hypen.

Som slutkund vore det därför trevligt om det görs tester på detta, enda alternativet är ju annars att man själv chansar och i det läget kommer i alla fall jag hålla mig till det man vet fungerar på förhand. Vilket nog är attityden de flesta har här då den är rätt rationell, men det är just också det som gör det nästan hopplöst att utmana en marknadsdominant (här behöver journalistiken hjälpa till).

Av Yoshman
Skrivet av lillaankan_i_dammen:

Citat: Båda har fokus på AI-prestanda i så kallade edge-miljöer.
Alla verkar satsa hårt på Ai nu och att köpa en dator för Ai nu känns lite som att vara gubben i Bates 4000 klippet från The onion movie.

Frågan är dock vilken Ai man behöver var? Höga realtidskrav så behöver såklart kommunikationen till det som ska styras vara snabbt.
Men för LLM så skulle servern nästan kunna sitta på månen, problemet är följande text i Ai chatar: "Dina konversationer behandlas av mänskliga granskare för att förbättra tekniken som driver Gemini-appar. Ange inte något som du inte vill ska granskas eller användas."
Och det känns sådär, men det räcker då att man bygger en egen desktop som har LLM, inte att man behöver ha det på varenda dator, surfplatta, telefon etc man har.

Min poäng är att spara pengar på att bygga en riktig snabb desktop för Ai, istället för en massa halvsnabba Ai-datorer utspritt.

I både Intel och AMD fallen här handlar det ju om enheter där låg latens typiskt är långt viktigare än kapacitet. Vidare är tillgänglighet kritiskt i dessa fall. Så att köra sakerna i "molnet" fungerar inte här.

Så även om det finns långt snabbare datorer att tillgå på andra platser är det för den här typen av applikation irrelevant.

Sen håller jag med, vi bara i början av AI-racet. Att köpa en "snabb" NPU idag är lite som att köpa en "snabb" GPU vid milleniskiftet. Den kommer vara patetiskt långsam ställd mot liknande produkter om bara något år.

Av Yoshman

Hitta bara en egentlig nyhet i LGA-1851, man lägger till 4st PCIe5 linor direkt till CPU, så blir nu 16st PCIe5 (typiskt GPU), 4st PCIe4 till SSD samt 4st PCIe5 till SSD (nytt).

Verkar sedan vara samma 8st DMI-linor till chipset, varje med motsvarande PCIe4 hastighet.

Ryktet säger att LGA-1851, likt LGA-1700, kommer används för tre generationer (mot Intels historiskt normala två generationer).

Slutligen, i WCCFtech rapportering nämner de lite saker kring Arrow Lake.

Vad som redan är i praktiken validerat är att P-cores i Arrow Lake kommer få mer cache jämfört med Raptor Lake. Dels ökas L1I$ från 32kB till 64kB (det finns redan i Meteor Lake), dels ökar L2$ från 2MB till 3MB.

Slutligen, men det är mer ett ryktet i nuläget, så nämner man åter igen LLC "Adamantine". Att detta jobbas på råder det inget tvivel om, Intels VD presterade Adamantine i höstas och sa då att det kommer i "framtida produkter".

Denna patch till Linux talar också om att man dels förbereder stödet där, men än mer talar den också om att Adamantine påminner mer det Intel använde i 5x75C och ett par Skylake-baserade mobilkretsar (som i praktiken bara användes av Apple och ett par av Intels NUC:ar) än AMDs 3D-cache.

Oavsett verkar det sannolikt att det kommer till Arrow Lake. Så även om mer cache inte är jätteupphetsande rent allmänt, effekten på "vanliga" program brukar tyvärr bli rätt minimal, så är det kanske roliga nyheter för de som bara bryr sig om spel-prestanda!

Av Yoshman

"Meteor Lake-PS ska konkurrera med AMD:s nya Versal Gen 2-kretsar på marknaden för inbäddade system."

Det är sant att både Meteor Lake-PS och Versal Gen 2 båda riktar sig mot marknaden för inbyggda system. Men marknaden för inbyggda system är betydligt mer hetrogen jämfört med PC-marknaden, dessa två plattformar går mot rätt olika marknader.

Kikade lite vad Intel skriver om Meteor Lake-PS, för oss som gillar Linux var det trevlig läsning då denna plattform kommer säkerställa att Intel lägger rätt stora resurser på GPGPU-delen av drivrutinerna för Arc.

Meteor Lake-PS är optimerad för bl.a. "AI" där man lyfter fram den integrerade GPUn som en viktig komponent (den bidrar med ~18 TOPS) ihop med NPU (~11 TOPS, bättre perf/W).

Vad det gäller AMDs Versal Gen 2 är det värt att nämna: den använder inte x86-kärnor, den är utrustad med 8 st Arm Cortex A78AE (AE=Automotive Enhanced) samt 10 st Arm Cortex R10 (CPU-kärnor optimerade för uppgifter med hårda realtidskrav).

Sen trodde jag först det var ett typo, men trots att AMD har avtäckt Versal Gen 2 kommer den inte bli allmänt tillgänglig innan 2H 2025

Så Intels plattform är en generell "embedded" plattform med optimeringar för AI, AMDs plattform är en mer nischad plattform byggd för att hantera hårda realtidskrav.

Bl.a. stödjer AMDs plattform ASIL upp till högsta nivå, det kräver explicit stöd av CPU som är omöjligt att uppnå med traditionella CPUer

Av Yoshman

Skulle vara kul att få med något icke-spel test. Det primärt av två orsaker

1. Nästan av de stora tech-siterna har egentligen några tester utanför spel. Men kan det vara så totalt ointressant med i alla fall något test på acceleration av "AI", 3d-rendering och/eller film transcode? Använder inte någon av de två senare, men skulle ändå gärna se 3d-rendering då det ger en vink om potential för GPGPU.

2. I många fall kan ett sådant test svara på en väldigt viktig fråga: "fungerar det överhuvudtaget med något annat än Nvidia"?

Då jag värderar Linux-stödet, både native och via WSL2, har det länge bara funnits ett alternativ: Nvidia. Vet inte vad folk har för problem med Nvidia på Linux, så länge man håller sig till mainstream distros är Nvidias drivare riktigt bra (och i flera fall tyvärr de enda som officiellt stöds under Linux i vissa ramverk/program).

Nvidia har också länge haft väldigt bra HW-acceleration i Linux även när man kör program under WSL2. CUDA-acelererad PyTorch/Tensorflow presterar betydligt bättre under Linux än under Windows, coola/märkliga är att det även gäller Linux körandes under WSL2! Känns lite märkligt givet att det i grunden är Windows-drivarna som används, men flaskhalsen måste ligga någonstans som försvinner även med WSL2.

Positiva är att både AMD och Intel har fått till något form av WSL2 stöd senaste tiden. Skulle vara väldigt spännande att se hur bra/dåligt det fungerar med mindre än att man själv får köpa in GPU från respektive tillverkare...

Har sökt lite kring detta, hittar typiskt resultat likt detta, d.v.s. enda som fungerar med Linux är CUDA/Nvidia och sedan fungerar Metal/Apple med MacOS.

Av Yoshman
Skrivet av aaaaaaaaaa:

Tror snarare det är för att M1/M2 ägare inte ser någon anledning att uppgradera.

Gissar också att det är Apples huvudproblem: M1 är fortfarande helt enkelt "för bra".

När de lanserade M1 gick försäljningen av Mac upp rejält, vilket när det väl började gå upp för folk vilket enormt tekniksprång den CPUn var över samtida x86 alternativ.

Hade hyfsade förväntningar på M1, men var ändå inte helt säker så "safe:ade" med en MacMini för att testa. Så här i efterhand är detta den bästa dator jag någonsin köpt, och även om jag nu har en M3 Max (för utveckling, primärt AI där denna passar väldigt bra tack vare hur GPU fungerar) fungerar fortfarande M1:an lysande.

Skrivet av lillaankan_i_dammen:

Något jag kom att tänka på. Jag har hört talas om att Ai delen kommer bli rejält mycket bättre, vi får se.
Att då ha 8GB ram till både cpu och GPU med Ai är lite väl överdriven planned obsolescence av ssd enheten som kommer swapa väldigt mycket. Det innebär att instegsmodellen kan bli 16GB.

De som idag har en macbook med 8GB ram och säger de kan göra det ena och andra, ja deras laptop swapar som en galning på den supersnabba ssdn. Där det stora problemet är att ssd är en förbrukningsvara som bara håller ett visst antal skrivningar.

8GB fungerar för enklare användning, men tycker ändå Apple borde lyfta lägstanivån och att man har kvar 8 GB som standard på MacBook Pro får dem att se illa ut (för om man köper "Pro" lär man ha lite mer krävande uppgifter).

Även om disken lär få jobba lite hårdare med 8GB RAM tror jag de som nöjt sig med den RAM-mängden knappast lär paja datorn p.g.a. att disken slits ut. Köpte 3 st M1 vid lansering, två MBA i grundmodell till frugan och dottern, de har så här långt inte begränsats av 8 GB RAM då dels fungerar RAM-komprimering på MacOS (så 8 GB motsvarar realistiskt 10-12 GB på OS utan fungerande RAM-komprimering, men inte mer än så) och dels håller dagens SSD:er väldigt väl.

Kollar jag SMART på diskarna är det min MacMini (som är den enda med 16 GB RAM) den som slitit mest på SSD, den har används väldigt mycket, primärt surf, programutveckling och så. Så här långt har jag använt 5 % av skrivcyklerna, så rätt säker att disken överlever datorn.

Vad det gäller AI-delen så tror jag man kan förutsätta ett par heltalsfaktorers förbättring. Även om Apples NPU ligger i topp just nu med sina 18 TOPS (AMDs 8000-serie är på 16 TOPS och Intels Meteor Lake är på 10 TOPS) är de snart rejält akterseglade av Qualcomms Snapdragon X Elite som har 45 TOPS (vilket också Intel sagt att Lunar Lake kommer ha).

M3 Max är väldigt trevlig för just AI, men det p.g.a. att den går att utrusta med 128 GB RAM och har en GPU som ger långt mer än 18 TOPS. För utveckling lär NPU inte spela något jättestor roll, den används enbart för inference, men finns flera orsaker varför man inte vill köra GPU för AI-tjänster som lokal LLM etc.

Dels kanske man vill använda GPUn för andra saker, t.ex. rendera 3D grafik. Dels, det kanske främst på bärbara, har NPU en stor fördel över GPU i att perf/W är mycket bättre (då är ändå GPU är ändå långt bättre än att använda CPU för detta).

Men bara kolla på prislappen på M3 Max, det är knappast något som någon kan förvänta sig ska sälja i lite större volymer. Den är prisvärd för en del specifika use-case, men definitivt inte billig. Billigaste versionen med 128 GB RAM kostar ~65 kSEK, det som ändå gör den prisvärd är att en Nvidia GPU med motsvarande mängd VRAM lär gå lös på >200 kSEK.

Av Yoshman
Skrivet av Trent023:

Nice! Vad är det för bil?

Mustang GT (5L V8, d.v.s. en "liten" V8 med amerikanska mått mätt).

Av Yoshman

Sommar-sound, bilen precis påställd och den startade

Av Yoshman
Skrivet av reverend benny:

Skulle aldrig klassa en Tesla 3 på 2 ton som en småbil

Fiat 500, Mini Cooper VW UP, är nog vad de flesta skulle anse vara en småbil, nämnda ligger föresten under under 1,5 ton.

Skulle inte heller klassa det som en småbil, men detta är något man får tänka på

Tjänstevikt 1931 kg Totalvikt 2232 kg -> maxlast 301 kg. Fyra vuxna får helt klart plats i denna bil, antar man att de väger 75 kg har man då 0 kg kvar för last. DET kan nog vara lite av en överraskning.

300 kg är rätt lite. Vår Volvo XC40 Recharge får ta 445 kg och gammel-subarun får ta 480 kg, vilket nog är mer väntat för en bil i den storleksklassen.

Så en Model 3 har maxlast på en nivå man kan förvänta sig hos en "småbil".

Av Yoshman

Vi lär veta mer om detta efter WWDC (som startar 10 juni, inget lär sägas om M4 från Apple men de kanske börjar pusha AI), men verkar som Apple M4 kan lanseras i slutet av året och föga oväntat med ett starkt ”AI-fokus”

https://www.theverge.com/2024/4/11/24127529/apple-upgrade-mac...

Av Yoshman

Rykte

Kommit en del information kring Intels nästa sockel, LGA-1851. Men kanske mer relevant för gamers är att väldigt mycket pekar på att Arrow Lake S blir plattformen där Intel lanserar ”Adamantine”, som ska vara deras motsvarighet till AMDs ”game-cache” som används i X3D-modellerna.

https://wccftech.com/intels-lga-1851-socket-pictured-debut-me...

  • LGA 1851 Socket Longevity Planned Uptill 2026

  • DDR5 Only Compatibility, No DDR4 Support

  • Kicks off With 800-Series Motherboards

  • Support For Up To DDR5-6400 Memory (Native JEDEC)

  • Increased PCIe Gen 5.0 Lanes Through CPU & PCH

  • Arrow Lake-S First Desktop Family Supported

  • Arrow Lake-S CPUs feature 3 MB L2 Cache Per P-Core

  • Arrow Lake-S CPUs feature refreshed Alchemist iGPUs

  • Arrow Lake-S CPUs feature integrated LLC "Adamantine" for GPU Tile

  • Arrow Lake-S CPUs feature 8+16, 8+0, 6+8 CPU SKUs

  • Launching In 2H 2024

Av Yoshman
Skrivet av Buddaz112:

För oss vanliga dödliga. Vad är egentligen så speciellt med ARM. Kommer vi ens kunna se med ögat att just den använder ARM. Mest bara nyfiken
Köpte nyligen IPad Pro med M2 är nöjd. Tittade även på Samsung med sin SD under huven. Även där tänkte jag att vi har kommit långt med datorerna att man verkligen börjar fundera över hur det skall sluta.

Flera bra exempel i tråden redan.

I grunden handlar det om att givet en viss transistorbudget har ARM64 fördelar som kommer ge en eller flera av: bättre prestanda, bättre energieffektivt och/eller fler funktioner jämfört med att göra motsvarande med x86_64.