Inlägg

Inlägg som Yoshman har skrivit i forumet
Av Yoshman

Vilken överraskning, en side-channel attack i den CPU-design med i nulägets världens djupaste out-of-order execution fönster...

Skrivit det flera gånger tidigare här: är det inte dags att acceptera att man får designa för prestanda eller bombsäker implementation för kryptering. Det är verkligen ett "välj en" fall.

Enda positiva är väl att också detta fall delar egenskapen hos liknande problem hos andra CPUer: krävs i praktiken att den som vill utnyttja sårbarheten har möjlighet att fritt köra program lokalt på datorn. I vissa lägen ett problem i moderna datacenter, förhoppningsvis ett mindre problem på den genomsnittliga laptop/desktop-datorn.

Precis som nu alla moderna CPUer designade för bärbara har "AI-accelering" via NPU bör man framåt designa krypto-bibliotek på samma sätt. Går faktiskt att hantera väl även på många existerade CPU, alla de med "små" kärnor som likt fallet här i stort sätt helt undviker den här typen av problem.

Av Yoshman
Skrivet av Sysop:

Jag har svårt att tro att upplevelsen, säkerheten eller annat skulle försämras om Apple blir tvungna att efterleva kraven från USA och EU, det är bara någonting som de vill tuta i oss konsumenter och det verkar de ju i stor mån lyckats med...

Hoppas verkligen du har rätt här!

Men betyder inte det samtidigt att Apple har en integration och säkerhet som överträffar konkurrenterna p.g.a. att man löser motsvarade uppgift långt bättre, inte p.g.a. att begränsning av möjligheter minskar scope och därmed gör det enklare att leverera på det som innefattas av scope?

Av Yoshman

Likt viket annat framgångsrikt företag som helst: Apple gör inget för att vara din vän, de gör saker för att det gynnar dem själva.

Hoppas bara nu att de åtgärder som både USA och EU tar på något sätt leder till att konkurrerande produkter blir bättre, inte att man straffar Apple så pass att deras produkter blir sämre.

Tycker mycket av Apple framgångar bottnar i samma grundläggande orsak som Nvidias: total teknisk överlägsenhet över konkurrenter på områden som många kunder bryr sig om.

Både Apple och Nvidia fattar ju hur överlägsna de är, och tar betalt därefter

Av Yoshman
Skrivet av s1lvertunga:

Är faktiskt ganska trivialt att dumpa kasetter på en switch med homebrew om jag minns rätt!

Så om det är trivialt, varför finns det då ens sidor som har ROMs? Enda rimliga orsaker för det blir då piratkopiering, vilket man då rätt enkelt kan förstå att Nintendo vill förhindra.

Det jag hittade vid snabb sökning är att custom rom + ett gäng program fixar biffen. Men det fungerar bara på äldre versioner av Switch-firmware. De uppdaterade versionerna av Switch har "för ny firmware" för att använda dessa rätt enkla metoder.

Vad det gäller emulering i sig är det i sig ett icke-problem. Har använt QEMU rätt mycket, där kan man emulera det mesta och det projektet har inga problem med stämningar. Tvärtom är många HW-utvecklare aktiva i utvecklingen, finns egentligen bara fördelar att få med "sin" HW i ett sådant projekt.

Av Yoshman
Skrivet av ajp_anton:

Har jag missat något? Det står att den använder Intels NPU, men denna är väl lika intregrerad som deras grafikprocessor? Betyder "integrerad/dedikerad" olika för AI-processor och grafikprocessor?

Korta svaret är "ja, den är integrerad".

Det längre svaret är: Meteor Lake är första generationen som består av lång fler distinkta kretsar jämfört med tidigare. Intels mobil-plattform har varit en tvåkretslösning senaste 10 åren, CPU+GPU+RAM-kontroller på en krets och I/O på den andra (båda del av samma paket).

I Meteor Lake är faktiskt GPU-delen klart mindre integrerad jämfört med tidigare. Intel, likt Apple, Qualcomm och Arm, har haft en design där CPU och iGPU är väldigt tight integrerade. De delar cache med varandra (L3$ i Intels fall).

I Meteor Lake har man egentligen en helt vanlig dGPU-krets, som tillverkas hos TSMC medan CPU-delen tillverkas hos Intel, på samma paket som resten. NPU-delen ligger även den i en separat krets sett från CPU ("compute-tile"), så det handlar både om dedicerat kisel och även en separat krets (NPU-delen ingår i "SoC-tile" som verkar vara en "south-bridge on steriods").

Qualcomm har ju väldigt länge haft deras Hexagon krets, där även deras NPU ingår. Tekniskt sett ligger den på samma krets som både CPU och GPU, men ändå handlar det ju om en logiskt separat del OS/program ser som en egen HW.

TL;DR det handlar rätt mycket om definition av "separat"

Av Yoshman
Skrivet av Mortac:

48GB kan jag aldrig tänka mig att Nvidia skulle gå upp till. De brukar ju snåla med VRAM. Det landar antagligen vid 28-32GB är min gissning, utan att veta vad minnesbussen skulle kunna landa på för värden.

Vad skulle du ha 96GB VRAM till för den delen? Det är ju inte direkt så att spel skulle släppas som helt skulle dissa alla övriga grafikkort som finns där ute.

Nog inte alls osannolikt att de håller ned storleken på VRAM på konsument-modellerna. Inte så att spel direkt skriker efter den mängden VRAM, fungerar med långt mindre.

Däremot är mängden VRAM en rejäl flaskhals i många AI/ML-tillämpningar. Här är då frågan hur mycket konkurrens Nvidia känner, krasst sett är det rätt liten konkurrens just nu. Den största konkurrenten är nog deras egna produkter och väldigt mycket RAM på konsumentkorten kan äta av deras egen datacenter-marknad.

Apple Silicon är för utvecklare den största konkurrenten (de klart närmast Nvidias CUDA när det kommer till stöd i programvara med deras MetalCompute), där går ju att få GPU med >100 GB VRAM idag, lär öka till den dubbla när nästa MacStudio släpps. Frågan är hur mycket direkt konkurrent det är då det Nvidia använder Linux och Windows som som plattform (för just AI/ML är det ändå en relevant konkurrent då nästan alla ramverk/program stöds på MacOS, men finns andra områden som i praktiken är Windows/Linux only).

Av Yoshman

När det kommer till "Kortet kan även få en ny strömkontakt." har Ankeborgsprofilen M.Volt postat en bild från sina läckor på Twitter

På den mer seriösa sidan: mer L1 kan mycket väl betyda att ännu lite fler uppgifter som i dag fungerar bäst på CPU kan bättre hanteras på GPU. Det GPUer generellt har problem med är att kommunicera mellan "GPU-kärnor", något som när det sker bäst hanteras typiskt är begränsat inom en SM och begränsat till storlek som får plats i cache.

Av Yoshman

Har inte kört någon av Nintendo Switch emulatorerna, så undrar en sak: är det ens praktiskt möjlig att på lagligt vis använda dessa emulatorer för att köra spel?

Svårigheten här är att även om man köper ett spel är det fortfarande olagligt att ladda ned ROM:et för det spelet.

Enda sättet att lagligt köra det spelet på en emulator är att man lyckas extrahera innehållet från sitt eget spel-exemplar, något jag uppfattar kräver speciell HW alt. HW-modifierad Switch-enhet.

Av Yoshman

För ungefär samma pengar får man en Mac med lika mycket RAM och lika stor disk. Kollade lite CPU-benchmarks, 14900HX hänger ju med (fast den drar 3-4 gånger mer...), men M3 Max är i de flesta fall snabbare både i ST och MT (framförallt kompilering vilket lär vara en sak den här typen av maskiner används till).

Kan tyckas vara förvånande att fördelen i CPU-prestanda faktiskt är något större i MT då 14900HX har totalt 24 kärnor och 32 trådar mot 16 kärnor och 16 trådar hos M3. Men MT är ett område där ARM64 specifikt har fördelar mot x86_64, det på ett sätt som bara kan fixas för den senare genom att paja bakåtkompatibilitet.

GPU-mässigt råder det inget tvivel om att RTX 4090 Laptop är snabbare, GPUn i M3 Max ligger mellan 4070 och 4080 i prestanda. Ävenom Apple också här leder i perf/W, är fördelen är inte alls lika stor som på CPU sidan. GPUn i M3 Max ha uppmäts ha peak-effekt på ~50 W. 4090 ligger på 175 W, 4080 på 150 W och 4070 på 115 W.

Men en annan sak som gör en sådan här produkt värd priset är AI-hysterin. Nvidia är ledande med CUDA, men den som är överlägset närmast Nvidia i programvarustöd just nu är Apple. Alla de populära ramverken för AI/ML har "native" stöd för MacOS. Ovanpå det har AI/ML-stödet för ARM64 förbättrats väldigt snabbt då både Apple och Nvidia hjälps åt då Nvidias egen serverplattform använder Arm Neoverse V2 CPU-kärnor.

4090 är utan tvekan snabbare än M3 Max, men så fort man börjar ge sig på LLMs (vilket lär vara där hysterin är som störst just nu) eller "bara" har fall som mår bra av stora dataset (vilket rätt snabbt blir fallet så fort det blir lite mer komplex) har M3 Max en enorm fördel i att den har i praktiken ~100 GB VRAM tillgänglig mot 16 GB för 4080/4090.

Så just AI/ML är nog killer-featurn för M3 just nu och det som enklast kan motivera 70k för en bärbar. De andra möjligheterna att ens kunna jobba med så stora dataset är CPU, med långt sämre prestanda, eller datacenter GPUer som startar norr om 100k...

Ett snabbtest med LM Studio på Acer-datorn hade var spännande. GPU-mässigt borde det AMD testade här ge >60 tok/s med GPU, ingen aning var CPU-delen kan tänkas hamna. Det är ändå ett fullt rimligt use-case för den här typen av dator.

Ett test kräver
LM Studio och denna modell. Söker man efter "mistral-7b-finetuned-orca-dpo-v2-Mistral-7B-Instruct-v0.2-slerp-GGUF" i LM Studio kommer rätt modell upp, ska vara den som är 5,94 GB för att testa de som testas i listan jag postade här (så resultatet kan sättas i relation till något).

Varje gång man ställer en fråga visa prestanda-statistik längst ned. En prompt jag sett folk använda som "benchmark" då det ger ett rätt långt svar är "Tell me about Mars". Egen testning visar att tok/s är rätt konstant oavsett vad frågan handlar om.

Nu finns det säker någon som köper en sådana här laptop som gaming-maskin, men det kanske inte är vad enheten är optimerad för...

Givet att AI/ML i väldigt stor utsträckning körs på Linux (ett klagomål på både PyTorch och TensorFlow är att samma HW presterar bättre under Linux jämfört med Windows, framförallt GPU-accelerering med CUDA) vore det spännande att veta hur bra/dåligt Linux stödet är på den här maskinen. Givet att AI/ML är en av nog rätt få saker som kan motivera inköp av den här typ av bärbara vore det kul med ett snabbtest av t.ex. Ubuntu. Se att det i alla fall bootar, all HW hittas och fungerar + något snabbtest, allt detta kan göras från en USB-sticka/disk utan att röra Windows-installationen.

Även Blender uppvisar bättre prestanda under Linux, är inget jag personligen bryr mig speciellt mycket i men skulle kunna användas som snabbtest av att GPU/CUDA fungerar.

Skrivet av AlbinLoan:

Första gången jag ser en konsument PC-laptop med Apple priser.

Tycker det är precis vad man brukar se, om något ligger just denna dator rätt bra i pris mot Apple då det faktiskt oftare är så att Windows-laptops tenderar bli dyrare än Mac:arna om de på något sätt är jämförbara i kvalité och prestanda.

Av Yoshman

De datorer jag använt denna vecka
12+4: M3 Max (ARM64) Primär laptop
4+4: M1 (ARM64) Primär stationär
6: i7-10850H (x86_64)
4+4: Orange Pi 5 (ARM64)
1: CH32V307 (RISC-V)
1: UNO R4 (ARM)
2: RPi Pico (ARM)

Av Yoshman
Skrivet av evil penguin:

Mjo, brukar ju vara ungefär samma på det hela taget.
Och de skillnader som uppstår genom separata routingbeslut kan ju slå åt vilket håll som, så är nog svårt att slå fast någon entydig trend.

Är nog "nätverksmässigt" något kortare i genomsnitt via IPv6 då det fortfarande är rätt mycket mindre IPv6 routers jämfört med IPv4.

Vilket för egen del är lite rolig då jag för lite över 20 år sedan skrev en TCP/IP stack med IPv6 stöd för "alla kommer snart gå över till IPv6". Har inte riktigt hänt än...

Skrivet av evil penguin:

Skulle tippa på en kombination av:

* Andra parter de utbyter trafik med
* Förmodligen större slösat avstånd på att skicka tillbaka trafiken från ett mer avlägset sommarhus till en knutpunkt som inte nödvändigtvis är i en fördelaktig geografisk riktning sett att nå till målet

Så är det garanterat. Kollade lite snabbt mellanliggande routers, ~1 ms till första hopp (räknar inte min egen utrustning) men nästan 5 ms till det som i alla testade fall var mitt andra hopp. Så i praktiken hopplöst att få <5 ms.

Men off är ändå inte Norrtälje

Av Yoshman
Skrivet av Pågenbröd:

Hm, intressant.

Jag har Bredband2 nu och snittar 180-299MS när jag lirar på US-servrar. Pingen vet jag inte om då den ej syns i spelet.

Här har du ett gäng servers utspridda över världen, nästan alla är igång och svarar då på ping.

Får själv 100-110ms mot östkusten (Washington D.C och New York) och 160-170 ms mot västkusten (San Francisco, Seattle).
Inte lika kul till Sydney, dit är det 320 ms.

Verkar likvärdig alt marginellt lägre latens via IPv6 om man har möjlighet att köra det.

Märkligt nog får jag lite högre latens från sommarhuset som har öppen fiber + Bahnhof jämfört med Telenors/Comhems kabel-TV modem...

Edit: testade bara på kul latens från AWS EC2 eu-north-1 (Stockholm, men den är väl egentligen i Eskilstuna, Katrineholm och Västerås vilket är "close enough") och eu-west-1 (Irland). Rätt samma latens som hemma från eu-north-1, är ~20 ms lägre från Irland. Det testat mot USA/Kanada.

Av Yoshman
Skrivet av Dinkefing:

Vad använder man denna AI till? Vilka program stöder NPU-acceleratorn?

Just nu är det i praktiken bara ett par demos som använder NPU, saknas helt enkelt vettig stöd i Windows än så länge. Men det jobbar man på (fast är rätt mycket alpha-status verkar det som).

  • NPU support in DirectML is only available for Intel® Core™ Ultra processers with Intel® AI Boost at this time.

  • NPU support in DirectML is currently only compatible with a subset of machine learning models that have been targeted for support. Some models may not run at all or may have high latency or low accuracy. We are working to improve the compatibility and performance of more models in the future.

  • Models that are functional and were not selected for this developer preview may have some stability and reliability issues. We are continuing to expand coverage for additional models suitable for NPU.

Sen verkar AMD, Intel, Apple och Qualcomm i alla fall initialt ha liknande mål med sina NPUer. Huvudmålet är inte att NPU kommer ge maximal prestanda, GPU kommer i närtid vara snabbare. Däremot kommer NPU ge bäst perf/W (viktigt för bärbara).

Ska man tro Intels data kring Lunar Lake är NPUn där ca dubbelt så snabb som CPU medan iGPUn är ca 3 gånger så snabb som CPU på saker som detta. Dock har NPU bättre perf/W jämfört med GPU. Stämmer med hur "Apple Silicon" uppför sig också, NPUn är inte alls lika snabb som GPU-delen, den är i nivå med instegsvarianten av GPU (samma NPU i Pro/Max). Dock drar NPUn långt under 10 W medan GPU-delen drar ~40 W (M3 Max) och ~10 W i instegsmodellen.

Av Yoshman

Gjorde ett snabbtest av prestanda (heltalsberäkningar) i Arduino (fungerade även på CH32V307).

Är en rätt enkel RISCV design... Trots sina 144 MHz är CH32V307 bara 30-35 % snabbare jämfört med "nya" Arduino UNO R4 med sina 48 MHz.

RPi Pico kör på 125 MHz, den är klart snabbast i detta gäng ca dubbelt så snabb som CH32V307. Dock har RISCV och Cortex M4:an i UNO en FPU medan Cortex M0 CPUn i RPi Pico får emulera flyttal.

CH32V307 har överlägset mest I/O, följt av UNO R4, så här hamnar RPi Pico på jumboplats.

Edit: för den som undrar, prylen med USB-kabel + två st 3-ledare med ett hallon på är en SWD-debuggern till RPi Pico. Bara den kostar som 1,5 st CH32V307 kort, så rätt schyst att de slänger med debuggen direkt! Lite trevligare att single-step:a jämfört med dioder och/eller printf()...

Till RPi Pico och även UNO R4 försvar: dessa två må vara dyrare (UNO R4 är rätt mycket dyrare), men de är långt bättre dokumenterade!

Av Yoshman

Om någon vill jämföra mot sin egen dator så lämnar AMD inte tillräckligt med information. Dock har man på denna sida testat just 7840U och även dess 780M (och orsaken att AMD inte nämner den är för den konstigt nog långsammare än CPU).

Programmet i fråga kan laddas ner här

Här är tabellen

Spec

Result

Apple M1 Pro CPU

14.8 tok/s

Apple M1 Pro GPU

19.4 tok/s

AMD Ryzen 7 7840U CPU

7.3 tok/s

AMD Radeon 780M iGPU

5.0 tok/s

AMD Ryzen 5 7535HS CPU

7.4 tok/s

GeForce RTX 4060 Mobile GPU

37.9 tok/s

AMD Ryzen 7 7800x3d CPU

9.7 tok/s

GeForce RTX 4080 GPU

78.1 tok/s

Skulle vara väldigt kul om någon sitter på en 155H laptop och kunde testa både med CPU (som vi får anta presterar som AMD hävdar) och GPU (i Blender presterar faktiskt GPUn i 1x5H riktigt bra mot de AMD iGPUer som idag finns med i Blender benchmark).

Men undrar i detta fall om det är rätt sak att lyfta givet att AMD trots att får rätt bra stryk av Apples 3 år gamla platform (M3 Max ligger ~50 tok/s). Så man är ett B-lag ställd mot Apple och ett C-lag ställd mot Nvidias GPUer.

Av Yoshman
Skrivet av anogr:

Jag gick in på Dells hemsida för bärbara datorer och började filtrera - Windows 11 Pro, 32 GB minne 1 TB SSD och max 14" skärm (jag vill som jag nämnde ha en lätt dator då jag sällan använder den inbyggda skärmen). De säljer en sådan dator, en Dell Precision för 43 000 kr - och då är det förra årets processor. Känns sjukt dyrt.

HP hade tre sådana datorer för 25-26k. Kändes mer rimligt även om de också har en äldre processor och en tråkig 60 Hz lcd-skärm som bara har 1920x1200 pixlar. Men 3 år på-plats-hjälp är bra.

Men jag undrar om inte Asus Zenbook vore det bästa valet. Modern ultra 9 processor + högupplöst OLED-skärm för 20,5k. Det jag oroar mig för är kvaliteten och hur lång tid det tar att laga om den går sönder. Det kanske går fortare att köpa en ny och sätta upp utvecklingsmiljön igen än att vänta en arbetsdag för att HP support ska laga den.

Nu beror det rätt mycket på vilken tech-stack, program/verktyg du använder om det är väldigt CPU-krävande eller ej.

Utveckling av medelstora/stora projekt tenderar ändå vara rätt krävande och då finns en till aspekt utöver skärmen: hur bra hanterar datorn relativt hög last under längre tid. Är där Dell Precision skiljer sig från Dell XPS och Asus Zenbook, den förra är mer "bärbar workstation" medan de senare är "latte-laptops".

Har en Dell Precision som en av jobbdatorerna, skulle inte själv välja en sådan över Dell Latitude. Som Windows/Linux jobb-laptop är Latitude min favorit. Inte superlätt, men inte heller "gaming-laptop" klumpig. Påminner lite om en Volvo 740; tål det mesta, gör det den ska (men inte mer) och har väldigt hög tillförlitlighet.

Du nämner också Linux: körde under många år Linux som primär desktop, som laptop fungerade Dell Latitude alltid lysande (vilket inte alltid var fallet för många mer "konsumentinriktade" modeller).

Latitude använder typiskt U-serie CPUer, medal Precision kör H-serien. Den senare är snabbare, men då dessa två laptops är snarlika i storlek och de snabbaste H-serie modellerna kommer trottla rätt ordentligt under riktigt tung last tror jag inte det är så superstor skillnad i prestanda.

Latitude finns numera med t.ex. Intel Ultra 165H.

Du vill ju undvika MacOS, men råder inget tvivel om att en Latitude med Intel Ultra 165H inte är någon Apple M3 sett till prestanda. Framförallt inte för utveckling som är en de saker där "Apple Silicon" är speciellt stark i.

Edit: inser det märkliga in mitt svar nu, 165H är just en "H" CPU. Har inte testat en dator med "Intel Ultra" modell än, tycker ändå Ultra 1x5H serien är mer som U-serien med 25-30 W TDP (d.v.s. "högpresterande" U-serie, finns sedan med <=10 W samt ~15W varianter) än traditionella H-serien.

Då Latitude är en hyfsat tjock dator för att använda 165H kan man anta att de dragit upp cTDP en del -> lär vara mindre skillnad mot Precision jämfört med tidigare när man använde "vanliga" U-modeller i Latitude.

Av Yoshman

Efter lite strul gick det att få igång denna med VS Code + PlatformIO.

En riktigt rolig detalj är att trots priset på ~9 USD följer det ändå med en integrerad SWD-debugger, så är möjligt att single-step:a enbart via USB-C sladd!

Har bara testat FreeRTOS än, men det verkar fungera (här "Hello World" som blinkar två LEDs).

Tyvärr saknas MacOS/ARM64 stöd i nuläget, men stödjer annars Windows, Linux och MacOS via PlatformIO. Den officiella IDEn var rejält crap (Eclipse baserad) + den finns bara till Windows...

Edit: den är dyrare än 9 USD hos AliExpress ser det ut som, mitt kort köptes härifrån
https://www.lcsc.com/product-detail/Development-Boards-Kits_W...

Av Yoshman
Skrivet av Sjoooberg:

Skitbra för att fräscha upp gammal hårdvara. Men suger getpung när utvecklare slutar optimera spel för "folk kan använda uppskalning istället"..

Beror nog väldigt mycket på definition av "optimera spel".

Det uppskalning, då främst "frame generation", ger spelutvecklare än möjlighet att använda betydligt mer avancerade tekniker och ändå nå en viss FPS-target.

Om det är bra eller dåligt skulle hävda att det beror på spelgenre. Kanske inte rätt för twitch-spel, men helt rätt om man vill uppnå så fysisk korrekt rendering som möjligt då det tillåter mer avancerade beräkningar (som t.ex. path-tracing av ljus).

Sen som flera redan varit inne på: om valet står mellan säg 2560x1440 "native" och 4k med DLSS lär det vara väldigt få som skulle hävda att den förra ser bättre ut. Även vid samma upplösning gör uppskalning att man kan köra högre inställningar, beror lite på titel hur stor skillnaden är mellan de olika nivåerna men när det finns relevanta skillnader blir det ju bättre med uppskalning.

Just det är ett ställe jag gillar tekniken, ser rätt mycket bättre ut att köra 3456x2234 (native på 16" MBP) med MetalFX än att dra ned upplösningen för att nå en viss FPS-target. Rätt coolt att kunna köra moderna spel i den höga upplösningen på en laptop!

Av Yoshman

Här tycker jag ändå att det är väldigt viktigt att hålla isär två saker:

DLSS-framgenerering (det som kom med DLSS 3) kan man i någon mån kalla för “fuskpixlar”, eftersom det är ett sätt att öka FPS genom att helt interpolera fram en bild mellan två renderade bilder.

Att man sedan i praktiken kan göra rätt bra interpolation när man har hastighetsvektorer på objekt och gör per-pixel-analys av hur varje pixel rör sig (så kallad “optical flow analysis”) ändrar inte det faktum att man genererar N antal bilder med mindre information än om man inte använder tekniken.

Vad som kanske inte är lika uppenbart med “vanlig” DLSS är att tekniken fungerar på ett sätt som gör att det inte är “magi” att uppnå “bättre än native”-kvalitet. Med DLSS “quality mode” finns i någon mening cirka 50 % mer information vid renderingen av varje bild jämfört med “native” utan TAA.

Den mest uppenbara artifakten som DLSS/TAA tar bort är “blinkande pixlar” (shimmering) som uppstår när saker med rätt stor kontrast renderas så att hela eller delar av objekten upptar mindre än en pixel på vissa ställen. “I verkligheten” uppfattar ögat sådant som någon form av genomsnitt av färgerna mellan objekten, vilket “native” inte kan återskapa, men DLSS/TAA kan.

För att svara på frågan.
Är det inte dags att släppa att DLSS 1.x sög? Underliggande teknik (som också används av FSR, XeSS, MetalFX med flera) uppvisar i min mening redan så många fördelar att det knappast längre råder något tvivel om att det kommer vara en självklar teknik att använda framåt.

Av Yoshman

Skulle säga att ingen KS-modell har varit ett vettigt köp, men tror inte heller det är tanken med modellen.

Rätt säker att KS-modellerna finns i ett enda syfte: i så stor utsträckning som möjligt få ut en Intel-CPU som hamnar högst upp i de flesta prestandabenchmark, kosta vad det kosta vill i effekt.

Tyvärr är det nog helt rätt tänkt från Intels sida PR-mässigt, resultatet blir att när användare snabbscannar ett gäng tester blir intrycket då att “Intel verkar ju leda de flesta benchmarks, så de är ju snabbast”.

Vet inte heller hur mycket vikt den (krympande) andel av användarna som sitter på stationära lägger vid perf/W, för om man bryr sig om perf/W är ju hela x86-marknaden ett B-lag idag ställd mot Apple, något som lär bli ännu tydligare i sommar när Qualcomm släpper sin Windows-inriktade “Oryon” (designad av samma person som designade “Apple Silicon”).

Enda positiva jag kan komma på kring Intels nuvarande CPU-design är att de faktiskt står sig riktigt bra om man måste köra x86_64 och man har CPU-tunga fall. Men är inte KS-modellerna som är optimala där, tycker främst i5-14600K är den som står ut då den drar “vettig” mängd ström, presterar i nivå med CPU-modeller som 12900K, 7900X och bättre än min nuvarande CPU i stationära på jobbet, 5950X (14600K är snabbare både i ST och MT).

Inte positivt egentligen, men på något sätt får väl ändå Intel ta med sig att de i någon bemärkelse hänger med AMD trots att Intel i nuläget ligger 2-3 år efter TSMC i tillverkningsteknik. Så ur den aspekten är orsaken till den idiotiskt höga effekten en annan nu jämfört med P4-tiden.

Under P4-tiden hade man ledning i tillverkningsteknik kopplad med en bedrövligt mikroarkitektur, nu ligger man efter i tillverkningsteknik men har en så pass bra mikroarkitektur att man kan “hänga med” när man slänger perf/W ut genom fönstret.

Lanseringen av Arrow Lake på Intel 3 är viktig för Intel. Sett till mikroarkitektur ligger Intel och AMD väldigt jämt just nu (fast båda är rätt ordentligt akterseglade räknat i "IPC" jämfört med både Arm Cortex X och "Apple Silicon"), ovanpå det är Intel också klart efter i tillverkningsteknik.

Frågan är hur "mogen" Intel 3 är ställd mot TSMC 4 nm (vilket verkar vara vad "vanliga" Zen5 kommer använda, medan Zen5C verkar köra med TSMC 3 nm), beror nog på hur mycket Intel 3 är något nytt kontra en optimering av Intel 4 (som finns nu, där perf/W ser OK ut men frekvenserna ligger inte där Intel 7 ligger idag).