Intels processorer på 10 nanometer för stationära datorer först efter år 2021

Permalänk

Om inte AMD lyckas åtgärda ram-latensen eller intel tar ett steg tillbaka där (nya xenon arkitekturen kan ecentuellt innebära ett sådant), så finns det ju ytterligare en fördel förutom ren beräkningskraft. Beroende på tilltänkt amvändning av processorn så påverkar detta pris/prestanda ekvationen.

Det finns en liten möjlighet att intel reserverar 10nm för Apple, för att försöka fördröja deras övergång till ARM, eftersom denna läcka handlade om dell. Det tror jag dock inte, och det skulle ju i så fall ändå innebära begränsad tillgång för konsumenter.

Skickades från m.sweclockers.com

Permalänk
Medlem

Lagom tills de är dags å uppgradera med andra ord hehe.

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Medlem
Skrivet av talonmas:

Hur stor är skillnaden på enheterna "Intel nm" och "AMD nm"? Vet bara att de inte går att jämföra mot varandra men vet inte hur stor den faktiska skillnaden är.

Skickades från m.sweclockers.com

Beror lite på vad man kollar på, om vi pratar cache ska 7nm TSMC vara tätare än Intel 10nm, om vi pratar logiken ska Intel 10nm vara ganska mycket tätare.

I överlag kan man dock säga att 7nm TSMC ska motsvara 10nm Intel, de ska tillhöra "samma" processgeneration.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem

Väldigt bra för oss konsumenter. Bäst läge är det ju för oss konsumenter när det är köparnas marknad, och det är det inte sålänge den ena tillverkaren har ett försprång.

Optimala förhållanden råder när båda parter har ungefär 50% marknadsandel och ungefär lika starka produkter, då tvingas de slåss med priset.

Att det strular ör Intel ger AMD tid att komma ikapp, så det här är väldigt bra och goda nyheter.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Skrivet av talonmas:

Hur stor är skillnaden på enheterna "Intel nm" och "AMD nm"? Vet bara att de inte går att jämföra mot varandra men vet inte hur stor den faktiska skillnaden är.

Skickades från m.sweclockers.com

Egentligen är det ju irrelevant, det är prestandan som räknas. Det många väntade på var ju att intel skulle kunna göra att större steg när det kommer till prestanda än vad dom får till vid en ny förbättring.
Förseningen kan teoretiskt sett innebära att AMD kan göra ett större steg när det kommer till prestanda än vad intel kunnat göra. Om så blir faller vet vi ju inte säkert än. Som någon skrivit tidigare i tråden, så spekuleras det om att det kan vara svårt att få till topprestandan på dessa nya mindre transistorer, vilket skulle kunna innebära att prestandalyftet blir mindre än vid tidigare skiften, och kanske inte alls är speciellt mycket större än bara en förfining.
(Det kan rent utav vara så att prestandan tar ett steg tillbaka och att tillverkaren tvingas förfina tekniken innan den ens släpps, fast här kan vi nog anta att AMD kommer att göra ett prestandalyft oavsett hur litet eller stort det blir, men Intel har ju nu flera års förfining av nuvarande tillverkningsstorlek bakom sig, vilket skulle kunna göra det ännu svårare att uppnå direkta fördelar vid en övergång).

Permalänk
Medlem
Skrivet av CGI:

Ouch... Heja AMD 7nm. Gött med konkurrens för oss konsumenter.

Sitter ajälv och väntar in zen2. Men den här nyheten riskerar väl att AMD kan sätta högre priser än man kanske hade hoppats på.
Det jag hoppas på zen är främst bättre singlecore prestanda utan allt för högt pris. För om man tittar på spelprestande per krona så är nog en intel trots allt bättre prismässigt (en 9600k ger mer fps än 2700x...och då idlar tyvärr många av amd kärnorna)

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av kelthar:

Är det viktigt om de tillverkar den själv eller inte? Det är viktigt med bäst valueproposition. Vilken paj är godast, den som Dansukker gjort (med sitt eget socker) eller den som mat-tina gjort med köpt socker. Vavava? Är väl upp till konsumenten.

Du kanske tycker att man skall köpa baserat på någon form av stolthet-/statuspoäng?

Det är inte AMD förtjänst att man tar marknadsandelar från Intel, det är företagen som man köper produktions kapacitet som gör det möjligt för AMD att konkurrera med Intel och detta görs inte gratis, tror du det går dåligt för Intel? Deras nettoinkomster steg nästan 120% till nya rekordnivåer förra året.

Skickades från m.sweclockers.com

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Skrivet av Ozzed:

Väldigt bra för oss konsumenter. Bäst läge är det ju för oss konsumenter när det är köparnas marknad, och det är det inte sålänge den ena tillverkaren har ett försprång.

Optimala förhållanden råder när båda parter har ungefär 50% marknadsandel och ungefär lika starka produkter, då tvingas de slåss med priset.

Att det strular ör Intel ger AMD tid att komma ikapp, så det här är väldigt bra och goda nyheter.

Två aktörer är inte nog, dock.
Dessvärre är ju inte processorerna heller jämnbördiga vilket innebär att det inte alltid finns ett val för konsumenten att kunna gå över. Detta i kombination med att det bara finns två aktörer kan innebära att det blir enkelt för dessa att välja olika fack att lägga sig i, och på så vis inte konkurrera. Just nu har vi ju ett läge när AMD är mer prisvärda och Intel har bättre topprestanda, det skulle ju kunna bli så att dom lägger sig bekvämt i dessa fack. Beroende på vinstmarginalen så kan intel bedöma att en högre avkastning per såld enhet är mer värt än behålla samma marknadsandel på totalen. Och AMD kan bedömma att antalet sålda enheter är mer värt än att lägga dom där extra pengarna på utveckling, där der ofta blir så att prestanda toppningen inte följer procenten per investerad dollar.
Det behövs alltså konkurrens inom varje segment, för att garantera fortsatt hälsosam konkurrens.

Sen är det ju inte köparens marknad när den ena tillverkaren har brist. Vilket antingen kan gynna den ena aktören eller minska den totala marknaden då uppgraderingar kanske skjuts på framtiden och inte följer den cykel som tidigare funnits.

Just nu är vi i ett limbo. Vi vet inte vilken roll AMD kommer lyckas ta. Och vi vet inte hur stark intels kontring kommer att bli om AMD på grund av tillverkningsfördelar närmar sig intel i prestanda, när dom väl lyckas ta nästa steg.
Vi vet heller inte hur AMDs prisbild skulle se ut om deras marknadsandel steg och prestandan hamnade på samma nivå som hos intel. AMD kanske är väldigt sugna på att kunna skruva upp sina vinstmarginaler.

Skickades från m.sweclockers.com

Permalänk
Medlem

För mycket prioriterat till grafikkorten 2020?

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Skrivet av oceanic:

Det är inte AMD förtjänst att man tar marknadsandelar från Intel, det är företagen som man köper produktions kapacitet som gör det möjligt för AMD att konkurrera med Intel och detta görs inte gratis, tror du det går dåligt för Intel? Deras nettoinkomster steg nästan 120% till nya rekordnivåer förra året.

Skickades från m.sweclockers.com

Zen arkitekturen är ju AMDs förtjänst. Men om intel kunnat gå över till 10nm enligt planerna så är det möjligt att Zen legat efter med så mycket att AMD hade varit körda.
Nu har ju dock intel kapacitetsbrist och framtiden får utvisa om tillverkningsstorleken ger dom fördelar som behövs för att intel inte ska fortsätta att ligga före.

Man får dock inte glömma massproduktionsfördelar, som för en mindre aktör som hyr in sig kan innebära att priserna för detta inte alls blir högre än om man själva skulle byggt för sin egna försäljningsvolym, förutsatt då att den tillverkaren man hyr in sig hos även tilverkar åt andra, men fortfarande har ett sug efter att ha fler kunder (och därav erbjuder bra priser).

Permalänk
Inaktiv
Skrivet av kelthar:

https://www.notebookcheck.net/fileadmin/Notebooks/News/_nc3/CPUs_sold.png

Intel är supernöjda, chill och avslappnade med att de säljer 30%, medans AMD säljer 70%.

Vilket år syftar du på, 2024?

Är det viktigt om de tillverkar den själv eller inte? Det är viktigt med bäst valueproposition. Vilken paj är godast, den som Dansukker gjort (med sitt eget socker) eller den som mat-tina gjort med köpt socker. Vavava? Är väl upp till konsumenten.

Du kanske tycker att man skall köpa baserat på någon form av stolthet-/statuspoäng?

@kelthar

Jag tror år 2026.
Och sen kan du jämföra Intels och amds totala försäljning och inte ett diagram från en försäljare med märkligt tidsspann.

Mvh

Permalänk
Medlem
Skrivet av JonHolstein:

Två aktörer är inte nog, dock.
Dessvärre är ju inte processorerna heller jämnbördiga vilket innebär att det inte alltid finns ett val för konsumenten att kunna gå över. Detta i kombination med att det bara finns två aktörer kan innebära att det blir enkelt för dessa att välja olika fack att lägga sig i, och på så vis inte konkurrera. Just nu har vi ju ett läge när AMD är mer prisvärda och Intel har bättre topprestanda, det skulle ju kunna bli så att dom lägger sig bekvämt i dessa fack. Beroende på vinstmarginalen så kan intel bedöma att en högre avkastning per såld enhet är mer värt än behålla samma marknadsandel på totalen. Och AMD kan bedömma att antalet sålda enheter är mer värt än att lägga dom där extra pengarna på utveckling, där der ofta blir så att prestanda toppningen inte följer procenten per investerad dollar.
Det behövs alltså konkurrens inom varje segment, för att garantera fortsatt hälsosam konkurrens.

Sen är det ju inte köparens marknad när den ena tillverkaren har brist. Vilket antingen kan gynna den ena aktören eller minska den totala marknaden då uppgraderingar kanske skjuts på framtiden och inte följer den cykel som tidigare funnits.

Just nu är vi i ett limbo. Vi vet inte vilken roll AMD kommer lyckas ta. Och vi vet inte hur stark intels kontring kommer att bli om AMD på grund av tillverkningsfördelar närmar sig intel i prestanda, när dom väl lyckas ta nästa steg.
Vi vet heller inte hur AMDs prisbild skulle se ut om deras marknadsandel steg och prestandan hamnade på samma nivå som hos intel. AMD kanske är väldigt sugna på att kunna skruva upp sina vinstmarginaler.

Skickades från m.sweclockers.com

Självklart vore det drömmen om det fanns fler aktörer på X86-marknaden, men att det ser ut som det gör kan vi ju tacka Intel för eftersom de håller hårt i sina licenser.

Jag tror att just vad gäller desktop så är det främst spelprestanda som gemene man bryr sig om. Så att AMD skulle kasta det i soptunnan och enkom satsa på produktiva laster är inte så sannorlikt. Klart att båda tillverkarna kommer propsa på det område de är starkast på, men det är spelprestanda som flest tycker "räknas", så jag tror inte det är någon risk att de slutar tävla om det,

Det går ju få upp sina vinstmarginaler på olika sätt. Jag tror att det AMD söker är långsiktighet eftersom de har en skakig historia. Att de skulle tänka kortsiktigt och låta priserna skjuta i höjden känns inte så troligt, för något de lyckats bra med de senaste åren är ju att etablera att de är "det prisvärda alternativet, och det vore synd om de kastade bort det.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Inaktiv
Skrivet av Ozzed:

Självklart vore det drömmen om det fanns fler aktörer på X86-marknaden, men att det ser ut som det gör kan vi ju tacka Intel för eftersom de håller hårt i sina licenser.

Jag tror att just vad gäller desktop så är det främst spelprestanda som gemene man bryr sig om. Så att AMD skulle kasta det i soptunnan och enkom satsa på produktiva laster är inte så sannorlikt. Klart att båda tillverkarna kommer propsa på det område de är starkast på, men det är spelprestanda som flest tycker "räknas", så jag tror inte det är någon risk att de slutar tävla om det,

Det går ju få upp sina vinstmarginaler på olika sätt. Jag tror att det AMD söker är långsiktighet eftersom de har en skakig historia. Att de skulle tänka kortsiktigt och låta priserna skjuta i höjden känns inte så troligt, för något de lyckats bra med de senaste åren är ju att etablera att de är "det prisvärda alternativet, och det vore synd om de kastade bort det.

Jag hoppas ochså AMD kommer ikapp/om i spelprestanda.
Det skulle röra om i ärtsoppan. 🤪

Permalänk
Avstängd

@anon298854: När AMD är om Intel i prestanda i spel och allt annat enkelt trådat, varför skall man då ens överväga intel om Intel fortfarande är dyrare?

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av _Merc_:

@Ister: När AMD är om Intel i prestanda i spel och allt annat enkelt trådat, varför skall man då ens överväga intel om Intel fortfarande är dyrare?

När? Finns det något som tyder på att så är fallet inom överskådlig tid?

Permalänk
Medlem
Skrivet av _Merc_:

@Ister: När AMD är om Intel i prestanda i spel och allt annat enkelt trådat, varför skall man då ens överväga intel om Intel fortfarande är dyrare?

Fråga alla som köpte Pentium 4 och Pentium D vilket ändå var majoriteten.

Permalänk
Inaktiv
Skrivet av anon162230:

Holy crap, nu har de verkligen problem.

Men AMD kommer vara på 5nm runt 2021 så frågan är om inte Intel i så fall hoppar över 10nm.

Intel har haft 7nm EUV i utveckling ett tag nu:

https://www.anandtech.com/show/13683/intel-euvenabled-7nm-pro...

Strategiskt låter det som ett smart drag att hoppa över 10nm om de har för stora problem.

Det är transistortätheten och förbättring i ipc/prestanda/strömförbrukning som är intressant. Kan mycket väl vara så att TSMCs 5nm knappt är bättre än Intels 10nm. Nm slutade vara ett mätvärde sedan länge.

Skickades från m.sweclockers.com

Permalänk
Medlem

Jag har tappat räkningen på riktigt, vilken Refresh-Refresh kommer vi in på? Vad står siffran på?

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Medlem
Skrivet av anon298854:

@kelthar

Jag tror år 2026.
Och sen kan du jämföra Intels och amds totala försäljning och inte ett diagram från en försäljare med märkligt tidsspann.

Mvh

1. Vad är märkligt med tidsspannet?
2. Det är riktig statistik. Kan du komplettera med ytterliggare siffror?

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av pa1983:

Då är det ju läge för GlobalFoundries och TSMC att maximera produktionen, kan dom ta kunder och expandera så betyder det ju även att AMD och andra tillverkare av chip tex ARM kan på allvar ta marknadsandelar permanent från intel.

Intel har nog inte varit så här efter sedan Pentium 4, ända skillnaden då och nu var att dom hade en dålig design men bra noder, nu är det noderna som börjat strula med designen är bra.

Men om vi kolla så van ju AMD rätt lätt med en bra design back then och AMD knappar in med en allt förbättrad ZEN så vad för övertag intel må ha så krymper det hela tiden.

GlobalFoundries har ju redan beslutat att sluta utveckla krympta noder så där det är relevant lär dom inte hämta hem något.

Visa signatur

Asus ROG Strix Z370-H Gaming | Intel Core i7-8700K | AMD Radeon RX 6950 XT | Corsair Vengeance LPX 3500 MHz 2x16 GB 16-18-18-38 | Diverse lagring | Fractal Design - Define R5 | Corsair RM1000x

C64 | C64C | NES | Amiga 500 | Mega Drive | Game Gear | SNES | N64 (RGB) | GCN | DS Lite | Xbox 360 | Wii | 3DS XL | Wii U | New 3DS XL | PS4 Pro | Switch

Permalänk
Medlem

@Ozzed:
@anon298854:
Själv hoppas jag vi kan skrota gamla x86 snart. Precis som alla andra tekniker behövs ett icke-bakåtkompatibelt skifte någon gång då och då. Som BIOS gick till UEFI, som AGP gick till PCIE, osv.
Klart man kan multitråda på x86, men det vart aldrig designat för det i grunden, så det är stor förlorad potential och effektivitet. Man behöver inte gå så långt som att säga att det är kasst om man inte vill, men det är ingen tvekan om att det kan vara mycket bättre.

Så jag hoppas att de antigen vågar släppa "x86 2.0" som tummar på bakåtkompabiliteten eller att vi går över till en modern ARM arkitektur då nyare generationer av ARM från grunden är designat med just sådana moderna behov i fokus.

Nu när vi har chiplets från AMD och även Intel indikerat att de har chiplet-designs på ingående, så vore det en bra idé att göra en övergångsfas där man släpper cpu'er med ett chiplet "gammaldags" x86 + ett chiplet nyare "x86 2.0" (fiktiv) i samma package. Om man kan designa emulerad bakåtkompabilitet där gammal x86 kod går att köra på den nya versionen fast med suboptimal prestanda - och om MS släpper en stor patch till windows som stödjer nya x86, och vi kan pusha in sådana cpu'er via OEM kanaler så tror jag övergången kommer bli relativt smärtfri.

Jag kommer fortsätta drömma om det i alla fall!

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Medlem

När intel gick från 22nm till 14nm (se gamla benchmarks 4790k -> ny arkitektur på 6700k) så var vinsten nära nog 0, minns att vissa tidiga benchmarks som iirc hade något fel i bios tom. gav bättre resultat till 4790k, men det jämnades ut efter bios patch. Skillnaden var oavsett extremt liten.

AMD släppte ju GPU på 7nm, och gpu skalar egenligen väldigt bra med krympningar, men även där blev resultatet lite imponerande.
Chansen är god att intel inte får ut något större av denna krympningen heller, däremot skall den nya arkitekturen sunny cove för första gången på länge ha generella optimeringar för single-thread performance som ju antagligen kan göra stor nytta i spel.

En teori kan ju då vara att 10nm är irrelevant för desktop-cpu prestanda (man kan få in fler cores, men inte starkare enskilda cores på existerande arkitekturer) - intel har ju trots allt släppt små skalor av 10nm-cpuer, då har de ganranterat också testat noga internt. Kanske de bara insett att det ger lite/inget i prestanda, precis som 22-14nm, och den minimala energi det sparar är inte värt besväret förrän nästa arkitektur med 3d-stackade komponenter som kanske bättre utnyttjar och är designade för krympningen (sunny cove).

Permalänk
Medlem
Skrivet av fadelol:

Sitter på precis samma. Herregud, har det fått hänge med så länge var min första tanke när jag läste din post..

Vad klagar ni om? Ni har ju moderna processorer.
Min 5680 hade premiär q1 2010.
I höst, Ryzen!!

Skickades från m.sweclockers.com

Visa signatur

Asus Sabertooth X58 - Xeon X5680 - 12GB DDR3 - ASUS GTX1080 8GB

Permalänk
Datavetare

Mycket tyder på att Comet Lake är ännu en variant av Skylake. T.ex. så har Intel lagt in stöd i Linux-kärnan för denna krets där stödet i praktiken är att känna igen IDs för Comet Lake men behandla den som Sky/Kaby/Coffe Lake.

Intel har två rejäla problem och en stort problem. Att inte få igång 10 nm är det stora problemet...

De två rejäla problemen är att man har en enorm kapacitetsbrist på 14 nm samt att man så här långt inte verkar haft någon plan B, d.v.s. få ut nya mikroarkitekturer på 14 nm om 10 nm strular vilket är orsaken att Intel nu fortfarande sitter på en snart fyra år gammal mikroarkitektur.

Min gissning är att Rocket Lake i stort sätt är Ice Lake (eller möjligen Tiger Lake) på 14 nm. Primärt baserat att man lyft ut GPUn i Rocket Lake till en extern krets, desktop har en 14 nm GPU medan mobilkretsarna har en 10 nm GPU ihop med en 14 nm Rocket Lake CPU.

Har man designat om kretsen så pass mycket att den kommer med 11e generationens GPU (första generationens Xe) känns det väldigt märkligt om man inte samtidigt uppdaterat GCPU-delen.

Som nämnts i tråden är det ingen självklarhet att man kan höja frekvenserna vid mindre noder. Att det var fallet tidigare var en konsekvens av en "lag" som kallas Dennard scaling som ungefär säger "utvecklad effekt per areaenhet är konstant vid krympning". Den slutade gälla någonstans vid 45-65 nm.

Även i bästa fallet (vilket typiskt inte ligger > 4GHz utan mer 2-3 GHz) minskar ju effekten 20-30 % medan tätheten ungefär fördubblas. Kyleffekten är linjärt proportionellt mot arean, numera ökar utvecklad effekt en hel del per areaenhet så man kan tyvärr hamna i ett läge där kretsen rent designmässigt fixar en riktigt hög frekvens men den kan inte köras så snabbt i praktiken p.g.a. begränsningar i kylning!

En sådan krets är fortfarande användbar i mobilsammanhang där förväntningen är att maxeffekten kanske bara kan hållas i ett par sekunder, men kanske inte optimalt för en stationär dator där förväntad last är 100 % CPU under väldigt lång tid!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av dpom86:

@Ozzed:
@Ister:
Själv hoppas jag vi kan skrota gamla x86 snart. Precis som alla andra tekniker behövs ett icke-bakåtkompatibelt skifte någon gång då och då. Som BIOS gick till UEFI, som AGP gick till PCIE, osv.
Klart man kan multitråda på x86, men det vart aldrig designat för det i grunden, så det är stor förlorad potential och effektivitet. Man behöver inte gå så långt som att säga att det är kasst om man inte vill, men det är ingen tvekan om att det kan vara mycket bättre.

Så jag hoppas att de antigen vågar släppa "x86 2.0" som tummar på bakåtkompabiliteten eller att vi går över till en modern ARM arkitektur då nyare generationer av ARM från grunden är designat med just sådana moderna behov i fokus.

Nu när vi har chiplets från AMD och även Intel indikerat att de har chiplet-designs på ingående, så vore det en bra idé att göra en övergångsfas där man släpper cpu'er med ett chiplet "gammaldags" x86 + ett chiplet nyare "x86 2.0" (fiktiv) i samma package. Om man kan designa emulerad bakåtkompabilitet där gammal x86 kod går att köra på den nya versionen fast med suboptimal prestanda - och om MS släpper en stor patch till windows som stödjer nya x86, och vi kan pusha in sådana cpu'er via OEM kanaler så tror jag övergången kommer bli relativt smärtfri.

Jag kommer fortsätta drömma om det i alla fall!

Jag är med dig, men jag tror vägen frammåt är fullgod x86-emulering på ARM. x86 har ett såpass stort programbibliotek så det blir svårt att bara slänga ut genom fönstret. Och då behövs också ARM-emulering på x86, så att det blir en lägre tröskel att gå över för de som sitter på en X86-processor och inte byter så ofta.

Men ARM är definitivt framtiden. Jag tror att x86 så småningom når en gräns där det inte går krama ur mer prestanda. Och vi vill ju inte att vi ska hamna i ett "hit men inte längre"-läge utan utvecklingen måste ju gå frammåt.

Och om jag fattat det rätt så är ARM öppet så vem som helst får göra en processor med det.

Drömmen vore om vi kunde gå tillbaka till 80-talet där man i princip kunde blanda hej vilt med chipsets och processorer. det vore det bästa för konsumenten

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Datavetare

Som flera andra varit inne på, bästa utfall av Intels problem vore om det ger 64-bitars ARM (eller ännu hellre RISC-V då det är helt öppet, men där är vissa delar inte färdigspecificerade än så inte realistiskt val utanför inbyggdasystem just nu).

Några orsaker varför 64-bitars ARM är en långt bättre tekniskt val idag:

"Ingen" skriver direkt i assembler idag

Instruktionsuppsättningen är helt designad mot bakgrund att det är kompilatorer som genererar maskinkoden, inte människor. Det ger enklare kompilatordesign.

Både x86 och även 32-bitars ARM (som är en separat instruktionsuppsättning mot 64-bitars ARM, 32-bitars ARM har ungefär lika mycket brister som x86 fast det är inte samma brister) designades vid en tid där det var en självklarhet att de prestandakritiska delar skrevs av människor i assembler.

Vad som är optimalt för en människa är inte samma sak som det optimala om det ska genereras av en maskin.

x86 (likt alla ISA designade på 70/80-talet) har massa implicita beroende mellan instruktioner

64-bitars ARM är specifikt designad så man kan skapa effektiva "breda" designer. Detta då nästan alla instruktioner inte har någon effekt utanför att läsa sin input (typiskt två register) och skriva sin output (typiskt ett register). För programmerare, visualisera 64-bitars ARM instruktioner som "rena funktioner"

x86 (och även 32-bitar ARM) verkar ser väldig "dimishing returns" redan vid kapacitet på 3 x86 instruktioner per cykel (Zen tar upp till 4 och Skylake upp till 5 fast med en rad begränsningar på 4 av dessa). Det är jättesvårt att dra upp IPC riktigt högt på dessa då de uppför sig som ett multitrådat program där man läser/skriver till globala variabler (alla som gjort parallellprogrammering vet att det är en dödssynd)

Senaste ARM designen, Cortex A76, kan köra upp till 4 instruktioner och den har i praktiken samma IPC som senaste x86:orna (fast med mindre än hälften av transistorbudgeten och med långt bättre perf/W).

Apples senaste CPU har ~40 % högre IPC jämfört med Skylake, vilket visar att deras design som kan köra upp till 7 ARM instruktioner per cykel fungerar!

Multi-core är standard idag

Alla CPUer har flera kärnor, ARM (ARMv8-A 32-bit och alla 64-bit) är inte jättemycket bättre men det är bättre då man specifik gjorde sin HW-specifikation efter den minneskonsistensmodell C, C++, Java, DotNet m.fl. använder.

x86 är trots allt OK-ish på denna punkt i de flesta fall, finns ISA med större problem.

Det stora problemet här är ju Windows. Windows och x86, "wintel", har varit en självklarhet under hela Windows livstid. Fanns en NT version som fungerande på DEC Alpha men den sög. 32-bitars ARM Windows var en riktig WTF!

64-bitars ARM Windows versionen är en "riktig" Windows, men då nästan all Windows-applikationer bara finns för x86. Till skillnad från servers där virtuella maskiner av olika slag är normalfallet idag är majoriteten av desktop-applikationerna för Windows fortfarande skrivna i C++ så de är x86-only.

I bästa fall skulle det bara vara att bygga om dem för att få "native" ARM 64-bitars stöd. I praktiken lär det finnas buggar i majoriteten av alla multi-trådade applikationer som bara råkar fungera på x86. x86 ger nästan alltid mer synkronisering än vad specifikationen för C++ kräver, så det är en bugg som "råkar" fungera på x86. ARM gör exakt vad som krävs, varken mer eller mindre (vilket är snabbare), men man har nu ett data-race (en av de svåraste buggar att hitta ).

Förhoppningsvis kommer Apple kunna demonstrera hur mycket en bromskloss x86 är idag när (för tror inte det handlar om "om" längre) de byter till ARM för MacOS, är övertygad att deras laptops som få x86-laptops att skämmas rent prestandamässigt! I det läget lär det bli ett tillräckligt stort tryck på Windows-sidan så att alla de viktiga applikationer kommer finnas i "native" format.

Skrivet av Ozzed:

Jag är med dig, men jag tror vägen frammåt är fullgod x86-emulering på ARM. x86 har ett såpass stort programbibliotek så det blir svårt att bara slänga ut genom fönstret. Och då behövs också ARM-emulering på x86, så att det blir en lägre tröskel att gå över för de som sitter på en X86-processor och inte byter så ofta.

Men ARM är definitivt framtiden. Jag tror att x86 så småningom når en gräns där det inte går krama ur mer prestanda. Och vi vill ju inte att vi ska hamna i ett "hit men inte längre"-läge utan utvecklingen måste ju gå frammåt.

Och om jag fattat det rätt så är ARM öppet så vem som helst får göra en processor med det.

Drömmen vore om vi kunde gå tillbaka till 80-talet där man i princip kunde blanda hej vilt med chipsets och processorer. det vore det bästa för konsumenten

Så länge det krävs emulering kan AMD/Intel känna sig helt lugna. Även när det görs riktigt bra blir resultat uselt! Inte ens det teoretisk bästa utfallet är speciellt lockande då det skulle kapa majoriteten av alla fördelar med 64-bitars ARM.

Och ARM kan inte kompensera med hög frekvens, för dem är det helt enkelt mycket vettigare att gå riktigt brett då det är möjligt och "sweet-spot" för perf/W ligger vid 2-3 GHz, inte 4-5 GHz... Att gå riktigt brett är också en konstruktiv användning av en allt högre transistordensitet, genom att inte pressa frekvensen kan resultatet fortfarande kylas!

Edit: ska dock ändå nämnas att de få läckta benchmarks som finns för Ice Lake pekar på att det kommer bli det största lyftet i IPC sedan Core2. Mycket tyder på att det blir ett större lyft än Nehalem -> Sandy Bridge, typ 15-25 % beroende på last (d.v.s det är den generella ökningen, inte en ökning när någon speciell instruktion används). Men hjälper inte så mycket om man måste kapa frekvensen lika mycket för att hantera värmen...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Förändring sker ofta i så pass långsam takt att det knappt märks. Men vi människor vill ofta se snabba förändringar, troligtvis för att vi är medvetna om att vår livslängd är begränsad.
Därför kan vi lätt bli uppslukade av saker som verkar ge en snabb förändring. Ibland gör dom, men näst när aldrig.
Det är troligtvis en förklaring till varför många röstar på populistiska partier/presidenter, för att sättet dom målar upp framtidsvisionen är genom att det finns några snabba enkla lösningar för att snabbt uppnå förändring. Något dom dock allt som oftast misslyckas med. Hitler lyckades få mycket att hända snabbt, men löftena om hur bra allt skulle bli infriades inte. Samma sak gällde ju vid kommunistiska revolutioner, så det är inte en vänster/höger-fråga.
Detta sätt vi ser på förändring har med största sannolikhet även påverkats Apples framgångar med iPhone. Många baksidor av tidiga iPhones (i förhållande till andra produkter på marknaden då) förbisågs, för att man tyckte att den lovade stor förändring snabbt. Och visst skedde en stor förändring snabbt, smarphones tog över betydligt snabbare än dom annars hade gjort (men mycket tydde på att smartphones ändå hade tagit över, men helt enkelt bara några år senare).
Hade smartphones fått ta över i den takt som dom höll innan, så hade vi med stor sannolikhet haft betydligt fler olika varianter av smartphones fortfarande. Så ibland är snabb stor förändring inte bra ens när den inte leder i sådan destruktiv riktning som mina politiska exempel.

När det kommer till Intel vs AMD, så verkar det som en del tror att det kommer ske en snabb och stor förändring, nu när AMD till synes har gjort ett stort framsteg, från den nivå dom låg på tidigare.
Problemet är att dom ju faktiskt inte levererat något som verkligen förändrat allt. Antalet processorkärnor har ökat, men fördelarna är inte så stora.
Prestandamässigt ligger AMD inte före Intel, så trots vad som verkar som en stor förändring, så har inte alls så mycket egentligen hänt.
I situationer när inte mycket hänt, men man tror att saker är på gång, så är det lätt att börja föreställa sig framtiden som närmare, än den var innan, istället för att helt enkelt vilja inse att förändringen uteblev. Saker fortsätter att förändras i samma långsamma takt.
AMD har säkerligen fått en hel del anhängare, som just hoppas på att AMD nu kommer driva igenom en stor förändring. Men om dessa personer tar ett steg tillbaka och inte drömmer om framtiden, så kommer dom snart att märka att inte mycket har hänt.
10nm/7nm är inte ett kliv in i framtiden, inte mycket förändras av en sådan övergång, på sin höjd så ökar prestandan lite mer än den gjort under förfiningsprocessen. Men sett till spelupplevelse, eller hur snabbt beräkningar eller renderingar går, eller hur många VSTs man kan köra i sin DAW, så är förändringen mot föregående topp-processor inte enorm. Allt ändras liksom inte.

Trots att Apple snabbade på övergången till smartphones, så tog det ändå några år, och det var ett avsevärt mycket större kliv än att gå över till mindre transistorer.
Streaming är också en sak som förändrat mycket, men även där tog det tid, trots att även det var en större förändring än att gå över till mindre transistorer.
Och det här är sentida förändringar. Tänk hur lång tid övergång till mobiler tog. Eller övergång från radio till TV.

Drömmarna och spekulationerna drivs på ännu mer av att vi befinner oss i ett mellanläge (limbo), där det är svårt att förutsäga framtiden. Vad kommer AMD ta för roll, kommer dom bli prestandapressare mot Intel, eller budgetvalet. Och om dom börjar pressa Intel prestandamässigt, hur kommer dom prissätta sina produkter.
Och när det kommer till Intel, så är det många som känner sig tveksamma till uppgradering, bara för att övergången till ny tillverkningsprocess gått över tiden. Även fast dessa personer hade fått ungefär samma prestandaförbättring, med Intels nya tillverkningsprocess, om den hade kommit. Inom datorvärlden är det nästan alltid något nytt runt hörnet, och oftast blir inte förändringen enorm. Det handlar mest om känslan av att sitta på något som inte är det senaste, istället för att egentligen se var det nya hade inneburit i realiteten. Mycket tycks ha hänt snabbt i datorvärlden, men om man tittar noggrannare så ser man att dom större förändringarna oftast tar några år, lanseringen kan gå fort, men omställningen desto längre tid. Och några år senare, så finns det alltid ytterligare något nytt på inkommande. Så att vänta på att man tror att det finns en stor förändring just runt hörnet, är sällan värt det. Annat är om det man faktiskt har duger och man klarar sig tills det ger upp istället för att uppgradera bara för uppgraderandets skull. Men sitter man på något som inte hänger med på det man behöver av det, så lönar det sig inte att vänta.

Prismässigt går det oftast fortare uppåt än nedåt dessutom. Att en fabrik brinner upp, ger snabbt stigande priser, men att en ny färdigställs ger inte alls samma prisutveckling nedåt, exempelvis. Men även vid vissa teknikskiften, så ser man samma utvekling att priset snabbt stiger, men sen går nedgången väldigt långsamt, trots att den nya tekniken lovar billigare framställning.
Det relevanta är behovet, behöver man något så kan man inte vänta för länge. Om priset är lite högt när man köper, men sen ganska snabbt efter sänks, så tänker man att man missade ett tillfälle (dock ibland så är det en tillfällig kampanj där man inte hade hunnit få tag på produkten), men samtidigt, hade man sett den relativt snabba prissänkningen, men man inte hade köpt, så kanske man hade ställt om sig på att det skulle komma ytterligare en prissänkning inom snar framtid, och man ändå hade avvaktat. Men rätt var det är, så är då nästa generation på gång, som lovar ännu lägre pris, eller mycket bättre prestanda (som i verkligheten inte kommer vara så mycket bättre, eller först kommer vara det efter några års mognad).

Vi vill att det ska gå fort, att det ska komma ”disruptive products”, eller ”disruptive companies”, men så ser det helt enkelt oftast inte ut. Vanligtvis för att det inte finns det utrymmet rent tekniskt. Ofta när något kommer så där, och verkar ändra allt, så är tekniken i sig inte ny, utan det är bara någon som tänker om lite, vilket ibland visserligen innefattar att spetsa till den befintliga tekniken på ett sätt så att den faktiskt går att nyttja fullt ut, eller i ett nytt syfte, men det är inte helt ny teknik som kommer.
Och så vitt jag kan se nu, så finns det egentligen ingen sån teknik inom processorvärlden, som bara ligger och väntar på att utnyttjas.
Allt lär ticka på i ungefär samma hastighet. Som det gjort, med succesiva förbättringar.
Om inte kvantdatorn helt plötsligt når en nivå där den kan göras brett tillgänglig om bara någon är beredd att satsa på den. Men då behövs ju helt ny mjukvara, så antingen kommer övergången ske relativt långsamt, där det tar flera år innan man kan göra samma saker på kvantdatorn som man kan på ”PCn”, eller så kommer det vara Apple som ligger bakom den, och då troligtvis med stora inlåsningseffekter.

Om Intel inte kan fortsätta förbättra sina processorer för att dom inte gör ett teknikskifte, då kan det vara ett problem för Intel.
Men så länge dom lyckas förbättra så är skillnaden väldigt liten mot om dom hade genomför detta skifte.
Att AMD inte blåste om Intel med ZEN, visar ju snarare på att utvecklingen av processorer troligtvis inte alls hölls tillbaka speciellt mycket på grund av Intels dominans, vilket en del trott.
Och då finns det ju inte heller utrymme för något enormt kliv nu.
Fler processorkärnor har inte gett oss det klivet, vilket möjligtvis är den punkt på vilken Intel hållit tillbaka (rent teknikmässigt, att dom tagit höga priser är en annan diskussion).
Om Intel skulle bli ekonomiskt svagare på grund av hur läget är, så finns det en risk att dom inte skulle ”ha råd” att hålla samma utvecklingstakt som dom gjort (aktieägare vill ju få sin avkastning och chefer sina prestationsbonusar, så vinster är inte detsamma som pengar som hade kunnat investeras, men det får man beskylla aktiesystemet för).
Det är inte säkert att AMD skulle kunna axla Intels roll. Hade det varit så att Intel faktiskt hade hållit tillbaka utvecklingen, så hade ju AMD haft ett stort utrymme att utnyttja genom att ta igen dom förlorade åren, men det verkar ju inte vara fallet. Så kanske skulle det innebära en ytterligare nedskruvad utveklingstakt.

Eftersom utvecklingstakten går så pass långsamt och succesivt, så känns det aldrig som man tar ett steg in i framtiden, även om man skulle ett visst antal decennier, och från det perspektivet se vad som finns idag.
På film, så har hela världen förändrats i framtiden, men att nå dit skulle ta flera hundra år, eftersom det innebär att allt vi har succesivt ska ersättas. Dessutom innehåller framtidsversioner på film, ofta element som tekniskt sett antingen är omöjligt, eller inte kommer kunna uppnås förrän långt efter at dom som sett filmen är döda.

Redan i slutet av 90-talet ville jag ha sociala medier och möjligheten att få tips om saker i min närhet i mobilen (pekskärm skulle den ha, men det fanns redan), det var framtiden, då. Det är sånt vi har idag.
På 90-talet så pratades det om interaktiv tv som framtiden, play-tjänsterna är i princip det.
Grafiken i datorspel är på en helt annan nivå, men eftersom vi har en verklighet att jämföra med, så har man länge kunnat föreställa sig datospelsgrafik som är så verklighetstrogen att man inte kan se skillnad.
VR pratades också om som en framtidsteknik på 90-talet (till och med 80-talet tror jag). Det är fortfarande delvis en framtidsteknik, men vi har kommit betydligt närmare än vad vi hade då.
Samtidigt så hade jag trott på 90-talet att en produkt som Devialet’s Phatom högtalare skulle vara fysiskt omöjligt, trots det så finns den idag.
När man funderar på framtiden så verkar saker häftiga, men när man väl har dom i sin vardag, så är dom inte alls lika spännande som när dom låg i framtiden. Sen så är mycket runt omkring en sig likt från dåtiden. (Bilars design har inte förändrats mycket sen slutet av 90-talet när det började bli vanligt med uppmjukade linjer, istället för innan när det var en nisch, men dom flesta bilarna var ganska kantiga, till och med dom flesta el-bilar ser ut som vanliga bilar trots att drivlinan tillåter en väldigt annorlunda design, men kanske är det mest en övergångsfas och möjligheterna så småningom kommer få genomslag, så som det varit inom andra områden, att det tar ett tag från en övergång innan folk är redo att faktiskt acceptera förändring).

Skickades från m.sweclockers.com

Permalänk
Skrivet av talonmas:

Hur stor är skillnaden på enheterna "Intel nm" och "AMD nm"? Vet bara att de inte går att jämföra mot varandra men vet inte hur stor den faktiska skillnaden är.

Skickades från m.sweclockers.com

Intels ursprungliga 10nm, hade väl något högre densitet än TSMC´s 7nm (som AMD använder till Zen 2). Men Intel var lite för självsäkra, och det fungerade inte som tänkt. Så Intel fick backa, göra om. Och försöka igen, och med den nya 10nm. Som dom också verkar ha problem med, enligt den här läckan. Så är det väl ingen som vet densiteten på den, vad jag vet. Inget Intel har kommunicerat ut alla fall, till skillnad mot den första, nu nedlagda.

Visa signatur

9900k på vatten

Permalänk
Inaktiv

Prestandasiffror plockat från Geekbench (enkeltrådat/flertrådat):

A13?: 69/242
i9 9900K: 62/337
i7 9700K: 60/289
i7 8700: 53/231
i5 8600: 51/198
A12X: 50/179 (≈Snapdragon 8cx?)
i5 8400: 48/183
A12: 48/112
G5600: 45/88
i3 8100: 44/126
i5 8259U: 42/155 (NUC8i5BEH)
i5 3570K: 40/115
i3 8109U 40/84 (NUC8i3BEH)
A10X: 40/96 (Apple TV 4k)
Snap 855: 37/105
Snap 845: 22/80
Snap 821: 19/40
A5: 13/21 (iPhone 5s)
BCM2835: 5/13 (Raspberry Pi 3)

Reservation för att Geekbench givetvis inte är hela sanningen men det ger ändå en fingervisning av hur läget för Intel när det gäller prestanda. ARM-sidan är ikapp och kan mycket väl köra ifrån, detta då på råa prestanda och inte bara på effektivitet. Så läget är värre än att man bara har problem med tillverkningsprocesserna.

Permalänk
Medlem
Skrivet av Yoshman:

Som flera andra varit inne på, bästa utfall av Intels problem vore om det ger 64-bitars ARM (eller ännu hellre RISC-V då det är helt öppet, men där är vissa delar inte färdigspecificerade än så inte realistiskt val utanför inbyggdasystem just nu).

Några orsaker varför 64-bitars ARM är en långt bättre tekniskt val idag:

"Ingen" skriver direkt i assembler idag

Instruktionsuppsättningen är helt designad mot bakgrund att det är kompilatorer som genererar maskinkoden, inte människor. Det ger enklare kompilatordesign.

Både x86 och även 32-bitars ARM (som är en separat instruktionsuppsättning mot 64-bitars ARM, 32-bitars ARM har ungefär lika mycket brister som x86 fast det är inte samma brister) designades vid en tid där det var en självklarhet att de prestandakritiska delar skrevs av människor i assembler.

Vad som är optimalt för en människa är inte samma sak som det optimala om det ska genereras av en maskin.

x86 (likt alla ISA designade på 70/80-talet) har massa implicita beroende mellan instruktioner

64-bitars ARM är specifikt designad så man kan skapa effektiva "breda" designer. Detta då nästan alla instruktioner inte har någon effekt utanför att läsa sin input (typiskt två register) och skriva sin output (typiskt ett register). För programmerare, visualisera 64-bitars ARM instruktioner som "rena funktioner"

x86 (och även 32-bitar ARM) verkar ser väldig "dimishing returns" redan vid kapacitet på 3 x86 instruktioner per cykel (Zen tar upp till 4 och Skylake upp till 5 fast med en rad begränsningar på 4 av dessa). Det är jättesvårt att dra upp IPC riktigt högt på dessa då de uppför sig som ett multitrådat program där man läser/skriver till globala variabler (alla som gjort parallellprogrammering vet att det är en dödssynd)

Senaste ARM designen, Cortex A76, kan köra upp till 4 instruktioner och den har i praktiken samma IPC som senaste x86:orna (fast med mindre än hälften av transistorbudgeten och med långt bättre perf/W).

Apples senaste CPU har ~40 % högre IPC jämfört med Skylake, vilket visar att deras design som kan köra upp till 7 ARM instruktioner per cykel fungerar!

Multi-core är standard idag

Alla CPUer har flera kärnor, ARM (ARMv8-A 32-bit och alla 64-bit) är inte jättemycket bättre men det är bättre då man specifik gjorde sin HW-specifikation efter den minneskonsistensmodell C, C++, Java, DotNet m.fl. använder.

x86 är trots allt OK-ish på denna punkt i de flesta fall, finns ISA med större problem.

Det stora problemet här är ju Windows. Windows och x86, "wintel", har varit en självklarhet under hela Windows livstid. Fanns en NT version som fungerande på DEC Alpha men den sög. 32-bitars ARM Windows var en riktig WTF!

64-bitars ARM Windows versionen är en "riktig" Windows, men då nästan all Windows-applikationer bara finns för x86. Till skillnad från servers där virtuella maskiner av olika slag är normalfallet idag är majoriteten av desktop-applikationerna för Windows fortfarande skrivna i C++ så de är x86-only.

I bästa fall skulle det bara vara att bygga om dem för att få "native" ARM 64-bitars stöd. I praktiken lär det finnas buggar i majoriteten av alla multi-trådade applikationer som bara råkar fungera på x86. x86 ger nästan alltid mer synkronisering än vad specifikationen för C++ kräver, så det är en bugg som "råkar" fungera på x86. ARM gör exakt vad som krävs, varken mer eller mindre (vilket är snabbare), men man har nu ett data-race (en av de svåraste buggar att hitta ).

Förhoppningsvis kommer Apple kunna demonstrera hur mycket en bromskloss x86 är idag när (för tror inte det handlar om "om" längre) de byter till ARM för MacOS, är övertygad att deras laptops som få x86-laptops att skämmas rent prestandamässigt! I det läget lär det bli ett tillräckligt stort tryck på Windows-sidan så att alla de viktiga applikationer kommer finnas i "native" format.

Så länge det krävs emulering kan AMD/Intel känna sig helt lugna. Även när det görs riktigt bra blir resultat uselt! Inte ens det teoretisk bästa utfallet är speciellt lockande då det skulle kapa majoriteten av alla fördelar med 64-bitars ARM.

Och ARM kan inte kompensera med hög frekvens, för dem är det helt enkelt mycket vettigare att gå riktigt brett då det är möjligt och "sweet-spot" för perf/W ligger vid 2-3 GHz, inte 4-5 GHz... Att gå riktigt brett är också en konstruktiv användning av en allt högre transistordensitet, genom att inte pressa frekvensen kan resultatet fortfarande kylas!

Edit: ska dock ändå nämnas att de få läckta benchmarks som finns för Ice Lake pekar på att det kommer bli det största lyftet i IPC sedan Core2. Mycket tyder på att det blir ett större lyft än Nehalem -> Sandy Bridge, typ 15-25 % beroende på last (d.v.s det är den generella ökningen, inte en ökning när någon speciell instruktion används). Men hjälper inte så mycket om man måste kapa frekvensen lika mycket för att hantera värmen...

Fullgod emulering kanske var att ta i, men bara det "funkar" så att man kan köra sina lökiga gamla program vid en övergångsperiod så tror jag att tröskeln är tillräckligt låg för att få till en övergång.

Och inget hindrar ju varken AMD eller Intel att hoppa på ARM-tåget. Men de kanske inte vill just för att de har en guldsits just nu och företag kastar ju inte gärna iväg sådant som drar in pengar.

Men som sagt så bör vi väl ändå komma till en gräns någonstans där det blir en nödvändighet? ARM har mer potential att växa än x86 och att utvecklingen skall hållas tillbaka på grund av två giriga företag känns dystopiskt.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.