Skrivet av Paddanx:
Vill poängtera att om det är så du tolkat vad jag skrev, är det inte vad jag syftat.
Jag syftade på att AMD redan har pressat tidigare 14nm noder till max, och två visade övergångar, Vega och Polaris har visat att potentialen i TSMC 7nm är större. Kommer inte garanterat betyda att du får högre frekvens, men du kan iaf ha en chans att designa för det. Och i polaris fall var det extremt lite ändring som behövdes för det med 580 vs 590.
Poängen är, du kan designa det bäst tusan du vill... men om noden är skit, och inte stöder det, får du detta:
https://ark.intel.com/content/www/us/en/ark/products/136863/i...
Detta är inte pga Intel inte kan designa en snabb CPU. Eller att deras arkitektur skulle vara skit... utan att noden helt enkelt sa nej.
Så jag håller med att det är en design-fråga, men ramen inom var du gör designen är det noden som sätter reglerna. Och hur mycket du än designar, och låter vissa transistorer läcka, är det inte heller en garanti för något.
Den här diskussionen ledde trots allt till något vettigt för egen del. Har ingen större koll på kretsdesign i bemärkelsen: har aldrig själv designat en krets (men däremot programmerat kretsar reda under deras utveckling, inte kul att felsöka när både HW och SW kan vara felkällan...).
Rent fysiskt är maximal frekvens definierad av en enda sak: propation delay through critical path. Googlar an på den termen hittar man massor med information, som t.ex. att designverktyg kan beräkna detta. Man hittar också massor med frågor hur man kan lura ut denna egenskap i enklare hand-designade kretsar.
Längden på "critical path" definieras enbart av kretsen design, processen är inte en faktor här! Längden på "critical path" är i praktiken också den klart största bidragande faktorn till "propagation delay" när man jämför noder med likartad storlek.
Självklart finns det skillnader i resistans och kapacitans mellan olika processer, även fast de har ungefär samma storlek. Men som så mycket inom programmering gäller även 80/20 alt. 90/10 regeln även här, den stora delen är kretsens design.
Absolut möjligt att 2700X haft en maximal frekvens 100-150 MHz högre om den tillverkas hos TSMC. Men om en krets når 1, 2 eller 5 GHz är i praktiken enbart en funktion av dess design!
Ser inte poängen med din Intel jämförelse här, hur är det på något sätt relevant att titta på hur en krets tillverkad på en icke-färdigutvecklad process? Den krets du länkar är tillverkad på en process där det är en utmaning att få något att fungera, är ingen slump att GPU-delen är avstängd...
Är inte heller med på vad jämförelsen 580 vs 590 visa. Den senare är klockad ~15-17 % högre och drar ~22-23 % mer ström. Det är väl ändå rätt mycket exakt vad man kan förvänta sig utan egentligen någon ändring alls i process då "propagation delay" kan minskas genom att trycka mer ström genom kretsen (mer ström betyder snabbare ur/i-laddning av kapacitiv last -> högre maximal frekvens), eller?
Transistorer som läcker mer ger inte högre frekvens just för att de råkar läcka mer ström. De ger högre frekvens då de är designade så att de tål mer ström (önskad effekt), tyvärr leder en sådan design till högre läckström (oönskad effekt).
Skrivet av SAFA:
Intel försökte ju med Itanium som ni kanske kommer ihåg, skulle bli den nya 64-bits plattformen. Och prestanda blev inte så mycket bättre heller.
Säger man inte att ca nio av tio försök till någon lite större förändring misslyckas?
Tror ingen missat vilket misslyckande Itanium blev. Ändå gjorde man precis vad som rimligen borde göras, när Itanium designades tog man de senaste trenderna inom forskningen och satt dem på verkligt prov.
EPIC (Explicitly parallel instruction computing) löste vissa problem, men nu vet vi att det finns betydligt större problem som tekniken inte löste.
Designen fungerande rätt bra för många flyttalsintensiva laster då dessa tenderar vara mindre latenskänsliga samt framförallt innehåller de ofta låg mängd villkorad körning där villkoret är väldigt dynamiskt (kan bara redas ut vid körning). Tanken med EPIC var ju att statiskt låta kompilatorn göra en större del av jobbet.
Dels har hastighet (latens) mellan CPU-kärnan och RAM växt rejält sedan slutet 80-tal / början 90-tal (när Itantium designades) och dels har sättet vi utvecklar programvara gått i en riktning med lång högre andel dynamiska val (polymorfism i alla dess former är väldigt utbrett).
Det ändrar inte att x86 är en allt större kvarnsten och något som tyvärr gör att utvecklingen på CPU-sidan går långsammare än de kunde ha gjort. Ställer man Zen+ (eller Core, ändrar inget i sak) och ARM Cortex A76 mot varandra har de ungefär samma IPC (faktum är att A76 passerat Zen+ i heltals IPC, ligger helt i nivå med Skylake, det har även AnandTech verifierat m.h.a. SPEC INT/FP).
På 7 nm tar ju 8 st Zen2 kärnor strax under 80 mm². På 7 nm tar lika många Cortex A76 kärnor ~10 mm² + storlek för L3$ (SRAM är det som brukar skala absolut bäst, så 16 MB L3$ borde ta ~10 mm²). ARM kärnorna har i princip alltid legat på några enstaka mm², förut kunde man avfärda dem med att IPC inte var i närheten av x86. Fast det stämmer ju inte längre (IPC har ökat nästan en faktor x2 på tre år/generationer, så har gått fort på slutet).
Zen+ och Skylake kärnorna är rätt lika i storlek. Att Zeppelin kretsen är så pass mycket större (213 mm²) jämfört med 8C Skylake (178 mm²) trots att den senare har en iGPU på ~45 mm² beror nog till stor del på att den förra i stort sett integrerar en "south-bridge". Det förklarar nog varför I/O-die i Zen2 blev så pass stor, 123 mm². South-bridge kretsarna för Core är faktiskt hyfsat stora kretsar!
AMD/Intel ska verkligen tacka Microsoft för att Windows är så totalt inlåst på x86, det kommer vara deras räddning ett bra tag framöver! Fast tyvärr också orsaken till att vi som konsumenter kommer sitta fast med betydligt sämre CPUer än vad som kunde ha varit fallet. Aarch64 är, till skillnad från Itanium, det största fall framåt vi sett från en CPU-arkitektur på årtionden (fördelarna är större än de flesta initialt gissade, inklusive undertecknad)!