Intel håller schemat kring Ice Lake för bärbara datorer – i butik till julhandeln

Skrivet av Yoshman:

För stationära har jag sett allt fler som gissar att Intel helt sonika hoppar över 10 nm. Ju mer tiden går ju mer minskar oddsen på den gissningen.

Rätt mycket pekar på att "Rocket Lake" är Sunny Cove bak-porterad till 14 nm. Om Intel har problem med att nå riktig höga klockfrekvenser på 10 nm är det ju faktiskt rätt vettigt att ta Sunny Cove till en nod där man kan klocka högt!

Formen på W/frekvens kurvan verkar få allt skarpare böj uppåt vid högre frekvenser vid mindre noder. Vid lägre frekvenser, de som används för mobila kretsar, verkar man fortfarande en vinst med mindre nod. Både AMD och Intel har ju pekat på att vi framöver kallt få räkna med att maximal frekvens antagligen kommer minska med mindre nod från och med nu.

Ett kort Intel har att dra fram om man bara sikta på "high-end gameing desktop" är att plocka bort iGPU. Storleken på iGPU i Skylake motsvarar ungefär fyra Skylake kärnor, så man skulle t.ex. kunna göra en 12C krets på samma area som 9700K/9900K alt. så kan man nog klämma in en 8C Sunny Cove utan iGPU på ungefär samma yta som dagens 9700K/9900K.

Just att man skriver "Rocket Lake 14 nm" + "14 nm gfx" i materialet är en indikation på att Rocket Lake kanske är en klart större CPU och man gör det i stället möjligt att stoppa med en iGPU via en extra krets (chiplett GPU).

Men då får man ju samma problem man har med 14 nm idag. Alltså att man slår i ett teknisk vägg. Börjar man porta Sunny Cove bakåt till 14 nm så ska det väldigt mycket till för att arkitekturen ska prestera bättre än den hypermogna Skylake. Känns mer troligt att de skrotar Sunny cove helt än att de faktiskt lanserar den på 14 nm.

Skrivet av Xinpei:

Men då får man ju samma problem man har med 14 nm idag. Alltså att man slår i ett teknisk vägg. Börjar man porta Sunny Cove bakåt till 14 nm så ska det väldigt mycket till för att arkitekturen ska prestera bättre än den hypermogna Skylake. Känns mer troligt att de skrotar Sunny cove helt än att de faktiskt lanserar den på 14 nm.

Varför slår man i samma vägg?

En orsak till att man inte kan klocka lika högt på mindre noder är att det blir hopplöst att leda bort värmen från "hot-spots" då utvecklad effekt per areaenhet ökar då total utvecklad effekt inte alls minskar lika snabbt som arean vid dagens nodminskningar.

Ovan är inte ett problem i kretsar för mobila enheter (i alla fall inte än), men det är ett problem för högfrekvenskretsar.

Vidare, givet en viss design, så begränsas maximal frekvens av något som benämns "propagation delay". Enda sättet att minska denna (och därmed kunna öka frekvensen) är genom att öka spänningen. Är därför en överklockning kan bli stabil av högre spänning.

Problemet är att effekten ökar med kvadraten på spänning, vilket på mindre noder spär på en redan kritisk begränsning! Vad Intel gjort i sina 14 nm+, ++ och nu +++ är att minska densiteten på de mest kritiska delarna. Genom att göra detta har man kunna skruvat upp frekvensen.

Nyheten i kommande Comet Lake (som blir först att använda 14 nm+++) är vad jag förstår lite småmodifikationer som gör att man förväntas nå 5,2 GHz som officiell frekvens samt det blir upp till 10C. Att man når 5,2 GHz med logiskt sätt samma mikroarkitektur pekar på att något har ändras, gissar på att man åter igen identifierat begränsade "hot-spots" och minskat densitet där.

Och givet att man släpper Comet Lake snart, vad är då rimligen Rocket Lake om inte Sunny Cove på 14 nm+++ givet att den också verkar toppa på 10C?

Skrivet av Xinpei:

Men då får man ju samma problem man har med 14 nm idag. Alltså att man slår i ett teknisk vägg. Börjar man porta Sunny Cove bakåt till 14 nm så ska det väldigt mycket till för att arkitekturen ska prestera bättre än den hypermogna Skylake. Känns mer troligt att de skrotar Sunny cove helt än att de faktiskt lanserar den på 14 nm.

Bättre att slå i samma vägg än att få en ny vägg ännu tidigare. Och väggen kommer ju i form av frekvens och transistorers prestanda. Hela poängen med ny arkitektur är ju att få ut mer av samma transistorer.

Skrivet av Yoshman:

Ett kort Intel har att dra fram om man bara sikta på "high-end gameing desktop" är att plocka bort iGPU. Storleken på iGPU i Skylake motsvarar ungefär fyra Skylake kärnor, så man skulle t.ex. kunna göra en 12C krets på samma area som 9700K/9900K alt. så kan man nog klämma in en 8C Sunny Cove utan iGPU på ungefär samma yta som dagens 9700K/9900K.

Just att man skriver "Rocket Lake 14 nm" + "14 nm gfx" i materialet är en indikation på att Rocket Lake kanske är en klart större CPU och man gör det i stället möjligt att stoppa med en iGPU via en extra krets (chiplett GPU).

Kör själv 6 skärmar med 4 från gtx970 och 2 skärmar som kommer från IGPU. För att spara på värmen så går IGPU på minsta möjliga hastighet 400Mhz (x8) och det räcker mycket bra för att t.ex köra youtube videor med.

Har redan funderat länge varför i7 och i5 med t.ex K suffix har överhuvudtaget iGPU. De flesta sedan sandyb kör mycket bättre grafikkort för att spela. Varför ennvisas de att ha iGPU i alla konsument-CPU????

Har man verkligen så mycket fördel att iGPU sitter inuti en CPU? En bättre lösning vore enligt mig att ha IGPU på moderkortet istället. Och var och en skulle kunna själv om de vill ha ett moderkort med iGPU. Samma sak ungefär med WIFI. Inte alla behöver WIFI.

Skrivet av Xinpei:

... Börjar man porta Sunny Cove bakåt till 14 nm så ska det väldigt mycket till för att arkitekturen ska prestera bättre än den hypermogna Skylake.

Beror väl på hur stor den tekniska skillnaden är mellan Skylake och Sunny Cove.
Om Rocket Lake är en helt ny arkitektur (vilket tyvärr suffixet "Lake" i viss mån motsäger) finns möjligheten att signifikant öka IPC.
Samtidigt förväntar jag mig att de inte kan öka antalet kärnor utan att få alltför dålig yield.

Skrivet av Dual-Tjur:

Kör själv 6 skärmar med 4 från gtx970 och 2 skärmar som kommer från IGPU. För att spara på värmen så går IGPU på minsta möjliga hastighet 400Mhz (x8) och det räcker mycket bra för att t.ex köra youtube videor med.

Har redan funderat länge varför i7 och i5 med t.ex K suffix har överhuvudtaget iGPU. De flesta sedan sandyb kör mycket bättre grafikkort för att spela. Varför ennvisas de att ha iGPU i alla konsument-CPU????

Har man verkligen så mycket fördel att iGPU sitter inuti en CPU? En bättre lösning vore enligt mig att ha IGPU på moderkortet istället. Och var och en skulle kunna själv om de vill ha ett moderkort med iGPU. Samma sak ungefär med WIFI. Inte alla behöver WIFI.

Givet hur många CPU- resp GPU-kretsar för PC det säljs per år tror jag vi på SweClockers grovt underskattar hur många PC-system som inte använder något annat än den GPU sin är integrerad i Intels CPUer. Framförallt givet att de som väljer dGPU tenderar att byta GPU oftare än de byter CPU, vilket då indikerar att andelen PC med enbart iGPU är något högre än fördelningen mellan försäljning av CPU/GPU-kretsar.

Gamers är kraftigt överrepresenterade på entusiastwebbplatser som SweC, på det stora hela är spel-PC en nisch. Spel-PC är dock en stor och framförallt lönsam nisch, så den är allt annat än irrelevant! Och för spel-PC är ju iGPU i praktiken meningslöst, så kan mycket väl vara ekonomiskt vettigt att ta fram en CPU-serie specifikt riktad mot spel-PC där t.ex. iGPU är ersatt med något vettigare.

Sett i det större perspektivet finns det ett par potentiellt stora fördelar med att integrera iGPU på det sätt Intel gjort sedan just nämnda Sandy Bridge: om GPU och CPU delar på cache (vilket är fallet hos Intel sedan SB, de delar L3$) kan man utnyttja GPGPU i klart flera fall än vad som är fallet när det är väldigt hög latens (stor "overhead") att flytta ett jobb till GPU.

AMDs initiala plan när de köpte ATi var något de kallade "Fusion", en sammansmält CPU+GPU krets. Lite ironisk att det än idag bara är Intel och ARM-tillverkarna som gjort sådana kretsar, även AMDs senaste APUer saknar integration på cache-nivå och är rätt mycket samma sak som Intel skulle kunna göra genom att lägga CPU och GPU på olika chiplets (inte helt samt, AMDs APUer har en tightare integration än vad man får med CPU + dGPU, men den är inte lika tight som Intels/ARMs/Qualcomms)

Om målet bara är "normal" grafik så fungerar det lysande att ha CPU och GPU på olika kretsar, men givet att GPGPU faktiskt börjat använda allt mer nu är det lite trist om Intel försämrar integrationen mellan CPU/GPU.

Skrivet av Yoshman:

... kan mycket väl vara ekonomiskt vettigt att ta fram en CPU-serie specifikt riktad mot spel-PC där t.ex. iGPU är ersatt med något vettigare. ...

Det ekonomiskt mest vettiga torde vara att bara inaktivera iGPU på chipen, så att man slipper kassera de chip som har tillverkningsfel i iGPU.
På det viset får man dessa chip som en "gratis" biprodukt vid tillverkningen av de vanliga chipen. Jag är osäker på om det är så Intels F-serie tillkommer.

Skrivet av Yoshman:

Gamers är kraftigt överrepresenterade på entusiastwebbplatser som SweC, på det stora hela är spel-PC en nisch. Spel-PC är dock en stor och framförallt lönsam nisch, så den är allt annat än irrelevant! Och för spel-PC är ju iGPU i praktiken meningslöst, så kan mycket väl vara ekonomiskt vettigt att ta fram en CPU-serie specifikt riktad mot spel-PC där t.ex. iGPU är ersatt med något vettigare.

Det var precis vad jag tänkte. Men om man nu tänker bara 9700k 9900k så är väl en mycket låg procent som använder iGPU.
Tänkte bara på framtida eventuella nya CPU från intel. Redan en fake roadmap visade 10C/20T komma endast som "10900KF" modell.

Förr hade intel lätt.....producera bara 4-kärninga CPU och binna de olika. Men nu måste man kanske tänka om, speciellt om vi vill se 10C++ CPU.

Skrivet av Olle P:

Det ekonomiskt mest vettiga torde vara att bara inaktivera iGPU på chipen, så att man slipper kassera de chip som har tillverkningsfel i iGPU.
På det viset får man dessa chip som en "gratis" biprodukt vid tillverkningen av de vanliga chipen. Jag är osäker på om det är så Intels F-serie tillkommer.

De säljs ungefär för samma pris. Och med tanke på att man har haft kapacitetsproblem + 20-30% av CPU är iGPU så är det nästan 100% så att de som har F är tydliga "missfoster"