Skiftet till 7 nanometer trögt till följd av höga utvecklingskostnader

Permalänk
Melding Plague

Skiftet till 7 nanometer trögt till följd av höga utvecklingskostnader

Höga kostnader för 7 nanometer slår inte enbart mot kontraktstillverkare som TSMC. Nu framgår att Qualcomm och Mediatek av kostnadsskäl skjuter på sina 7-nanometersprodukter till år 2019.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Discokungen

Nu börjar det blir riktigt trögt. Moores lag känns som ett avlägset minne. Som tur är verkar de åtminstone bli bättre på att konstruera kretsar som är mer strömsnåla och snabbare på samma tillverkningsprocess!

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem

Snart är väggen nådd

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Inaktiv

Tråkigt men förväntat. Problemet är att inte 7nm är tillräckligt litet. Men vi kanske får vänja oss med att utvecklingen stagnerar. Det jag är rädd för är att denna stagnering ska resultera i att Ai på kort sikt inte kommer slå igenom på självkörande bilar och annat. Utvecklingen där går ju supersnabbt och jag gissar att datakraftbehovet ökas i samma takt.

Datakraftbehovet på klient och serversidan är bara en väldigt liten del av utveckling som stagnerar om krympningen tar stopp.

Permalänk
Medlem

Inte speciellt förvånad. Skall bli intressant att se vad Apple lanserar - speciellt om det blir samma SoC i alla nya modeller, eller om de kör den äldre A11 i några. Blir det A12 i alla så går 7nm hyfsat bra för TSMC, det är bara att Apple har köpt all kapacitet. Om det blir A11 i några, så är kapaciteten begränsad för alla.

Skickades från m.sweclockers.com

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av anon159643:

Tråkigt men förväntat. Problemet är att inte 7nm är tillräckligt litet. Men vi kanske får vänja oss med att utvecklingen stagnerar. Det jag är rädd för är att denna stagnering ska resultera i att Ai på kort sikt inte kommer slå igenom på självkörande bilar och annat. Utvecklingen där går ju supersnabbt och jag gissar att datakraftbehovet ökas i samma takt.

Datakraftbehovet på klient och serversidan är bara en väldigt liten del av utveckling som stagnerar om krympningen tar stopp.

Svaret på det problemet är nog att ha flera chip och sedan fixa en snabbare kontakt mellan dem. Intels svar på detta är EMIB, medan många andra jobbar med olika interposer-lösningar.

Skickades från m.sweclockers.com

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Den som väntar på något gott väntar aldrig för länge. Det är ju 7nm jag väntar på både när det gäller CPU och GPU. Hoppas min nuvarande setup håller tills dess.

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Avstängd
Skrivet av fantomsmurfen:

Den som väntar på något gott väntar aldrig för länge. Det är ju 7nm jag väntar på både när det gäller CPU och GPU. Hoppas min nuvarande setup håller tills dess.

3770k? Den är ju utdaterad redan nu. Garanterat flaskhals om du inte kör 4k i Ultra high

Visa signatur
Permalänk
Medlem
Skrivet av FredrikMH:

Snart är väggen nådd

Mer ånga bara

Permalänk
Avstängd

Då lär man ha 7nm till 2030 känns det som.
Då vet man det, så kan man köpa en rejäl dator med 7nm som vara länge.

Permalänk
Medlem

Lönsamhet är la en tolkningsfråga. Om efterfrågan för bättre teknik finns och ett företag inte tycker att det är lönsamt så finns det säkert andra som gärna tar pengarna som kastas på dem istället.

Sen är det klart att om det är för få så blir det kapacitetsproblem. Men det går ju att lösa genom att bygga fler fabriker.

Jag är såpass gammal nu att jag blivit imun mot "nu går det inte krympa mer", tycker man läst det varenda år sedan Sandy Bridge lanserades men nog fasen lyckas de.

Och om Kisel är ett problem så går det ju alltid forska fram mer på Nanotuber och Grafén. Det fixar sig

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

Varför inte bara lägga ner utvecklingen helt så blir aldrig datorns gamla förutom när sakerna slutar fungera men om de använt samma teknik i så många år ska kvalitén bara så pass att sakerna håller många år. På så sätt är datorn alltid modern även efter 10 år.

Visst finns det nackdelar som förminskad försäljning och stagnerande grafik men de kan sättas på bättre gameplay och story istället.

Halvseriöst/halvsarkastiskt inlägg.

Skickades från m.sweclockers.com

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Datavetare
Citat:

"Samtidigt tillkommer fördelar som högre potentiell prestanda (klockfrekvens) och energieffektivitet, fördelar som blir allt svårare att realisera."

Säger verkligen TSMC att högre klockfrekvens är möjligt? Vad jag ser nämnas ihop med transistorer är "performance", men får en känsla av att det är ett rätt mycket bredare koncept är just vilken frekvensen transistorer fixar för kikar man enbart på "switching latency" på transistorer borde alla kunna designa kretsar >5 GHz sedan flera noder tillbaka.

AnandTech gör samma tolkning som SweClockers, så kan absolut var jag som missar något

Citat:

"When compared to the CLN16FF+ technology (TSMC’s most widely used FinFET process technology) the CLN7FF will enable chip designers to shrink their die sizes by 70% (at the same transistor count), drop power consumption by 60%, or increase frequency by 30% (at the same complexity)."

Det som ändå får mig att tro att TSMC (och de andra kretstillverkarna) ändå menar något annat med "increased performance" är att det trots allt fanns CPUer som officiellt snurrade på 5,0 GHz redan på 65 nm (IBM POWER6).

Efterföljarna 65 nm är också den nod där man stötte på första riktigt stora problemen med "Moores lag", Dennard scaling (a.k.a. MOSFet scaling) upphörde. Var just Dennard scaling som gjort att man fick en "automatisk" skalning av frekvens tidigare.

Vad som styr hur högt en viss CPU kan klockas är nästan uteslutande dess design. Ändrar man inte designen kommer den inte klocka speciellt mycket högre i frånvaro av Dennard scaling, något som ARM säger så här om för 16 nm -> 7 nm.

Citat:

"Arm claims that the latest 7-nm nodes will only deliver 2% to 3% more speed than the 16-nm node. “There hasn’t been much frequency benefit at all since 16 nm … wire speed hasn’t scaled for some time,” said Peter Greenhalgh, an Arm fellow and vice president of technology."

Ändå är huvudfokus för ARM att just höga frekvensen i deras krets som kommer efter Cortex A76 (som är första att lanseras på 7 nm), det när man ändå stannar på 7 nm. D.v.s. i första steget utnyttjade man krympningen till att höja IPC (typ 35 % upp från modellen innan) då man kan slänga fler transistorer på problemet.

I nästa steg kommer man designa om kretsen för högre frekvens -> d.v.s. CPU frekvens verkar vara långt mer en konsekvens av hur kretsen är designad än vilken nod den kör på.

En annan konsekvens av "breakdown of Dennard scaling" är att man sedan dess inte längre skalar vissa delar. Även det syns rätt väl när man jämför den möjlighet till 70 % högre transistortäthet som nämns ovan. Om alla delar fortfarande skalades skulle en krympning från 16 nm -> 7 nm ge 5,2x högre densitet. Om man tar hänsyn till att "7 nm" är mer som Intels 10 nm (som även den är en "10 nm") borde man ändå se 2,6x högre densitet och inte 1,7x.

Då Moores lag egentligen handlade om ekonomi, att antalet transistorer man kunde få in på en kiselbricka för ett visst pris dubblades med en relativ konstant kadens, så är det bara konstatera att den "lagen" är stendöd 2018.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av dagas:

Varför inte bara lägga ner utvecklingen helt så blir aldrig datorns gamla förutom när sakerna slutar fungera men om de använt samma teknik i så många år ska kvalitén bara så pass att sakerna håller många år. På så sätt är datorn alltid modern även efter 10 år.

Visst finns det nackdelar som förminskad försäljning och stagnerande grafik men de kan sättas på bättre gameplay och story istället.

Halvseriöst/halvsarkastiskt inlägg.

Skickades från m.sweclockers.com

Det skulle faktiskt vara riktigt intressant, då det skulle kräva optimeringar i mjukvaran. Idag lever ju många utvecklare efter devisen "Det finns ingen långsam kod, bara hårdvaran är tillräckligt snabb".

Tyvärr bygger ju vår ekonomi på ett slit och släng-tänk, så även om utvecklingen stagnerade så skulle de hitta på sätt att få oss att köpa nytt efter en viss tid oavsett, så det blir ingen vinst för planeten eller folks plånböcker ändå.

(svaret utgår ifrån att inlägget var helt seriöst och inte sarkastiskt)

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Avstängd
Skrivet av Ozzed:

Det skulle faktiskt vara riktigt intressant, då det skulle kräva optimeringar i mjukvaran. Idag lever ju många utvecklare efter devisen "Det finns ingen långsam kod, bara hårdvaran är tillräckligt snabb".

Tyvärr bygger ju vår ekonomi på ett slit och släng-tänk, så även om utvecklingen stagnerade så skulle de hitta på sätt att få oss att köpa nytt efter en viss tid oavsett, så det blir ingen vinst för planeten eller folks plånböcker ändå.

(svaret utgår ifrån att inlägget var helt seriöst och inte sarkastiskt)

Nja, de flesta seriösa spelutvecklare tar prestanda seriöst. Tex gå från klassisk OOP till ECS osv.

Visa signatur
Permalänk
Inaktiv
Skrivet av mpat:

Svaret på det problemet är nog att ha flera chip och sedan fixa en snabbare kontakt mellan dem. Intels svar på detta är EMIB, medan många andra jobbar med olika interposer-lösningar.

Skickades från m.sweclockers.com

Vilket driver upp kostnaden och gör de fysisk större vilket leder till en massa problem. Nå jag hoppas jättemycket på alla andra tillämpningar, persondatorproblemet ser jag som sekundärt. Dels är klienterna idag hyfsat snabba, server är lätt att bygga ut.
Värre är att min T-800 (terminator) som jag förbokade aldrig vill komma, de skyller på att cpun ännu inte räcker till och det finns bara fysisk plats för en viss stor cpu i den. Skämt åsido, men mycket ny teknik är beroende av en snabb utveckling ab både snabbare, mindre och billigare datorer.

Skrivet av Ozzed:

Lönsamhet är la en tolkningsfråga. Om efterfrågan för bättre teknik finns och ett företag inte tycker att det är lönsamt så finns det säkert andra som gärna tar pengarna som kastas på dem istället.

Sen är det klart att om det är för få så blir det kapacitetsproblem. Men det går ju att lösa genom att bygga fler fabriker.

Jag är såpass gammal nu att jag blivit imun mot "nu går det inte krympa mer", tycker man läst det varenda år sedan Sandy Bridge lanserades men nog fasen lyckas de.

Och om Kisel är ett problem så går det ju alltid forska fram mer på Nanotuber och Grafén. Det fixar sig

Fast detta med att det inte går krympa mer så har folk hela tiden pratat om väldigt få nm, det har varierat, men jag minns ingen som har pratat om 14nm som en magisk gräns. Utan folk har gissat att när vi kommr ner emot 5nm etc så blir problemen riktigt stora. Så problem börjar uppstå ungefär när folk trodde det skulle uppstå.

Permalänk
Medlem
Skrivet av CyberVillain:

3770k? Den är ju utdaterad redan nu. Garanterat flaskhals om du inte kör 4k i Ultra high

Jo jag vet. Men den har hittills räckt till för min 60+ fps i alla spel jag spelat och jag tycker att det får vara gott nog medan jag väntar på att uppgradera,

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Medlem

Fysikens lagar är ett riktigt gissel. Frågan är vad som händer med 5, 4 och 3 nm nu när inte ens övergången till 7/10 nm verkar gå ens i närheten av smidigt.

Jag antar att detta åtminstone spräcker simulationsteorin. Den utgår från att datorer kommer fortsätta bli mer och mer kraftfulla tills de kan simulera ett helt universum. Händer inget revolutionerande snart kommer folk sitta på ungefär samma sorts datorer om 100 år som nu...

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem

Huawei har visat sin nya Kirin 980 med 7 nanometer

https://www.youtube.com/watch?time_continue=242&v=PEKYpFMDH1s

Visa signatur

Windows 11 pro, Corsair 4000D Airflow, MSI PRO B660M-A WIFI D4, Intel Core i5 12600K, Corsair 32GB (2x16GB), PowerColor Radeon RX 6900 XT, Kingston NV1 500GB M.2 NVMe, WD Black SN850 1TB Gen 4, Seasonic Focus GX 850W, LG UltraGear 32GP850

Permalänk
Avstängd

Finns det är inga andra sätt att bygga cpuer på?
Kan man inte bara stapla flera cpuer på varandra?
Lägga 10 cpuer på varandra och med någon form av teknik låta dessa prata med varandra och få en närhet av 10 gånger mer cpukraft?

Jag tycker denna iden med en enda cpu känns föråldrad.
Hur länge har denna iden använts, sen 60 talet?

Permalänk
Medlem

Jag är förvånad att det är först nu som det rapporteras om problem med 7nm noden. Det betyder ju att det gick relativt smidigt utveckla den. Bådar gott inför "5nm"?

Skickades från m.sweclockers.com

Permalänk
Inaktiv

Det är länge sedan förutspått att när de kommer ner till ca 10nm (enligt "standard" litografi) så kommer krympningen ta stopp eller rättare sagt det börjar bli väldigt problematiskt. En vild gissning är att TSMCs "7nm" är 14-12nm vilket innebär att de är väldigt nära gränsen för vad som är fysiskt möjligt med dagens kiselteknik.

EDIT: Forskare har visserligen lyckats konstruera en transistor med 1nm power gate, men det är med hjälp av nanorör i kol.

Permalänk
Inaktiv

Ser fram emot 3nm i var och varannan pryl år 2022! Detta är verkligen överdrivet!

Permalänk
Medlem
Skrivet av tumvanten:

Finns det är inga andra sätt att bygga cpuer på?
Kan man inte bara stapla flera cpuer på varandra?
Lägga 10 cpuer på varandra och med någon form av teknik låta dessa prata med varandra och få en närhet av 10 gånger mer cpukraft?

Jag tycker denna iden med en enda cpu känns föråldrad.
Hur länge har denna iden använts, sen 60 talet?

Det du beskriver har gjorts, och gjorts länge på lite olika sätt. Är en väl en rätt ok lösning i vissa fall, men kommer även med nackdelar.

https://en.wikipedia.org/wiki/Three-dimensional_integrated_ci...
https://en.wikipedia.org/wiki/Multi-chip_module

Permalänk
Datavetare
Skrivet av CyberVillain:

Nja, de flesta seriösa spelutvecklare tar prestanda seriöst. Tex gå från klassisk OOP till ECS osv.

Skönt att se att även de som tillverkar Unity insett att OOP och parallella program (egentligen gäller det även "concurrent programs" som är en långt mer generell term) är som att försöka lösa olja i vatten

Det trevliga med ECS är att man med den grunddesignen även rejält krattat manegen för att utnyttja SIMD till långt större grad än vad som görs i dag. Rätt bra timing med tanke på att SIMD har funnits i två decennier på x86 men är faktiskt först i 2017 års C++ standard man som programmerare fått ett standardiserat sätt att använda tekniken "cross-plattform / cross-CPU-arch".

Fast timingen är nog knappast en slump givet att mycket av SIMD-arbetet har prototypats inom LLVM-projektet, vilket är exakt vad Unity numera använder för att generera maskinkoden med!

Skrivet av Zirgo:

Huawei har visat sin nya Kirin 980 med 7 nanometer

https://www.youtube.com/watch?time_continue=242&v=PEKYpFMDH1s

Det riktigt coola med Cortex A76 som sitter i Kirin 980 är att de Geekbench 4 resultat som presenteras antyder att man passerat Skylake i IPC (med >10 % enligt de siffror som visats upp).

I.o.f.s. har ARM lite lovat det då man sagt att en Cortex A76 @ 3,0 GHz ska prestera i nivå med i3-7300U (max turbo 3,5 GHz) i _enkeltrådprestanda_! Kanske var just GB4 man använde som referens då (GB4 är trots allt en hyfsat vettig benchmark om målet är att ge en vink om desktop/mobil-prestanda, vilket man inte kan säga om tidigare versioner av GB...).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Yoshman:

Skönt att se att även de som tillverkar Unity insett att OOP och parallella program (egentligen gäller det även "concurrent programs" som är en långt mer generell term) är som att försöka lösa olja i vatten

Det trevliga med ECS är att man med den grunddesignen även rejält krattat manegen för att utnyttja SIMD till långt större grad än vad som görs i dag. Rätt bra timing med tanke på att SIMD har funnits i två decennier på x86 men är faktiskt först i 2017 års C++ standard man som programmerare fått ett standardiserat sätt att använda tekniken "cross-plattform / cross-CPU-arch".

Fast timingen är nog knappast en slump givet att mycket av SIMD-arbetet har prototypats inom LLVM-projektet, vilket är exakt vad Unity numera använder för att generera maskinkoden med!

Det riktigt coola med Cortex A76 som sitter i Kirin 980 är att de Geekbench 4 resultat som presenteras antyder att man passerat Skylake i IPC (med >10 % enligt de siffror som visats upp).

I.o.f.s. har ARM lite lovat det då man sagt att en Cortex A76 @ 3,0 GHz ska prestera i nivå med i3-7300U (max turbo 3,5 GHz) i _enkeltrådprestanda_! Kanske var just GB4 man använde som referens då (GB4 är trots allt en hyfsat vettig benchmark om målet är att ge en vink om desktop/mobil-prestanda, vilket man inte kan säga om tidigare versioner av GB...).

Absolut, jag har dock använt structs framför OOP för kritiska algoritmer i åratal. Det är bara det att nu kan du applicera det hela vägen i Unity vilket är nice, sedan så får du Burst compiler också, JIT compiler Kan ju redan göra ett gäng optimeringar beroende på platform burst tar det ett steg längre

Skickades från m.sweclockers.com

Visa signatur
Permalänk
Medlem
Skrivet av anon12433:

Det är länge sedan förutspått att när de kommer ner till ca 10nm (enligt "standard" litografi) så kommer krympningen ta stopp eller rättare sagt det börjar bli väldigt problematiskt. En vild gissning är att TSMCs "7nm" är 14-12nm vilket innebär att de är väldigt nära gränsen för vad som är fysiskt möjligt med dagens kiselteknik.

EDIT: Forskare har visserligen lyckats konstruera en transistor med 1nm power gate, men det är med hjälp av nanorör i kol.

Ja, alltså:

7 nm Samsung/TSMC is equivalent to 10 nm Intel. Thus treating 7 nm Samsung/TSMC and 10 nm Intel in different articles due to marketing material and not real measurements seems to be incorrect

https://en.wikipedia.org/wiki/7_nanometer

Intel har ju skjutit fram sin 7nm, som vi väl får kalla "äkta" 7nm just pga dessa problemen. Så visst kommer vi börja pusha gränserna ordentligt inom några år när det gäller kisel (får väl ändå anse att vi redan gör det då Intel skjutit fram det ett antal gånger)

Visa signatur

| Corsair Crystal 460X | Z390-F | 9700K | ROG Ryujn 360mm | RTX 3080Ti | ROG Thor 850W | Vengeance Pro 3200mhz 16cl 16GB (2x8) | 970 Pro 2TB + 2xWD Black 4TB | ROG SWIFT PG279Q | Arctis 7 Pro Wireless | ROG Scope Deluxe red silent | ROG Chakram |

Permalänk
Permalänk
Medlem

Ett stort problem är bakåtkompatibiliteten. Om man tog bort allt gammalt skit från processorn så skulle den bli mindre, effektivare och man skulle ha utrymme för teknik för att snabba upp saker. Program behöver också designas på ett nytt sätt och ta vara på parallella beräkningar bättre så att man kan ha fler, men slöare kärnor. Då behöver man inte heller krympa allt lika fort. Vi har multicore-processorer idag men de är bara till nytta när man kör massor med program eller program som är speciellt byggda för parallella beräkningar. Så för spel osv så är multicore rätt så värdelöst utan där är det hastigheten för de enskilda kärnorna som gör mest. Ytterst få icke-industriella program tar vara på multipla kärnor på ett effektivt sätt.

ARM t.ex är ju långt fram på detta då de dumpar en massa gammalt skräp och bygger upp en ny arkitektur baserat på moderna krav. Om man nu behöver köra äldre system så borde man kunna sköta detta via emulering så som man gör idag med äldre arkitekturer som MOS, Motorola 68k osv.

Permalänk
Inaktiv
Skrivet av tumvanten:

Då lär man ha 7nm till 2030 känns det som.
Då vet man det, så kan man köpa en rejäl dator med 7nm som vara länge.

Precis min tanke.

Skickades från m.sweclockers.com