TSMC: "Moores lag gäller inte längre"

Permalänk
Melding Plague

TSMC: "Moores lag gäller inte längre"

Grundaren till världens största kontraktstillverkare av kretsar stämmer in i kören om att Moores lag inte längre gäller, men ser fortsatt ljust på framtida tekniska framsteg – åtminstone till år 2025.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

"7" nm, "5" nm, "3" nm. Altså 20 nm ++ 20 nm +++ och 20 nm ++++? Tillverkarna är hopplösa med storleks benämningarna i dagsläget >.<"

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem

Går väl att stapla i flera lager, så vi kommer nog ikapp snart igen.

Inte problemfritt, men kan dom klura ut ett sätt att bygga in heatpipes i kislet så borde värmeavledningen bli bra nog för att möjliggöra flera lager.

Permalänk

Varför fortsätter stora företag droppa denna bomb till nyhet? Vi alla har redan hamnat i chock över detta så det räcker...

Visa signatur

STULET: 1600x | 980Ti | Ceslius S24| Prime B350 PLUS | 16gb Vengeance LPX 3000MHz | 850 EVO 250gb | 750gb HDD | RM550X | Carbide 600Q | HD598SE | E10K
Kylpasta på bilden...
Tagg/citat öker risken att jag ser ditt inlägg med upp till 97%!

Permalänk
Avstängd

Just nu är det bara 4 företag på 14nm och när vi går ner under 7nm kommer det nog bara vara 3 företag kvar.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk

Min första tanke är: Vem bryr sig längre?

Ja, det är inte så ekonomiskt att bara krympa längre. Det krävs lite mer från andra håll.

Processor, gpu etc har tagit stora steg frammåt. Mjukvaru utveckligen är dock inte i samma takt känns det som.

Fler kärnor och fler vector enheter etc verkar inte skala bra längre vilket var det man tjänade mest på innan.

Allt verkar ligga i mjukvaran. inte möjligen OS level men fortfarande mjukvara.

Det verkar som AMD/Intel/Nvidia introducerar fler funktioner och mer power under huven men allt arbete dom gör inte visar sig lika mycket.

Hur man fixar det vet jag ej, hade förmodligen gjort alla en stor tjänst och och fått massor med pengar för de.

Permalänk

så vi har haft 4-5 inlägg om detta redan förra året. skall vi ha 2 till nästa år också : )

Permalänk
Medlem

Detta har man väl konstaterat i några år nu? Har TSMC legat under en sten och missat alla andra nyheter av detta?

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 10
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Medlem

Antar att då kommer även GPUerna se sina +5% prestandaökningar runt år 2025.

Permalänk
Inaktiv

Vi kommer hamna i en dyster medeltid för datorkomponenter många århundraden framåt. Undergången är nära.

Permalänk
Medlem

När kommer nya material som ersätter kisel, diamant, nanotubes eller vad det nu blir ??

Permalänk
Medlem

Nya lagen verkar vara att lägga till ett plustecken till befintlig teknik per år!

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Avstängd
Skrivet av Alpha77:

När kommer nya material som ersätter kisel, diamant, nanotubes eller vad det nu blir ??

När någon är beredd att satsa på att utveckla metoder att framställa chip med dessa, kan bli extremt dyrt (Snackar årtionden och hundratals miljarder dollar)

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem
Skrivet av anon114264:

Vi kommer hamna i en dyster medeltid för datorkomponenter många århundraden framåt. Undergången är nära.

Är ju inte direkt så att man inte forskar om alternativ

Till exempel grafen eller nanorör. Men visst, det kan ju dröja ett bra tag innan nåt av dessa alternativ fungerar i praktiken och presterar bättre än det vi har nu.

Visa signatur

AMD R5 1600 3.2 GHz | Gigabyte AX370 Gaming K3 | Corsair Vengeance LP 2x8GB 3200MHz CL16 | Sapphire RX580 Nitro+ 8GB | Phanteks Eclipse P400S | 1x Samsung 970 EVO 500GB 1x WD 500GB | Windows 11 Pro

Permalänk
Medlem
Skrivet av Esseboy:

När någon är beredd att satsa på att utveckla metoder att framställa chip med dessa, kan bli extremt dyrt (Snackar årtionden och hundratals miljarder dollar)

Om traditionell utveckling blir exponentiellt dyrare för varje generation är det inte en fråga OM utan NÄR det blir billigare att utveckla med alternativa metoder...

Permalänk

“The electric light did not come from the continuous improvement of candles.” - Oren Harari

Det behövs nytänkande och nya tekniker än att fortsätta i samma gamla spår...

Permalänk
Inaktiv
Skrivet av SwedenVirre:

Min första tanke är: Vem bryr sig längre?

Det är väl bara Ludditer och liknande som inte bryr sig?
Det stannar ju upp hela teknikrevolutionen om vi ej får snabbare processorer av olika slag, såsom cpu och gpu.

Skrivet av SwedenVirre:

Processor, gpu etc har tagit stora steg frammåt. Mjukvaru utvecklingen är dock inte i samma takt känns det som.

Tvärt om om man ser vad mjukvaran kräver för hårdvara. Det är hela tiden hårdvaran som sätter begränsningar i hur ens system kan se ut.

Skrivet av SwedenVirre:

Fler kärnor och fler vector enheter etc verkar inte skala bra längre vilket var det man tjänade mest på innan.

Problemet med kärnor ligger på hårdvarusidan, det är inga problem att som privatperson slänga ihop ett system för hemmabruk som behöver ha motsvarande 200 processorkärnor med nuvarande prestanda per kärna, problemet är att man även ska ha övrig hårdvara som kan förse denna med data, vilket leder till att man helst ändå vill dela upp belastningen på fler datorer. Ofta behöver de olika kärnorna i princip inte kommunicera med varandra alls och då kan de ligga på flera olika moderkort.

Permalänk
Medlem

Jag tycker det är dags att bredda kretsarna så vi får plats med fler transistorer och annat.

I en stationär PC finns hur mycke utrymme som helst, och det skulle inte göra något om CPU:n blev en eller två cm bredare samt lite tjockare, om man tex vill peta in en fet gpu.

När ska vi få moderkort med dubbla CPU, måste allt byggas in i samma cpu?

Det finns många vägar att gå.

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Avstängd
Skrivet av Ixos:

Om traditionell utveckling blir exponentiellt dyrare för varje generation är det inte en fråga OM utan NÄR det blir billigare att utveckla med alternativa metoder...

Kisel chipp är egentligen otroligt billiga att tillverka. Utvecklingskostnader är vad som gör dom dyra. Ett GTX 1080 TI kostar troligen runt 2500 kr (ta med ett saltkar eller två) att tillverka, men eftersom de spenderat otaliga miljarder på att utveckla det så ska pengarna in nånstans!

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Inaktiv
Skrivet av Xverminator:

Jag tycker det är dags att bredda kretsarna så vi får plats med fler transistorer och annat.

I en stationär PC finns hur mycke utrymme som helst, och det skulle inte göra något om CPU:n blev en eller två cm bredare samt lite tjockare, om man tex vill peta in en fet gpu.

När ska vi få moderkort med dubbla CPU, måste allt byggas in i samma cpu?

Det finns många vägar att gå.

Det hjälper inte eftersom det skulle vara fler kärnor i så fall och programvara idag är allmänt dålig på att utnyttja flera trådar.

Skickades från m.sweclockers.com

Permalänk
Avstängd

Ni tror inte att det finns en utveckling vid sidan om enbart krympningen? Stora företag väntar nog inte på en undergång utan har nog en ganska gedigen plan inför framtiden. Om man nu skulle stampa på samma ställe, Varför skulle konsumenter fortsätta köpa nya komponenter? Klart som fan att det finns en plan för att öka prestandan även när fysikens lagar inte längre tillåter ytterligare krympning.

Kolla på bil/Transportindustrin där man börjar sadla om från fossilt till hybrid/batteri för att nämna en industri.

Tror inte AMD,Nvidia,Intel med flera sitter och rullar tummarna och ser sin undergång runt 2030. Skulle inte förvåna mig om dessa giganter har ett gemensamt samarbete med en gemensam plan likt bilindustrin som folk inte ser.

Visa signatur

•·.·´¯`·.·•ЩIЯЦZ•·.·´¯`·.·•
Threadripper 1950X - Aorus x399 Gaming 7 - G.Skill Trident Z RGB 3200Mhz 4x8gb - EVGA GeForce GTX 1080 Ti FTW3 - 500gb Samsung 960 evo - Noctua NH-U14S TR4 - EVGA SuperNOVA G2, 1300W - Acer X34A

Permalänk
Avstängd
Skrivet av Xverminator:

Jag tycker det är dags att bredda kretsarna så vi får plats med fler transistorer och annat.

I en stationär PC finns hur mycke utrymme som helst, och det skulle inte göra något om CPU:n blev en eller två cm bredare samt lite tjockare, om man tex vill peta in en fet gpu.

När ska vi få moderkort med dubbla CPU, måste allt byggas in i samma cpu?

Det finns många vägar att gå.

Problemet är att värmespridaren inte räcker till för att avleda värmen! Med ett GTX 1080 Ti och en Ryzen 1800 X krävs det nära 400 W kylning! Då får man sätta på en fet vattenkylare! Men visst kunde man I teorin bygga in HMB2 för systeminne och grafikkort (16 GB vardera) SSD på 250 GB och CPU och GPU I en processor i storleken Threadripper, men fasen vad det skulle bli värme! Men latenserna skulle bli otroligt små! Och moderkortet skulle kunna göras mindre än ITX haha! Sen bara in med sydbryggan och du har en system on a chip

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Inaktiv
Skrivet av Xverminator:

Jag tycker det är dags att bredda kretsarna så vi får plats med fler transistorer och annat.

I en stationär PC finns hur mycke utrymme som helst, och det skulle inte göra något om CPU:n blev en eller två cm bredare samt lite tjockare, om man tex vill peta in en fet gpu.

När ska vi få moderkort med dubbla CPU, måste allt byggas in i samma cpu?

Det finns många vägar att gå.

När det gäller göra processorn större så blir det mycket dyrare av flera anledningar, som att sannolikheten att få en felfri krets minskas. Men visst blir tillverkningen bättre.

Moderkort med dubbla cpuer kommer nog snarare minskas till konsumenter och förklaringen är enkel. I början så var datorerna som vanliga personer använde terminaler som styrde en stordator, sedan kom hemdatorn och nu håller våra datorer på att bli något terminalliknade dator igen. Så folk kommer få mindre behov av datakraft i hemmet för att bearbetningen sker på servrar någons annanstans, se man på vanligt folk idag så har vissa inga applikationer installerade alls. Inte ens Office har de på datorn utan kör det i molnet. Inte ens jag som är utvecklare idag använder den egna datorn till annat än att koppla upp sin på en server där all utveckling skes.

Utvecklingen kommer då gå till emot att behovet av riktigt monstercpuer kommer att öka.

Sedan finns det såklart en skara gamers som köper bättre processorer och kör sina spel.

Permalänk
Medlem
Skrivet av Elcentralen:

så vi har haft 4-5 inlägg om detta redan förra året. skall vi ha 2 till nästa år också : )

Min nya lag: "Antalet personer över tid, som påstår att Moores lag inte längre gäller längre, är ungefär konstant."

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Datavetare
Skrivet av SwedenVirre:

Processor, gpu etc har tagit stora steg frammåt. Mjukvaru utveckligen är dock inte i samma takt känns det som.

Backar man ~12-14 år, när Dennard scaling* havererade vilket gjorde det mer eller mindre omöjligt att skruva upp frekvensen speciellt mycket, fanns fortfarande en väldigt utbredd optimism kring att det enda som saknades för att fler kärnor skulle ge samma vinst som högre frekvens gett under ett par årtionden var nya verktyg, metoder och programspråk.

Så här i efterhand är det som vanligt lätt att vara efterklok och konstatera att det var ett väldigt naivt förhållningssätt. Att göra varje enskild sak väldigt fort är långt mer flexibelt och inte alls generellt ersättningsbart med att göra många saker parallellt fast i långsammare fart per uppgift. Ofta har man bara en eller några få saker som kan göras!

Idag är det nog ingen inom forskningen som lägre tror att det kommer dyka upp någon silverkula som gör parallellprogrammering helt automatiskt. Numera är man införstådd med att det i grunden finns tre typer av problem

  • de strikt sekventiella (sådant där steg N+1 beror av resultatet från steg N), de kan inte köras snabbare på parallella system

  • de uppgiftsparallella (sådant där olika moment kan utföras oberoende av varandra), dessa kan med fördel skalas med fler CPU-kärnor

  • de dataparallella (sådant där samma sekvens av moment ska appliceras på massor med olika indata), dessa kan med fördel skalas med vektorenheter och i många fall även med fler kärnor

GPUer ser fortfarande en god utväxling från att öka antalet transistorer per krets då dessa uteslutande jobbar med den sista kategorin. D.v.s. de som designar GPUer är inte smartare än andra, de råkar bara jobba med det problem där det fanns mest outnyttjad potential.

Är långt mer energieffektivt att skala prestanda med vektorenheter än andra metoder, detta är dock den mest restriktiva formen av att exekvera ett program då all indata kör i stort sätt exakt samma program. GPUer är i botten väldigt breda vektor-CPUer.

Servers ser också riktigt bra utväxling de senaste 10 åren, detta då de ofta hamnar i någon av de två senare kategorierna. Programmen på skrivbordet är väldigt ofta i första kategorin, spel ligger mellan de två övre kategorierna.

Ett givet problem hamnar i en av kategorierna ovan, d.v.s. hur väl ett problem kan parallelliseras beror till absolut största del på problemet egenskaper.

Ur den aspekten är det väldigt trist att Moores lag är till ända, GPUer kan faktiskt fortfarande använda fler transistorer på ett sätt som relevant ökar prestanda. Är väl i.o.f.s så att Dennard allt mer sätter käppar i hjulen, detta då allt fler transistorer utan Dennard-scalning betyder att kretsen totalt sett kommer dra allt mer ström per ytenhet vid mindre noder.

Vi har faktiskt haft enorm utveckling på programvarufronten vad det gäller parallellprogrammering. Betänk bara att innan 2011 så hade faktiskt varenda multitrådat program skrivet i C/C++ ett beteenden som respektive språkstandard listade som "odefinierat beteenden" (det var i de flesta fall ändå definierat i praktiken, men det p.g.a. utökningar utanför själva språken).

Då dessa språk klev in i multicore-eran fick man ändå med sig en del bra saker. C11/C++11 har en kraftfullare, flexiblare och mer välskrivet beteende för multitrådade program körandes på SMP-system än något annat (finns absolut språk som är lättare att hantera, men inget är i närheten lika kraftfullt så de lämnar en helt del prestanda på bordet).

ARM utnyttjade också att de var väldigt sena på 64-bitars bollen i att de har den enda instruktionsuppsättning (så här långt) som är är en perfekt match mot C11/C++11 multicore-tjosan. Ska bli spännande att se hur mycket det kommer göra i praktiken. 32-bitars ARM och x86 är båda en rätt kass match (x86 är allt för strikt och 32-bitars ARM kräver allt för mycket explicit synkronisering).

* Dennard scaling sa i korthet: effekt per areaenhet är konstant när transistorer krymper.
D.v.s. effekten per transistor minskade tillräckligt snabbt för att kompensera för att man fick plats med fler transistorer. Pentium 4 är ett bra exempel på vad som hände när man körde på i samma "öka frekvensen" hjulspår även efter att Dennard Scaling havererat.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@anon99339: Men nu pratar vi om framtiden, inte nu..

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Medlem
Skrivet av anon159643:

När det gäller göra processorn större så blir det mycket dyrare av flera anledningar, som att sannolikheten att få en felfri krets minskas. Men visst blir tillverkningen bättre.

Moderkort med dubbla cpuer kommer nog snarare minskas till konsumenter och förklaringen är enkel. I början så var datorerna som vanliga personer använde terminaler som styrde en stordator, sedan kom hemdatorn och nu håller våra datorer på att bli något terminalliknade dator igen. Så folk kommer få mindre behov av datakraft i hemmet för att bearbetningen sker på servrar någons annanstans, se man på vanligt folk idag så har vissa inga applikationer installerade alls. Inte ens Office har de på datorn utan kör det i molnet. Inte ens jag som är utvecklare idag använder den egna datorn till annat än att koppla upp sin på en server där all utveckling skes.

Utvecklingen kommer då gå till emot att behovet av riktigt monstercpuer kommer att öka.

Sedan finns det såklart en skara gamers som köper bättre processorer och kör sina spel.

Jepp precis men jag pratar om power users, inte såna som lyssnar på spotify på mobiltelefonenen eller kollar netflix och enklare appar.
Det kan man göra på sufplattor och i molnet som sagt.

Men det blor nog en combo av både server/klient samt klient lösningar i molnet.

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk

@anon159643: Menade inte att vi inte får någon utveckling utan mer att detta konstaterats i flera år och samma ord har blivit saggda många gånger.

Permalänk
Medlem
Skrivet av Lordsqueak:

Går väl att stapla i flera lager, så vi kommer nog ikapp snart igen.

Inte problemfritt, men kan dom klura ut ett sätt att bygga in heatpipes i kislet så borde värmeavledningen bli bra nog för att möjliggöra flera lager.

Man har väl räden det tänket i flera lager. Hur man ska flytta bort värme menar jag. Sedan är ju latency ett problem då man ska designa ledningsbanor. Beror ifos på vad kretsen ska göra.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Inaktiv
Skrivet av Xverminator:

Jepp precis men jag pratar om power users, inte såna som lyssnar på spotify på mobiltelefonenen eller kollar netflix och enklare appar.
Det kan man göra på sufplattor och i molnet som sagt.

Men det blor nog en combo av både server/klient samt klient lösningar i molnet.

Ja håller med. Det jag är tveksam till hur många prousers det finns. Molnet växer annars som det knakar, av hur många anledningar så det ej är klokt. Och Amdahl's och vad de heter, har lika mycket att säga till om som Newtons gravitationslag på hur en processor ska byggas upp.
Man har i princip "obegränsat antal" helt oberoende problem som ska exekveras, helst ska dessa problem vara så isolerade från varandra som möjligt och man isolerar dem ofta med virtualisering eller contationers som är mer lättdrivna.
Det som avgör hur många kärnor som man ska lägga per host avgörs av hur den övriga hårdvaran bottleneckar, i princip ingen annan begränsning finns. Även om hypervisors som EXSI säkerligen mår dåligt av för många maskiner.

Maskiner som körs under dessa premisser blir allt vanliga bland helt vanliga prousers.

Rena sekventiella problem vars realtidskrav ställer problem så att en kärna flaskar vill jag påstå är ovanligt i saker förutom spel eller annan liknande användning (navigering i cad är liknande). Många gör tester som att det tar x millisekunder med en kärna för ett program att visa en meny med en kärna, med 10 kärnor tar det fortfarande lika många millisekunder för menyn att öppnas. Och då säger de att fler kärnor ej hjälper, varvid min åsikt är varför fokuserar de på att mäta tider för saker som ändå inte är något problem?
Mät istället för de uppgifterna där användarna håller på att slå sönder datorn för skiten aldrig blir klar.