Vad är grejen med att trycka ihop så många transistorer som möjligt på en cpu, på så liten yta som möjligt?

Permalänk

Vad är grejen med att trycka ihop så många transistorer som möjligt på en cpu, på så liten yta som möjligt?

Finns ju hur mycket yta som helst på ett moderkort för att kunna ha betydligt större och kraftigare cpuer

Permalänk
Medlem

Skulle tro att effektiviteten/prestandan kommer sig av korta avstånd mellan transistorerna. Dvs ingen fördel med att sprida ut dem i någon större omfattning.

Visa signatur

🖥️:Phanteks Evolv X | Ryzen 7 5800X3D | Noctua nh-d15 chromax.black | 8x Noctua NF-P14s Redux 1500 | Gigabyte x470 Aorus Gaming 7 Wifi | Kingston Renegade 32Gb 3600Mhz | Samsung 990 Pro | ASUS TUF 3080 12Gb | Cougar CM 700W | Acer XB27HU | Mionix Naos QG | CM Storm QuickFire TK MX Blue |

"Bättre bli motbevisad - än förklarad skyldig"

Permalänk
Skrivet av orginallinus:

Skulle tro att effektiviteten/prestandan kommer sig av korta avstånd mellan transistorerna. Dvs ingen fördel med att sprida ut dem i någon större omfattning.

Det får ju plats betydligt mer transistorer med korta avstånd om man har större yta

Permalänk
Medlem
Skrivet av peckapecan:

Det får ju plats betydligt mer transistorer med korta avstånd om man har större yta

Den andra orsaken är kostnad, dvs det är dyrt att tillverka wafers.

Visa signatur

🖥️:Phanteks Evolv X | Ryzen 7 5800X3D | Noctua nh-d15 chromax.black | 8x Noctua NF-P14s Redux 1500 | Gigabyte x470 Aorus Gaming 7 Wifi | Kingston Renegade 32Gb 3600Mhz | Samsung 990 Pro | ASUS TUF 3080 12Gb | Cougar CM 700W | Acer XB27HU | Mionix Naos QG | CM Storm QuickFire TK MX Blue |

"Bättre bli motbevisad - än förklarad skyldig"

Permalänk
Medlem

Det tar tid för elektroner att färdas från en ände av en CPU till den andra änden. Skulle ta ännu längre tid för att färdas från ena änden av ett moderkort till den andra.

Om man antar att de elektriska signalerna färdas med ljusets hastighet (i verkligen så rör de sig lite långsammare i kretsar), och om man antar en klockfrekvens på 1GHz, så hinner signalen färdas maximalt 30cm på en klockcykel. Högre klockfrekvenser innebär kortare sträcka per klockcykel, och sedan så måste man ju hinna göra något med signalen när den väl kommit fram.

Sen så har man traditionellt byggt mikroprocessorer som monolitiska kretsar, och då blir det rejält dyrare om man gör dem större.

(Historisk fotnot: Förr i världen, innan integrerade kretsar blev populära, så var en CPU vanligtvis utspridd över flera kretskort med en massa enskilda komponenter och tog en massa plats.)

Permalänk
Hedersmedlem

Det är svårare och dyrare att tillverka kretsar med större yta.

Samma sak att ha fler men mindre kretsar, det är dyrt och svårt att koppla ihop dem med tillräcklig prestanda.

Visa signatur

|| SWECLOCKERS.COM || oskar@sweclockers.com || OSkar000.se || Fototråden ||
|| Gundeman || Bartonofix || GundemanX2 || Obelinux || Nexofix || Filofix || Ircofix ||
|| Tillse att hjärnan är inkopplad innan fingrarna vidrör tangentbordet ||
|| D300 | D700 | 24/2,8 | 28/2,8 | 35/2 | 50/1,8 | 55/2,8 | 85/1,8 | 105/2,5 | 200/4 | 300/4,5 | 10-20 | 24-70/2,8 | 75-150/3,5 | 80-200/2,8 ||

Permalänk
Medlem

Det har alltid varit drivande att minimera ytan på en krets i en wafer - av kostnadsskäl och också av yeld-skäl då större yta ger större risk för 'träff' av kristallfel i wafern eller smutspartikel vid exponering eller annan behandling på waferns yta - det är många gånger det åker fram och tillbaka med beläggning, exponering tvättning etsning och jon-implantation, metallbeläggning, oxidering etc. om och om igen och det räcker att det skiter sig på någon punkt i en lager i hela processen för att den kretsen skall dömas bort. Mindre kretsar med liten yta ger fler överlevande kretsar per wafer än med stora kretsar då mängden fel är statistiskt konstaterad per ytmått men inget som går att styra och det kanske är 15 -20 fel per wafer och yelden blir inte så bra om det bara får rum 50 stora kretsar gentemot 500 små kretsar på en wafer

Minneskretsar är lite enklare i det avseendet än CPU där en stor del av ytan är unik med logiska funktioner som inte är av repetitiv natur då man i minneskretsar har reservblock som kan länkas om och felaktiga block låsas ut - typ ha en eller 2 reservblock per lager för en multilager-Flashminne.

Sedan har man det andra som redan har nämnt - ljushastighet i mediumet (dielektriska konstanten för kisel (Er=11.68 och kiseloxider Er=3.9 främst) och 1/roten ur Er ger våghastighet c_kisel=0.292 för kisel och c_kiseloxid=0.506 vilket gör att våglängden för 4 GHz är 37 mm för kiseloxid och 21 mm för ren kisel). - detta kräver tänk i klockdistrubitionen, databussar och logiska grindkopplingar så att det ripplar ut rätt över ytan då det är en hel period (2 potentiella bit information) försenat 37 resp 21 mm bort på kretsytan beroende om ledare går över kisel eller kiseloxid i sin stripline eller mictrostrip-struktur i lagren på kiselytan, och snarare båda i blandning samtidigt i kretsen - i verkligheten är fördröjningen större då omladdning av kapacitanser i transistorers gate (i logiska grindar) i ändpunkterna tar också tid och då vill man också minimera dess kapacitans då omladdning i högt takt generar - ja just det - värme...

Detta är inget lätt och det har optimerats hela tiden sedan 1970-talet i att försöka bemästra processerna och att byta till annan substrat som safir eller annan mer exotiskt material med tex lägre dielektrisk konstant är inget som görs i en handvändning utan man hamnar i princip på 70-tals nivå igen och behöver flera tiotals år optimering innan man är tillbaka till samma prestanda som det är med kisel idag.

Permalänk
Medlem
Skrivet av peckapecan:

Finns ju hur mycket yta som helst på ett moderkort för att kunna ha betydligt större och kraftigare cpuer

Samma som med alla elektriska hjärnor, ju större hjärna desto längre tid tar det för signalerna att nå fram till sitt mål. Vill man ha låg latens så måste signalvägen vara kort. Därav blir det praktiskt effektivare med fler transistorer men på en begränsad yta.

Bara kolla på råttor, ekorrar, kråkfåglar eller t.o.m. katter. Där snackar vi låg latens och således så får vi tecken på hög(relativt) intelligens eftersom beräkningarna hos dom slutförs fortare p.g.a. den korta sträckan.

Annars får dom börja bygga processorer som använder ljus för överföring.

Visa signatur

Grundregel för felsökning: Bryt och begränsa.

Permalänk
Medlem

Längre sträcka att transportera elektronerna kräver ju även en ökning av strömmen och då dels för att elektronen ska orka fram men även för att risken för störningar ökar.

Vi har ju börjat lite smått att tex minnen kan flippa en bit från störningar, och då även från kosmiska störningar, vilket även gäller processorers cache minne.
Ökar avstånden med ett par hundra till tusentals procent så gissar jag att risken för bitfel ökar en del med, visserligen är dom oerhört små idag.

Visa signatur

Nu när vi betalar för det!
Glöm inte bort att slänga alla plastpåsar i vattnet!

Skit nätagg (som inte alltid=med billigt) är enbart till för dom rika som har råd att byta ut allt när (inte OM utan NÄR) det dör!

Permalänk
Medlem

Längre sträckor i överföring ger dämpning av överförd energi och och mindre signal över brusförhållande och därmed en högre osäkerhet på mottagarsidan - dvs. risken för feltolkning precis vid exakt viss tid ökar.

Man räknar med energi per överförd bit inom informationsöverföring men tävla också mot den värmegenerade termiska bruset och störningar som kopplas över från andra närliggande ledares aktivitet (överhörning) som kan förvanska informationen och det kommer alltid bli ett fel förr eller senare - det handlar bara om hur ofta och det är hårt kopplat till systemets signalstyrka över störnings och brusförhållandet på ledningarna. - row-hammering i tex. RAM är exempel på situationen att överhörning mellan dataledarna inom chip och mellan chip ger så störd miljö att det ibland kan misstolkas på mottagarsidan och man får bitfel.

Det finns anledning varför servrar kör ECC-minnen för att upptäcka och rätta de inträffade felen då man med de bättre servrarna försöker bygga så att 0 fel inträffa inom 5 år användande-tid med mycket stor marginal.

Samma sak överföring USB/SATA/SAS, PCIe, Ethernet - där räknar med att fel uppträder då och då - har olika checksummor för att försöka upptäcka dessa och vid fel, ropa om datat tills felfri överföring - men sådan hantering har man traditionellt inte i bussarna inom en CPU eller i transporten mellan CPU och RAM-minne i konsument-nivån av datorer och det är det man försöker förbättra med ECC-minne och paritet i de mer kritiska applikationer med stora konsekvens om det blir fel.