Transistorkrympning når vägs ände 2021

Permalänk
Medlem

THE END OF THE WORLD!

PS. @Myllerman Du får glömma hälften av vad du vet och kan... så kanske vi kan få plats DS.

Permalänk
Medlem
Skrivet av 1r1d1um:

Aj då .... Och fortfarande inte fotorealistiskt grafik. Hur ska det här gå?

Du behöver använda ray-tracing för att uppnå fotorealism. Det behövs ytterligare några iterationer av Moores lag innan vi kan använda ray-tracing för komplexa scener med 60+ bilder per sekund för en budget som ligger inom räckhåll för en tjänstemannalön. Om 5-10 år skulle jag tro att vi är där.

Permalänk
Medlem
Skrivet av Bloodstainer:

Inte om Nvidia försöker slakta SLI

Skit i nVidia. Om dom inte begriper att SLI/CF har potential att gå långt, så låt dom skjuta sig själva i foten.
AMD däremot verkar köra på som tidigare.

\Lifooz

Visa signatur

Deepcool Matrexx 30 & MSI Z87-G43 Gaming!
Intel Inside Core I7 4790K med AMD Radeon R9 390!
Rubbet strömförsörjs av Corsair RM750X!

Permalänk
Medlem
Skrivet av Lifooz:

Skit i nVidia. Om dom inte begriper att SLI/CF har potential att gå långt, så låt dom skjuta sig själva i foten.
AMD däremot verkar köra på som tidigare.

\Lifooz

I nuläget behövs det två av AMDs bästa för att nå upp i ett av Nvidias bästa så det är klart att AMD bör stödja crossfire.
Nvidia har inte slutat stödja SLI men de har slutat med quad SLI och 1060 verkar inte få något SLI-stöd.

I dagsläget finns det inte, enligt min erfarenhet och åsikt, en hållbar lösning varken för SLI eller XF.
Olika drivrutiner kan behövas för olika spel ibland för att ö.h.t. få igång SLI/XF.
Micro stuttering fortfarande ett stort problem nu som då.
Allmänt obekväm och dåligt fungerande teknologi som absolut inte är kundanpassad och knappt utvecklaranpassad.

DX12 har ju teknologi som tillåter fler grafikkort än ett att användas utan SLI/XF, låter mycket mer attraktivt med tanke på den dåliga funktionen hos SLI/XF i dagsläget.

Permalänk
Inaktiv

Stagnerar utvecklingen så kanske i7 920 varar för evigt : /

Permalänk
Medlem

Det kommer nog någon ersättare snabbare än vad man tror. Finns det pengar att hämta så är det alltid någon som får en ide.

Visa signatur

R7 7800X3D | 4070Ti | 32GB DDR5 6000mhz | 1TB SSD | 1TB M.2

Permalänk
Inaktiv

Datorer är bara en fluga, år 2021 har folk glömt bort apparaterna såsom de gjorde med spikmattan.

Som tur är så kan de flesta av ens problem lösas parallellt där man inte behöver ha snabb kommunikation mellan aluerna utan de kan ligga på olika hostar.

Om någon hade frågat mig 2000 vad för dator jag trodde vanligt folk hade idag, så hade jag knappast gissat att de skulle vara så slöa. Det enda jag skulle ha fel om är att en så stor andel långt ute i skogen har fiber, men det handlar om skattepengar,

Permalänk
Entusiast
Skrivet av anon159643:

Om någon hade frågat mig 2000 vad för dator jag trodde vanligt folk hade idag, så hade jag knappast gissat att de skulle vara så slöa.

...Huh?
Vad är det som är "slött" med moderna datorer, vi har ju kommit otroligt långt

Speciellt på den mobila fronten.

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Inaktiv
Skrivet av Sisyfos:

...Huh?
Vad är det som är "slött" med moderna datorer, vi har ju kommit otroligt långt

Speciellt på den mobila fronten.

År 2000 var processorerna redan över 1GHz och det fanns gott om flercpu datorer, ser man tillbaka hur datorn hade utvecklas under senare delen av 90 talet så trodde jag att utvecklingen skulle fortsätta i samma takt.

Permalänk
Entusiast
Skrivet av anon159643:

År 2000 var processorerna redan över 1GHz och det fanns gott om flercpu datorer, ser man tillbaka hur datorn hade utvecklas under senare delen av 90 talet så trodde jag att utvecklingen skulle fortsätta i samma takt.

Pentium 4 släpptes ju bland annat i en 3.8GHz-variant redan 2004.
Den kostade runt 6000kr då och skulle idag bli så utklassad av en 2-kärnig Pentium i 3.0GHz för 500kr att det inte ens är kul

Klockfrekvenser säger ju knappt någonting.

Skickades från m.sweclockers.com

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Medlem

Låt då istället Gigahertz-racet börja på allvar

Permalänk
Medlem

Kanske lösningen för konsumentdatorer och semipro arbetsstationer att nuvarande arkitekturer överges för CPU, OS och program från x86 till nått som är effektivare och kan arbeta multiparallellt på ett bra sätt..

Så man skaffar tex modekort som har plats för två, tre eller fyra CPU och varefter behovet på prestanda behövs så ploppar man ner en eller flera CPU på moderkortet och enskild CPU kan i sin tur ha olika prestanda och en eller ett flertal cores som idag alltså.

Visa signatur

Acer Predator Helios 300

Permalänk
Medlem

dom får väll komma till skott med de där 2orna bland alla ettor och nollor

dom löser det nog på något sätt ska ni se.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Avstängd

Jag vill gå och lägga mig i en kryokammare....

Permalänk
Medlem
Skrivet av anon159643:

År 2000 var processorerna redan över 1GHz och det fanns gott om flercpu datorer, ser man tillbaka hur datorn hade utvecklas under senare delen av 90 talet så trodde jag att utvecklingen skulle fortsätta i samma takt.

Bra att den stannat av lite
Idag är ju en flera år gammal Sandybridge 2600 fortfarande kapabel att driva allt utom riktigt specifika appar.
För säg 15 år sedan var ju ett 5 år gammal cpu mer eller mindre oanvändbar.
Man hade ju blivit ruinerad om man skulle behöva byta allt i samma takt som man gjorde när man var 16-20år gamla.

Permalänk
Medlem

Skitsnack, alla vet ju att det är Intels monopol som ger upphov till att teknisk utveckling hindras, finns inga fysiska begränsningar

Skickades från m.sweclockers.com

Visa signatur

NZXT H440 - MSI Z97 Gaming 5 - Intel core i5-4690K - Noctua NH-D15 - 2x Gigabyte r9 280x Windforce 3X - Corsair XMS3 DDR3 4x2GB - Corsair TX850M - Samsung evo 840 1TB - 4x Seagate Constellation ES 2TB
HTC Legend> LG Optimus 2x> Nokia Lumia 800> HTC One X > HTC one > LG G2 > Motorola Nexus 6 > Samsung galaxy S7
Surface pro 3 i3 64GB
Hellre att det aldrig fungerar än att man öppnar instruktionsboken!

Permalänk
Medlem

Incitamenten att hitta på andra och nya lösningar är enorma. Klart det kommer nytt, häftigare, snabbare och coolare. De vill väl inte göra oss konsumenter besvikna heller? Utan konsumtion inget lyxliv i Bahamas för höjdarna.

.

Visa signatur

AMD Thunderbird 1.33 GHz (133 MHz Bus), Epox 8K7A, 1 x 256MB Corsair PC2100 DDR SDRAM, 20.5GB 7200 RPM Western Digital EIDE, Visiontek GeForce 3

Permalänk
Datavetare
Skrivet av Aka_The_Barf:

dom får väll komma till skott med de där 2orna bland alla ettor och nollor

dom löser det nog på något sätt ska ni se.

Ettor och nollor... Ungdomar! På min tid fick man använda bokstaven O som nolla!

Skickades från m.sweclockers.com

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Bloodstainer:

Inte om Nvidia försöker slakta SLI

Dom kan ändra sig! Men SLI är tråkigt. Kör det själv, men aldrig mer. Crossfire ska man inte ens snacka om.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

Om man börjar bygga kretsar på höjden och då kan få problem att avleda värme borde man inte då kunna köra kretsen med extremt låg spänning. Det gör ju att kretsen inte kan köras stabilt men en väldigt omfattande felkorrigering kanske klarar av att lösa det. Vet inte om det är möjligt.

Skickades från m.sweclockers.com

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Inaktiv
Skrivet av SweMerlin:

Incitamenten att hitta på andra och nya lösningar är enorma. Klart det kommer nytt, häftigare, snabbare och coolare. De vill väl inte göra oss konsumenter besvikna heller? Utan konsumtion inget lyxliv i Bahamas för höjdarna.

.

Trist incitament. Hellre ekonomi och konsumtion än förbättring av ekosystemet och människors hälsa. Men det är ju så världen fungerar tyvärr...

Permalänk
Medlem

Den där har man inte hört förut, jag tror forskarna kommer hitta sätt att krympa transistorerna mer. Det snackas om att det ska vara lönsamt också för att producera på mindre teknik, det kommer de lösa. Någonstans kommer det ta stop men tror knappast det kommer vara på grund av tillverkningskostnader.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Avstängd
Skrivet av grimboso:

Kvantdatorer blir väl nästa?

Troligen inte då den förmodligen skulle vara långsammare än en vanlig dator när det kommer till spel och allt annat vanligt utövande.

Visa signatur

•·.·´¯`·.·•ЩIЯЦZ•·.·´¯`·.·•
Threadripper 1950X - Aorus x399 Gaming 7 - G.Skill Trident Z RGB 3200Mhz 4x8gb - EVGA GeForce GTX 1080 Ti FTW3 - 500gb Samsung 960 evo - Noctua NH-U14S TR4 - EVGA SuperNOVA G2, 1300W - Acer X34A

Permalänk
Quizmaster Malmö 22

Det låter lite otroligt att det inte skulle komma snabbare o snabbare processorer o grafikkort....Då stannar ju hela utvecklingen av!

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk

Brain computing nästa steg? -En sladd man sätter i huvudet... äkta VR

Finns visserligen nu också som tex läsa en bok eller spela gamla hederliga Drakar och demoner rollspelet.

Permalänk
Entusiast
Skrivet av IceDread:

Den där har man inte hört förut, jag tror forskarna kommer hitta sätt att krympa transistorerna mer. Det snackas om att det ska vara lönsamt också för att producera på mindre teknik, det kommer de lösa. Någonstans kommer det ta stop men tror knappast det kommer vara på grund av tillverkningskostnader.

Tvärt om, det är mer eller mindre bara tillverkningskostnader som avgör. Det kommer inte byggas processorer med tekniker som inte är lönsamma. Redan idag hade det gått att byta till mer exotiska halvledare och få upp frekvenserna men då blir allt väldigt mycket dyrare. Är du beredd att betala 10 gånger mer för lite högre frekvenser? Det är ekonomin som styr den kommersiella biten. Visst kommer det kanske byggas minimala serier för väldigt nischade tillämpningar men om priset är signifikant högre än idag kommer det inte säljas till konsument för ingen kommer köpa det.

IBM testade för ett antal år sedan att en processor av GaAs (Galliumarsenid) skulle kunna köras i 500 GHz, dock var den kyld med flytande helium för att nå så extrema frekvenser. Fortfarande betydligt bättre än de ~8 GHz som kisel klarar under flytande helium. Fast problemet är att GaAs kostar ca 1000 gånger per wafer än kisel. Med lite ny teknik kanske de kan få ner det till 100 gånger dyrare än kisel men det är fortfarande helt orimliga kostnader för vanliga konsumenter. Hur mycket mer är du beredd att betala för en snabbare processor?

Det finns en hård gräns runt 5-6 nm för MOSFET. Efter det säger kvantmekaniken stopp och transistorerna blir oanvändbara på grund av tunneleffekten. Grovt förenklat så kan inte transistorn hållas stängd längre för elektronerna hoppar igenom den.

Fast det finns såklart vägar runt det också. Till exempel finns TFET (Tunnel Field-Effect Transistor) som använder sig av tunneleffekten. Det har ju till och med visats exempel på transistorer byggda av enskilda atomer. Fast ett problem som det inte skrivs om i de artiklarna är storleken på ledarna som ska fram till transistorn som fortfarande måste vara relativt stora för att resistansen inte ska bli helt orimlig och du måste ha ett visst avstånd mellan ledarna för att elektroner inte ska hoppa mellan dem.

Sen kan jag rekommendera dig att läsa lite om hur tillverkningen av nästa nod under 10 nm ska gå till. Det är en lång rad intressanta fysikaliska problem som måste lösas. Till att börja med har vi en begränsning i ljusets våglängd. Det är fortfarande masker som ska täcka vissa delar av kretsen och belysa andra och då krävs högre våglängder på ljus. Nästa steg är EUV, Extreme Ultraviolet, som ligger precis på gränsen till röntgenstrålning. Det är alltså väldigt energirik strålning som inte är långt ifrån joniserande. Det för med sig två stora problem.

1, Hur skapar man ljus med så korta våglängder?
2, Hur skyddar man de extremt små kretsarna från att förstöras?

Det finns ett antal förslag angående ljuskällan. Bland annat handlar det om synkotroner. TSMC har experimenterat med laserexciterad metall som i sin tur skickar ut EUV. De använde sig av en IR-laser på 200 kW. Den var dock för klen för massproduktion och i dagsläget är det oklart om det går att skala upp lasertekniken för att nå tillräckligt höga effekter.

Det andra problemet är också svårt. Du måste belysa kretsarna med en viss mängd ljus för att det ska fungera. Fast du får inte belysa för länge för då slår du sönder kislet. Med EUV är det en så fin balans att shot-noise begränsar upplösningen. Ljus kan ses som en slumpmässig fördelning av fotoner om man går ner tillräckligt smått. Så vissa delar kommer träffas av fler fotoner medans andra delar inte träffas av någon alls. Här finns även en sekundär effekt eftersom vi snackar så höga energinivåer. Man kan råka excitera atomer i det man belyser så man får sekundära fotoner som landar på ställen man inte vill ha dem.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Med tanke på att detta var möjligt med 4 GTX Titan (2013):

så känns inte ray tracing i realtid särskilt långt bort. Speciellt inte med någon biased ray tracing algoritm som konvergerar mycket snabbare.

Permalänk
Skrivet av Lifooz:

Skit i nVidia. Om dom inte begriper att SLI/CF har potential att gå långt, så låt dom skjuta sig själva i foten.
AMD däremot verkar köra på som tidigare.

\Lifooz

Jo, men problemet ligger i att väldigt få devs lägger ner tid och effort på att få SLI/CF att fungera då de används så lite, och sedan AMD och Nvidia verkar sluta tillverka dual-kort (om AMD inte gör ett till kommer SLI och CF nog dö ut inom gaming tills något av företaget inför det igen). Förut hade vi en bunt high-end kort som GTX 690 Radeon HD 7990 etc, och crossfire/SLI builds har blivit mer och mer ovanligt, och ifall Nvidia försöker ha ihjäl det kommer support för de flyta iväg och då den supporten försvinner kommer inte AMD lägga någon tid på de heller. Ja både SLI och CF är i praktiken dumt. Men tycker ändå man ska ha möjligheten att använda de, särskilt då duel-monitor setups blir vanligare och VR etc. Man borde tekniskt sätta kunna skapa riktigt bra scaling i VR. Och dessutom är det omöjligt att gamea i 4k med ett kort och håla stabil 60+ ultra settings

Skrivet av serverfel:

Dom kan ändra sig! Men SLI är tråkigt. Kör det själv, men aldrig mer. Crossfire ska man inte ens snacka om.

Vet inte om Crossfire är så mycket sämre än SLI, dock så beror de ju på om spelen i sig är AMD eller Nvidia föredragna.

Men nej även om de inte är perfekt, så är det fortfarande så att grafiken går framåt mycket snabbare än GPu utvecklingen, vi kan ännu inte spela i 4k 60+ fps på ultra med ett single kort. Många kommer ofta med "sänk settings"-argumentet. Men vad fan är meningen med att köpa ett nytt 7500:- grafikkort om man måste kompromissa? Och då kommer grafiken bara dra ner FPS med tiden och spelen kommer bli snyggare och snyggare.

stavning etc
Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Medlem
Skrivet av Wiruz:

Troligen inte då den förmodligen skulle vara långsammare än en vanlig dator när det kommer till spel och allt annat vanligt utövande.

Kan väl inte påstå att jag kan något alls om dem, men det jag hört är att de ska va rätt bra på att knäcka koder och sådant. Torde väl gå att optimera för daglig bruk?

Visa signatur

White Heart i5-6600k@4.8ghz 1.325v ~ EVGA 780TI SC+ @ 1304mhz ~ 2x8 gb Corsair 2166mhz ~ Samsung 840 240gb ~ Crossover 2795 QHD 1440p 120hz

3D-Mania i7-6700k@5.0ghz 1.396 ~ EVGA 1080 FTW @ 2189/11500 ~ 4x4 Corsair Dominator Platinum 3800 mhz ~ Samsung 850 Pro 512gb ~ Acer Predator x34a, 3440x1440 100hz

Permalänk
Medlem
Skrivet av Ajin:

Eller hemska tanke om de stora spelbolagen måste börja optimera spelen :s

Skickades från m.sweclockers.com

Ja nu går du för långt. Spel skall köras på en tråd och utan stöd för sli/cf.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli