Nvidia: "Moores lag är död – grafikkretsar kommer ersätta processorer"

Permalänk
Melding Plague

Nvidia: "Moores lag är död – grafikkretsar kommer ersätta processorer"

Nvidias VD Jen-Hsun Huang talar ännu en gång om att industrin klivit in i en era bortom Moores lag och gör nu också gällande att grafikkretsar på sikt ersätter traditionella processorer.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Om man tar bort CPU och endast behåller GPU. Blir inte GPUn en slags CPU då...?

Skickades från m.sweclockers.com

Permalänk
Inaktiv

Förhoppningsvis har han rätt. Ineffektiviteten med all bakåtkompatibilitet som är inbyggd i alla processorer är nog ett större problem än Moores lag

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av anon99339:

Förhoppningsvis har han rätt. Ineffektiviteten med all bakåtkompatibilitet som är inbyggd i alla processorer är nog ett större problem än Moores lag

Skickades från m.sweclockers.com

hade inte varit kul för alla företag att behöva byta ut ALLT när de vill uppgradera lite saker, för saker inte följer samma standarder.

Visa signatur

En dator

Permalänk
Inaktiv

Handlar inte debatten om flyt VS heltal?
Där flyttals lösningar aldrig lär vinna om man enbart ska kalculera megastora heltal.

för övrigt är trenden att helt överge externt grafikkort, vanligt folk klarar sig fint på den som redan finns i cpun. Det är bara en liten nischad marknad med användare som kör med externa grafikkort.
*edit'
Glömde ta med externt i gpu.

Permalänk
Skrivet av PlogarN97:

Om man tar bort CPU och endast behåller GPU. Blir inte GPUn en slags CPU då...?

Skickades från m.sweclockers.com

Det blir en APU

Permalänk
Medlem

Intel lär ju slåss för att detta inte skall ske. En stor del av deras mest centrala patent ligger ju inom CPU området.

Visa signatur

Case: Fractal Design Define S | Fans: 4x Noctua NF-a14 PWM140mm | Motherboard: Asus ROG Maximus XI Hero | CPU: i9-9900K | CPU-Cooler: Noctua NH-D15S dual fan | PSU: Corsair AX1500i | GPU: ASUS ROG STRIX GeForce RTX 3060Ti OC V2 8GB | RAM: 32 GB DDR4 Kingston HyperX Fury Black 2666mhz Cl15 | Storage: 1x Kingston Fury Renegade M.2 2TB SSD 1x OCZ Vector 180 480GB SSD, 1x OCZ Vector 512GB SSD | Screen: 24" Acer Predator XB240HA G-Sync 144hz | Sound Card: Asus Xonar Essence STX II | Aux: Cherry MX 3.0S Gaming Keyboard. EVGA X10 Carbon

Permalänk
Medlem
Skrivet av Alucius:

Intel lär ju slåss för att detta inte skall ske. En stor del av deras mest centrala patent ligger ju inom CPU området.

exakt, Intels GPU front ligger ju inte direkt nära AMD/Nvidia om man säger så, iofs gör de inga dedikerade grafikkort men de gör ju inbyggda likt AMD (där AMD varit långt före Intel länge, osäker hur det ser ut just idag men snart kommer ju VEGA också för CPU delen)

Permalänk
Medlem
Skrivet av anon159643:

Handlar inte debatten om flyt VS heltal?
Där flyttals lösningar aldrig lär vinna om man enbart ska kalculera megastora heltal.

för övrigt är trenden att helt överge grafikkort, vanligt folk klarar sig fint på den som redan finns i cpun. Det är bara en liten nischad marknad med användare som kör med externa grafikkort.

Det handlar knappast om vanliga konsumenter här. I första hand talas det om beräkningsservrar. Det är inte "folk" som är den stora målgruppen, det är stora företag med planer att skapa en gigantisk server.

Företagen suktar efter mer beräkningskraft varje dag för att de ska kunna accelerera sin produktion.

Permalänk
Skrivet av anon159643:

Handlar inte debatten om flyt VS heltal?
Där flyttals lösningar aldrig lär vinna om man enbart ska kalculera megastora heltal.

för övrigt är trenden att helt överge grafikkort, vanligt folk klarar sig fint på den som redan finns i cpun. Det är bara en liten nischad marknad med användare som kör med externa grafikkort.

Måste ju faktiskt hålla med, dock tror jag att det snarare är bland kontorsdatorer som GPuer helt kliver bort, tills dess att AMD också säljer billiga APUer kommer det finnas massor av användare som använder både billigare GPUer samt de som spelar spel.

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Skrivet av Cellsplitter:

Det blir en APU

APU är bara marketing buzz från AMD. De flesta CPUer med iGPU är kallade vanliga "processorer" eller "CPU", då dessa är från Intel.

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Medlem
Skrivet av anon159643:

Det är bara en liten nischad marknad med användare som kör med externa grafikkort.

Nishat sure men liten? Skulle verkligen inte kalla gaming-marknaden för liten.

Visa signatur

Post-and-run foruming
GeForce GTX 1070 ;~; Intel 4790k ;~; ASUS Z97M-PLUS ;~; Cooler Master Hyper 212 EVO ;~; ADATA 16GB 1600MHz RAM ;~; 840 EVO 500GB + 1TB WD Blue + 4TB WD Green ;~; Seasonic Platinum 660w ;~; Fractal Design Define Mini ;~; G910 "Orion Spark" ;~; U2415 x2 ;~;

Permalänk
Medlem
Skrivet av Cellsplitter:

Det blir en APU

Är inte APU endast en marknadsföringsterm?

Skickades från m.sweclockers.com

Permalänk
Medlem

Först i år har processorer med många kärnor blivit så billiga att det blir aktuellt för programmerare att skala arbeten till flera trådar även om det är mindre viktigt för den operation som utförs.

Problemet har ju varit att processorer med väldigt många kärnor ha varit svindyra. När man gör program så är det också många som kör på portabla, där kan man endast räkna med att det är två kärnor på processorn och då är det ofta liten vinst med att lägga ner jobb på att skala arbeten.

Förutom ovanstående, är det idag vanligt att man kör flera progam samtidigt.

Permalänk
Medlem
Skrivet av anon159643:

Handlar inte debatten om flyt VS heltal?
Där flyttals lösningar aldrig lär vinna om man enbart ska kalculera megastora heltal.

Flyttal och heltal används till olika ändåmål, det handlar inte om att ett av dem är bättre än det andra. När det gäller GPU vs. CPU så är det främst dataparallella vs. generella beräkningar det handlar om, där GPUer är överlägsna på dataparallella problem men dåliga på generella beräkningar. Att använda flyttal för att beräkna "megastora heltal" är förstås dumt, men varför det skulle vara relevant har jag svårt att se då det om något lär vara en extremt nischad tillämpning. Eller tänker du på någon särskilt tillämpning där man behöver stora heltal?

Skrivet av anon159643:

för övrigt är trenden att helt överge grafikkort, vanligt folk klarar sig fint på den som redan finns i cpun. Det är bara en liten nischad marknad med användare som kör med externa grafikkort.

Grafikkort är grafikkort oavsett var de sitter, även de integrerade grafikkorten kan användas för GPGPU.

Permalänk
Medlem

Moores law är så missvisande då det på inget sätt är något annat än en observation "tidigt" i de integrerade kretsarnas historia. Moores Theorem kanske hade passat bättre. Att det för evigt skulle fortsätta öka på detta sätt går ju helt emot fysikens lagar. Så när vi "bryter" emot Moores lag så tror folk felaktigt att det görs något "fel".

Roligt hade varit att se Windows kärna hantera att dra nytta av GPU'er för att köra viss kod. Hade kunnat "visa vägen" lite. Bibliotek och kompilatorer som generaliserar asynkrona funktioner och "själv" kan köra en del på GPU hade kunnat börja få GPU'er att användas mer för generella beräkningar också. Men hade krävt en del arbete för att hitta någon form av standardisering bland kompilatorer osv.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem

Då fick vi som inte tror att kärnornas krig bland cpuer kommer generera någon större prestandavinst utom i specifika scenarion ytterligare vatten på vår kvarn.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av klk:

Först i år har processorer med många kärnor blivit så billiga att det blir aktuellt för programmerare att skala arbeten till flera trådar även om det är mindre viktigt för den operation som utförs.

Problemet har ju varit att processorer med väldigt många kärnor ha varit svindyra. När man gör program så är det också många som kör på portabla, där kan man endast räkna med att det är två kärnor på processorn och då är det ofta liten vinst med att lägga ner jobb på att skala arbeten.

Förutom ovanstående, är det idag vanligt att man kör flera progam samtidigt.

Sanning med modifikation.

Processorer som har varit mångkärninga har funnits i miljontals hem under en otroligt lång period.

PS3: 8 kärnor, release 2006
PS4: 8 kärnor, X86-64 CPU, release 2013
XBONE: 8 kärnor, X86-64 CPU, release 2013

Ska man vara schysst och räkna bort PS3s otroligt komplexa uppsättning så ser vi alltså att PS4 + XBONE har frälst oss med octacore där PS4 sålt ca 60 miljoner kopior och XONE 26 miljoner kopior. Till ganska billiga priser.

Visa signatur

| Corsair Crystal 460X | Z390-F | 9700K | ROG Ryujn 360mm | RTX 3080Ti | ROG Thor 850W | Vengeance Pro 3200mhz 16cl 16GB (2x8) | 970 Pro 2TB + 2xWD Black 4TB | ROG SWIFT PG279Q | Arctis 7 Pro Wireless | ROG Scope Deluxe red silent | ROG Chakram |

Permalänk
Inaktiv
Skrivet av perost:

Flyttal och heltal används till olika ändåmål, det handlar inte om att ett av dem är bättre än det andra. När det gäller GPU vs. CPU så är det främst dataparallella vs. generella beräkningar det handlar om, där GPUer är överlägsna på dataparallella problem men dåliga på generella beräkningar. Att använda flyttal för att beräkna "megastora heltal" är förstås dumt, men varför det skulle vara relevant har jag svårt att se då det om något lär vara en extremt nischad tillämpning. Eller tänker du på någon särskilt tillämpning där man behöver stora heltal?

Min poäng är väl att grafikkort just håller på med flyttalsberäkningar och liknande, inte mycket vanliga instruktioner med heltal som de exekverar. Så grafikkorts designen är dåligt på intensive helatalsberäkningar, vill man skalla upp det så bör man ändå köra med heltalsdel.

Grafikkort är grafikkort oavsett var de sitter, även de integrerade grafikkorten kan användas för GPGPU.
[/quote]Extern gpu skulle jag ha skrivit.

Permalänk
Skrivet av anon159643:

Handlar inte debatten om flyt VS heltal?
Där flyttals lösningar aldrig lär vinna om man enbart ska kalculera megastora heltal.

för övrigt är trenden att helt överge externt grafikkort, vanligt folk klarar sig fint på den som redan finns i cpun. Det är bara en liten nischad marknad med användare som kör med externa grafikkort.
*edit'
Glömde ta med externt i gpu.

Skulle nog inte säga att spel industrin är så liten. Det är inte många spel som du kan köra med bra inställningar med den integrerade grafik kretsen. Dock så har väl de nyaste CPU:er bra grafik, men inte bra nog.

Permalänk
Inaktiv
Skrivet av PlogarN97:

Om man tar bort CPU och endast behåller GPU. Blir inte GPUn en slags CPU då...?

Skickades från m.sweclockers.com

Vad snackar du om? En GPU har endast en GPU och ej någon CPU.

Åter till ämnet. Nvidia tycks ha fått storhetsvansinne. I den position de har haft de senaste 6-7åren så blir man mörkrädd. Inte nog med att de snålar in toppmodellerna så mycket som möjligt och gav oss en gimpad GTX 1080 så höjer de priserna allteftersom och mellanklass grafikkort kommer snart kosta runt 5000kr innan vi vet ordet av.

Permalänk
Medlem
Skrivet av anon114264:

Vad snackar du om? En GPU har endast en GPU och ej någon CPU.

Åter till ämnet. Nvidia tycks ha fått storhetsvansinne. I den position de har haft de senaste 6-7åren så blir man mörkrädd. Inte nog med att de snålar in toppmodellerna så mycket som möjligt och gav oss en gimpad GTX 1080 så höjer de priserna allteftersom och mellanklass grafikkort kommer snart kosta runt 5000kr innan vi vet ordet av.

Vad är skillnaden på ett system som har endast en CPU som processor och ett system som endast har en GPU som processor?

Blir det inte samma uppgifter denne ska utföra och därför blir båda i själva verket en CPU?

Annorlunda uttryckt. Syftet med en GPU är att stödja en CPU främst för grafiken. Men om en CPU tas bort och en GPU ska utföra alla uppgiften en CPU gör, blir inte GPUn i själva verket en CPU då (även om den råkar vara tillverkad av nvidia).

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Mithras:

Sanning med modifikation.

Processorer som har varit mångkärninga har funnits i miljontals hem under en otroligt lång period.

PS3: 8 kärnor, release 2006
PS4: 8 kärnor, X86-64 CPU, release 2013
XBONE: 8 kärnor, X86-64 CPU, release 2013

Ska man vara schysst och räkna bort PS3s otroligt komplexa uppsättning så ser vi alltså att PS4 + XBONE har frälst oss med octacore där PS4 sålt ca 60 miljoner kopior och XONE 26 miljoner kopior. Till ganska billiga priser.

Även innan dess fanns det konsoler med fler processorer. T.ex Sega Saturn som förlorade mot PS1 bland annat för att det var så krångligt att programmera till den för det var fler processorer.

Men att prestandan i processorer har börjat planar ut har man ju sett länge nu. Aldrig har så många suttit med 5-6 år gamla processorer. Hade man suttit här 2004 med en 266mhz P2 hade man blivit utskrattad.

Skickades från m.sweclockers.com

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem

GPGPU har ju funnits ett tag så visst kan man köra program på GPUn. Undrar om man skulle kunna emulera en vanlig CPU någorlunda effektivt på en GPU så man kan köra program gjorda för CPU? Typ så man får en extra emulerad processorkärna fast i GPUn.

Permalänk
Medlem
Skrivet av PlogarN97:

Vad är skillnaden på ett system som har endast en CPU som processor och ett system som endast har en GPU som processor?

Blir det inte samma uppgifter denne ska utföra och därför blir båda i själva verket en CPU?

Ja, CPU är ju bara en förkortning för Central Processing Unit, så om något används som CPU så är det förstås en CPU. Dagens GPUer kan inte användas på det sättet, men man kan mycket väl göra en CPU med liknande arkitektur som GPUerna använder om man så skulle vilja. Men det finns ingen större vits att göra det eftersom den skulle vara värdelös på generella beräkningar.

Permalänk
Avstängd

HAR man ingen egen CPU att tillverka så försöker man framhävda sin egen begränsning.......dvs AMD och Intel är helt enkelt före Nvidia så ceo försöker naturligtvis höja snacket för sina aktieägare

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Medlem

Nej, CPU:er kommer inte att ersättas av GPU:er för generella ändamål då majoriteten av sådana beräkningar som utförs till en betydande del är seriella i sin natur. Jen-Hsun Huang skulle behöva studera Amdahl's law.

I vissa specifika HPC-applikationer och liknande däremot görs det redan i dagsläget.

Visa signatur

Assembly är ett högnivåspråk.

Permalänk
Medlem
Skrivet av Mithras:

Sanning med modifikation.

Processorer som har varit mångkärninga har funnits i miljontals hem under en otroligt lång period.

PS3: 8 kärnor, release 2006
PS4: 8 kärnor, X86-64 CPU, release 2013
XBONE: 8 kärnor, X86-64 CPU, release 2013

Ska man vara schysst och räkna bort PS3s otroligt komplexa uppsättning så ser vi alltså att PS4 + XBONE har frälst oss med octacore där PS4 sålt ca 60 miljoner kopior och XONE 26 miljoner kopior. Till ganska billiga priser.

Du glömde Sega Saturn som är daterad 1994

Permalänk
Medlem

Innan en GPU tar över världen vill jag nog se lite bättre IPC per Cuda kärna och minst 4.XGhz.
(går inte att räkna såhär men ändå )
Ska vi se här Titan X "Pascal har CUDA-kärnor 3 584 st totalt 10 974 GFLOPS på 1417-1531+lite mer vi räknar på 1531

så 10974/3584=3,0619419642857142857142857142857 per CUDA kärna.
3,0619419642857142857142857142857/1531=0,00199996209293645609778856023141 GFLOPS per Mhz

Lycka till att köra applikationer som inte kan trådas i mer än 1-2 eller 4-8 trådar på den GPUn.

Men för parallella beräkningar håller jag med om att man bör använda plattformar som är byggda för det. Men ersätta CPU helt inom de närmsta decennierna tror jag inte.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Bloodstainer:

APU är bara marketing buzz från AMD. De flesta CPUer med iGPU är kallade vanliga "processorer" eller "CPU", då dessa är från Intel.

Off:
Borde fortfarande vara creative labs som äger namnet APU då de köpte upp Aureal efter lyckats få dem att gå i konkurs.
Vad man suktade efter en Vortex 3 med en APU. (hade 2an)
Audio Processing Unit.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.