Nvidias nästa grafikarkitektur tar plats i superdator till sommaren

Permalänk
Melding Plague

Nvidias nästa grafikarkitektur tar plats i superdator till sommaren

Superdatorn vid Indiana University uppgraderas med nästa generations grafikhårdvara från Nvidia, med löften om 75 procent högre prestanda.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

Heja Nvidia!

Permalänk
Avstängd

Mer kraft åt folket!

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem

70% högre? Högre vad? Mina pengar satsar jag ju på beräkningar i Tensor-kärnorna. Knappast grafikdelen som ökat så mycket utan "AI".

Så meh... (Men hoppas jag har fel)

Skickades från m.sweclockers.com

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk

Superdator är ett fint namn. Men frågan är inte om dessa kommer till vanliga datacenters som Azure, så att även mer vanligt It folk får nyttja dem för deras laster. Så det går idag att mer "vanligt folk" utnyttja kraften av extrem hårdvara utan för den delen ha kontakt med den fysisk.

Alltså de som kör sina laster på en egen superdator, ja det är inte vem som helst. Att däremot nyttja Azure funktioner, det behöver man för att ens klara grundläggande It certifikat.

Permalänk
Medlem

Ny arkitektur med högre prestanda är ju väl, men för egen del måste priserna ner för att jag ska kunna bli upphetsad över det. Tidigare har toppkorten varit en tänkbar uppgradering men med nuvarande priser så känns det otroligt svårmotiverat.

Uttjatat gnäll - jag vet. Men priserna lägger sig som en våt, kall filt över min entusiasm över grafikkortsnyheter som helhet. Allt känns bara :meh: vilket känns väldigt trist.

Skickades från m.sweclockers.com

Permalänk
Medlem

Är rätt sugen på ny gpu då min gamla trotjänare HD7970 känns som en marginell flaskhals i kombination med min 3900x.

Visa signatur

Primär: R9 3900X | ASUS X570-F Gaming | NH-D15 | 64GB@3200MHz | RTX 3080 10GB | Seasonic 850W | Fractal Define R6 |
Gamla bettan: i5 750@3.8GHz | 8GB | HD5770 | Corsair VS 550W | FD R2 |

Permalänk
Medlem

Så länge Nvidia håller tidsplanen lär väl de nya grafikkorten titta under Q2-Q3 för konsumenter?

Men det kan bli ändringar i planen beroende på AMD:s RDNA 2. Det kan finnas fördelar att komma ut med lansering före, men även efter beroende på situationen.

Mycket tyder ju dock att på att det blir ett trevligt år för grafikkortsfronten. Även om plånböckerna lär fortsätta gråta.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

Det kanske blir ett större hopp denna gång då de vet att AMD kommer ut med nytt i prestanda segmentet. Hoppas AMD kan pressa på med både pris och prestanda.

Visa signatur

Här sitter jag och känner in rummet och spelar dataspel.

Permalänk
Inaktiv

I den här farten så får jag kanske snart ett grafikkort som är kapabelt att köra i mer än 1080p!
Får väl börja lägga undan pengar för en skärm med högre upplösning snart.

Permalänk
Medlem
Skrivet av anon201296:

I den här farten så får jag kanske snart ett grafikkort som är kapabelt att köra i mer än 1080p!
Får väl börja lägga undan pengar för en skärm med högre upplösning snart.

Tror inte det är 70% mer spelprestanda tyvärr ... mer åt computehållet, om det är TC eller vad det är.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

När 2st server plattformar jämförs så betyder ospecificerade prestanda ökningar inget.
Kanske är det minneshastigheter de nämner.
Volta släpptes ca 1,5år efter Pascal så om ampere släpps ca 1,5 efter Turing känns fullt normalt.
Om tidsskillnaderna mellan de professionella GPU:er och ny arkitektur är lika förra gången så kan vi förvänta oss ny arkitektur för vanliga användare kring årsskiftet.
Jag gissar att nvidias nya arkitektur kommer tidigast andra halvan av året och troligtvis under hösten även om den kanske visas tidigare t.ex siggraph.
Blir spännande om vi får se både ny arkitektur från nvidia samt rdna2 i år.

https://en.wikipedia.org/wiki/Pascal_(microarchitecture)
https://en.wikipedia.org/wiki/Volta_(microarchitecture)
https://en.wikipedia.org/wiki/Volta_(microarchitecture)

Permalänk
Medlem
Skrivet av kelthar:

Tror inte det är 70% mer spelprestanda tyvärr ... mer åt computehållet, om det är TC eller vad det är.

Håller med. Men kanske en 30-50 i spel prestanda.. Tror AMD och Nvidia kommer hamna ganska lika nästa generation. AMD aningen efter ev. Och tolkar man AMDs uttalande "going to be disruptive" som de gjorde på processorsidan så kan det hända AMD försöker med lägre pris på kort som ligger prestandamässigt ung lika med Nvidias motsvarighet. (Man kan ju alltid hoppas).

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Quizmaster Malmö 22

Alla nyheter om Nvidias nya arkitektur läses direkt! Hoppas på iaf 30% mer prestanda i samma prisklass.

Sen tycker jag priserna är galna idag så de måste ner. Om Jensen kör en RTX ON igen så blir det AMD!

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk

Är rätt nöjd med mitt RTX 2070 Super, kommer inte köpa något nytt grafikkort förrän något kort/chip minst har dubbelt så mycket prestanda som det jag har nu, annars är det inte värt det, och det ska komma med dom gamla kostnaderna. Är inte ok med moderkort som kostar 4-5000kr, grafikkort som kostar 20000 fast det var 10.000 året före? Jag menar lite måste vi sätta ned foten och säga, nu räcker det, hit med highend prylarna, BILLIGT!

Ps. Om Intels grafikkort inte råkar chocka världen och ha super duper prestanda, fast det ser ut som ett 979kr kort till AGP. Men det lär ju inte hända, så jag lär nog gå över helt till AMD nästa köp. CPU/MB är ju redan över det teamet, börjar ruttna på Nvidia´s "vi kan göra och säga vad vi vill, alla vill ha vårt ändå".... attityd... AMDs 5700 kortet imponerade, fortfarande, och vi får väl se när prestanda highend kortet kommer, jag tror den kan bli jäkla najs..

SKit i RTX, helt värdelöst, det är KNAPPT SYNBAR IQ, KNAPPT NÅGRA SPEL SOM ANVÄNDER DET PÅ BRA SÄTT, OCH DET VÄRSTA, DET FÅR DITT DYRA FINA SUPER KORT VERKA SVAGT OCH BILLIGT SKRÄP DÅ DU KÖR SPELEN MED 20FPS??? iNTE RIKTIGT VAD JAG TÄNKTE NÄR BRÄNNER 7000 PÅ GRAFK?

Visa signatur

My Hardware:Ryzen7 1700//Asus Prime X370-Pro//16GB Corsair DDR4 3000mhz//Asus Geforce RTX 2070 Dual EVO

Permalänk
Avstängd
Skrivet av GoldMasterGollum303:

Är rätt nöjd med mitt RTX 2070 Super, kommer inte köpa något nytt grafikkort förrän något kort/chip minst har dubbelt så mycket prestanda som det jag har nu, annars är det inte värt det, och det ska komma med dom gamla kostnaderna. Är inte ok med moderkort som kostar 4-5000kr, grafikkort som kostar 20000 fast det var 10.000 året före? Jag menar lite måste vi sätta ned foten och säga, nu räcker det, hit med highend prylarna, BILLIGT!

Ps. Om Intels grafikkort inte råkar chocka världen och ha super duper prestanda, fast det ser ut som ett 979kr kort till AGP. Men det lär ju inte hända, så jag lär nog gå över helt till AMD nästa köp. CPU/MB är ju redan över det teamet, börjar ruttna på Nvidia´s "vi kan göra och säga vad vi vill, alla vill ha vårt ändå".... attityd... AMDs 5700 kortet imponerade, fortfarande, och vi får väl se när prestanda highend kortet kommer, jag tror den kan bli jäkla najs..

SKit i RTX, helt värdelöst, det är KNAPPT SYNBAR IQ, KNAPPT NÅGRA SPEL SOM ANVÄNDER DET PÅ BRA SÄTT, OCH DET VÄRSTA, DET FÅR DITT DYRA FINA SUPER KORT VERKA SVAGT OCH BILLIGT SKRÄP DÅ DU KÖR SPELEN MED 20FPS??? iNTE RIKTIGT VAD JAG TÄNKTE NÄR BRÄNNER 7000 PÅ GRAFK?

Du har missat att Mores Law är död? För varje nod de förbättrar nu blir det dyrare highend.
RTX serien är lite speciell då RTX tar ofantligt mycket utrymme på kislet.(edit) hade visst fel där
Vidare har ju gaming marknaden växt rejält, så då finns det fler med 13000 kr att bränna på top kort

Skickades från m.sweclockers.com

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem

Det vissa missar är att det inte specificerar vad det är 70% mer prestanda jämfört med?! Kan va som så att det är 70% mer prestanda mer än vad dom har idag, och är det då något som är säg 4-6 år gammalt så är 70% bättre inte mycket att hänga i granen direkt.

Edit: kan va bra att läsa artikeln en gång extra istället för att dra från minnet efter att ha läst igår väll ^^

Skickades från m.sweclockers.com

Visa signatur

here we go!

Permalänk
Inaktiv

@kelthar: Jo det har du rätt i men ifall vi får liknande förbättringar med nästa generations Nvidia så kanske det blir aktuellt i alla fall

Permalänk
Medlem

Först ska jag ha en ny(are) bil. Sen kan det mycket väl vara ny GPU som lockar mest. Köpte ett 2070 i somras, så jag har väl inte jättebråttom. Jag lirar i 1440p så nära 165Hz jag kan komma.

stavning
Permalänk
Snusfri

Mycket trevliga nyheter.
För mig som renderar med Iray så är detta verkligen trevligt att läsa.

Hoppas även på att det kommer kort med 16GB eller mer VRAM.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Datavetare

Flera ställer frågan "70-75 % snabbare än vad?". Enda rimliga här är väl att Ampere-motsvarigheten till Tesla V100 kommer vara 70-75 % snabbare per kort. Skulle tippa att det gäller både för Tensor-kärnor och för CUDA-kärnor.

Orsaken att Tensor-kärnorna får sådan brutal FLOPS är att de jobbar med en hybrid av FP16 och FP32. Kvoten FLOPS i tensor-kärnor vs FLOPS i CUDA-kärnor är inte helt slumpmässig. Vinsten med FP16 är primärt att det minska den bandbredd som behövs, för det är ofta bandbredd som sätter begränsningen.

Självklart kan Ampere har en lite annan balans mellan Tensor-kärnor och CUDA-kärnor, men den lär inte ha ändrats allt för mycket just p.g.a. att man i slutändan måste ta hänsyn till bandbredd.

Fullt möjligt, kanske till och med troligt (har inte superkoll på GDDR-nyheter), att spelprestanda inte kommer öka fullt så mycket. Detta då spel, framförallt i högre upplösning, tenderar vara rejält bandbreddsbegränsat. Om vi "bara" får lite högre frekvens på GDDR6 kanske det blir en rejäl flaskhals, något som till viss del kan kompenseras med massor med cache tack vare 7 nm, lite som AMD kompenserade att Zen2 tappade integrerad minneskontroller med rejält uppskruvad mängd cache.

Om "compute" ökar rejält mycket mer än bandbredd lär vi få se spel gå mot att använda större andel "dyra" algoritmer. Och det kanske inte är en allt för vågad gissning, vi lär få se allt mer ray-tracing och det är långt mer beräkningsbegränsat än bandbreddsbegränsat just nu.

Skrivet av Esseboy:

RTX serien är lite speciell då RTX tar ofantligt mycket utrymme på kislet.

Vad baserar du den informationen på?

Finns en del gissningar på Reddit kring hur mycket utrymme Tensor-kärnorna resp. RT-kärnorna tar. Dessa gissningar går allt från ~30 % ned till ~5 %.

Kollar man area per CUDA-kärna för TU102/TU104/TU106 (som har både RT-kärnor och Tensor-kärnor) mot TU116 (som saknar båda dessa) verkar 5 % gissningen vara långt närmare sanningen än den andra änden.

Ställer man Turing mot Volta (som har i princip samma mikroarkitektur, har Tensor-kärnor men inte RT-kärnor) är det svårt att se någon relevant skillnad i storlek.

Turing är helt klart väsentligt mycket större än Pascal räknat per CUDA-kärna, men det gäller ju även Volta ställd mot Pascal. För "compute" är Volta/Turing en rätt rejäl uppgradering över Pascal, det finns problem som inte ens går att lösa på Pascal men som fungerar på Volta/Turing. Detta p.g.a. ändringar i mikroarkitektur som gör CUDA-kärnorna i Volta/Turing mer lik CPU-kärnor sett till hur de kan synkroniseras. Det stödet är nog en stor del av förklaringen till Turings stora kretsar, inte RT-kärnorna

RT-kärnorna verkar vara klart mindre än Tensor-kärnorna och borde således ta någon enstaka procent av kretsytan. Och givet vad RT-kärnorna faktiskt gör, en extremt specifik uppgift: hitta den triangel en stråle först passerar genom, borde de inte vara så stora. Vad den faktiska effekten blir i scenen beräknas på "de vanliga" CUDA-kärnorna (så hoppas verkligen man skruvar upp kapaciteten i dessa med Ampere).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Med 3000 serien så kommer det komma kort med bra prestanda som klarar sig med 75W om ryktena stämmer.

AMD erkänner att det går att få effektivare kort och att vi i nästa serie kommer se det.

Kommer både AMD och Nvidia köra på 7+ eller är det bara AMD som valt det för nästa serie.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

För mig och det jag gör skulle jag vilja att toppkortet helt slopade tensorkärnorna, ökade CUDA-kärnorna till 6144 (96 SM), fick 16 GB VRAM med 512-bits bus, och kanske ökade frekvensen lite.

Skickades från m.sweclockers.com

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

Hoppas AMD har hunnit lanserat Navi Refresh och Navi 2 före lansering av Ampere, så priserna av
lite konkurrents kan gå nedåt.

Vill inte se ett RTX 3080 för 14K. Och ett Ti för...

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Avstängd
Skrivet av Yoshman:

Flera ställer frågan "70-75 % snabbare än vad?". Enda rimliga här är väl att Ampere-motsvarigheten till Tesla V100 kommer vara 70-75 % snabbare per kort. Skulle tippa att det gäller både för Tensor-kärnor och för CUDA-kärnor.

Orsaken att Tensor-kärnorna får sådan brutal FLOPS är att de jobbar med en hybrid av FP16 och FP32. Kvoten FLOPS i tensor-kärnor vs FLOPS i CUDA-kärnor är inte helt slumpmässig. Vinsten med FP16 är primärt att det minska den bandbredd som behövs, för det är ofta bandbredd som sätter begränsningen.

Självklart kan Ampere har en lite annan balans mellan Tensor-kärnor och CUDA-kärnor, men den lär inte ha ändrats allt för mycket just p.g.a. att man i slutändan måste ta hänsyn till bandbredd.

Fullt möjligt, kanske till och med troligt (har inte superkoll på GDDR-nyheter), att spelprestanda inte kommer öka fullt så mycket. Detta då spel, framförallt i högre upplösning, tenderar vara rejält bandbreddsbegränsat. Om vi "bara" får lite högre frekvens på GDDR6 kanske det blir en rejäl flaskhals, något som till viss del kan kompenseras med massor med cache tack vare 7 nm, lite som AMD kompenserade att Zen2 tappade integrerad minneskontroller med rejält uppskruvad mängd cache.

Om "compute" ökar rejält mycket mer än bandbredd lär vi få se spel gå mot att använda större andel "dyra" algoritmer. Och det kanske inte är en allt för vågad gissning, vi lär få se allt mer ray-tracing och det är långt mer beräkningsbegränsat än bandbreddsbegränsat just nu.

Vad baserar du den informationen på?

Finns en del gissningar på Reddit kring hur mycket utrymme Tensor-kärnorna resp. RT-kärnorna tar. Dessa gissningar går allt från ~30 % ned till ~5 %.

Kollar man area per CUDA-kärna för TU102/TU104/TU106 (som har både RT-kärnor och Tensor-kärnor) mot TU116 (som saknar båda dessa) verkar 5 % gissningen vara långt närmare sanningen än den andra änden.

Ställer man Turing mot Volta (som har i princip samma mikroarkitektur, har Tensor-kärnor men inte RT-kärnor) är det svårt att se någon relevant skillnad i storlek.

Turing är helt klart väsentligt mycket större än Pascal räknat per CUDA-kärna, men det gäller ju även Volta ställd mot Pascal. För "compute" är Volta/Turing en rätt rejäl uppgradering över Pascal, det finns problem som inte ens går att lösa på Pascal men som fungerar på Volta/Turing. Detta p.g.a. ändringar i mikroarkitektur som gör CUDA-kärnorna i Volta/Turing mer lik CPU-kärnor sett till hur de kan synkroniseras. Det stödet är nog en stor del av förklaringen till Turings stora kretsar, inte RT-kärnorna

RT-kärnorna verkar vara klart mindre än Tensor-kärnorna och borde således ta någon enstaka procent av kretsytan. Och givet vad RT-kärnorna faktiskt gör, en extremt specifik uppgift: hitta den triangel en stråle först passerar genom, borde de inte vara så stora. Vad den faktiska effekten blir i scenen beräknas på "de vanliga" CUDA-kärnorna (så hoppas verkligen man skruvar upp kapaciteten i dessa med Ampere).

Ahaa, trodde verkligen RT och Tensor var orsaken. Förklarar en hel del 🤗

Skickades från m.sweclockers.com

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem
Skrivet av Campaigner:

Om Jensen kör en RTX ON igen så blir det AMD!

...eftersom AMD kommer köra RT ON (samt andra RTX-funktioner som tex VRS), eller?

Skickades från m.sweclockers.com

Permalänk
Quizmaster Malmö 22
Skrivet av ipac:

...eftersom AMD kommer köra RT ON (samt andra RTX-funktioner som tex VRS), eller?

Skickades från m.sweclockers.com

Så länge dem inte dubblar priserna som Nvidia gjorde så går det bra.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av Campaigner:

Så länge dem inte dubblar priserna som Nvidia gjorde så går det bra.

Suck. Nvidia dubblade inte priserna.

Ti modellen blev dock klart dyrare än föregående Ti modell. Vilket delvis kan förklaras med att man använde sig av en chipstorlek som saknar motsvarighet (om vi bortser från Titan V då, som dock var dubbelt så dyr som 2080Ti lustigt nog...). Det kommer inte hända denna gång eftersom de har en node-krympning att dra nytta av.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av ipac:

Suck. Nvidia dubblade inte priserna.

Ti modellen blev dock klart dyrare än föregående Ti modell. Vilket delvis kan förklaras med att man använde sig av en chipstorlek som saknar motsvarighet (om vi bortser från Titan V då, som dock var dubbelt så dyr som 2080Ti lustigt nog...). Det kommer inte hända denna gång eftersom de har en node-krympning att dra nytta av.

Skickades från m.sweclockers.com

Jag behöver påmina mig själv ibland om att en produkts pris inte är basdrat pp vad den kostar att producera utan vad konsument är berred att betala för produkten.

Visa signatur

Min Dator: AMD 3600 | GTX 680 | 16 GB RAM | Asus X570 Prime | Fractal Design Arc R2 | Thermalright Silver Arrow | Dell U2412M | Ibm Model M