AMD avtäcker Radeon Instinct MI60 med Vega på 7 nanometer

Permalänk
Melding Plague

AMD avtäcker Radeon Instinct MI60 med Vega på 7 nanometer

Med beräkningskortet Radeon Instinct MI60 presenterar AMD arkitekturen Vega på 7 nanometer, vilken får sällskap av PCI Express 4.0 och 32 GB HBM2-minne.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Stor vikt läggs vid att beräkningskortet är ämnat för datacenter och stöd för hög bandbredd mellan olika delar i systemet. Helt nytt är stöd för PCI Express 4.0 som dubblerar bandbredden till 64 GB/s jämfört med PCI Express 3.0. Samtidigt introducerar AMD Infinity Fabric som buss mellan flera samtida grafikkort och denna har en bandbredd på 100 GB/s. Totalt kan åtta Radeon Instinct MI60 användas i en virtuell maskin, alternativt kan 16 virtuella maskiner dela på ett ensamt kort.

...

I samband med presentationen av beräkningskortet avtäcker AMD också mjukvaran ROCm 2.0 som är inriktad på just maskininlärning. Mjukvaran har öppen källkod och är kompatibel med AMD:s produkter, liksom processorer från Intel och Nvidias grafikkort.

-Now THIS, I like!

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Hjälpsam

7nm till GPU. Ser fram emot vad det kan göra i konsumentsegmentet framöver.

Något säger mig att CES 2019 kommer vara det mest spännande på länge.

Core Wars med förbättrad IPC hos AMD.
7nm GPUer.
Inside out tracking och eye tracking VR.
Mycket nytt på skärm med HDR som kommer igenom brett.

Tror januari kommer vara extremt intressant <3

Visa signatur

Allt jag säger/skriver här är mina egna åsikter och är inte relaterade till någon organisation eller arbetsgivare.

Jag är en Professionell Nörd - Mina unboxing och produkttester (Youtube)
Om du mot förmodan vill lyssna på mig - Galleri min 800D med 570 Phantom SLI

Permalänk
Medlem

Nvidia hade skapat "The Way It's Meant to Be Calculated", och låst in det i CalcWreck och Calc-Sync endast för deras produkter. Good guy AMD.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem

Nu kanske jag missar någon fiffig funktion hos nvidia-kortet, men om amd kan få ut liknande prestanda även i TOPS som Tesla V100 på bara ca 60% av transistorerna (och t.o.m.färre transistorer än P100) så känns det imponerande.

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av superapan:

Nvidia hade skapat "The Way It's Meant to Be Calculated", och låst in det i CalcWreck och Calc-Sync endast för deras produkter. Good guy AMD.

Precis, CUDA kallas det och är industristandard
Det är en ond cirkel. Företag köper inte AMD då det saknas mjukvarustöd och utvecklare implementerar inte stöd för AMD då de har liten marknadsandel.

Permalänk
Medlem

Känner spontant att klockfrekvensen är intressant här. Kan det tala för att de nya konsument GPU:erna får sig ett rejält lyft i klockfrekvens också?

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem

Hoppas dock att konsumentkorten skippar HBM2 i förmån för GDDR6 som trots allt är billigare (ifall AMD inte lyckas få ut någon bra prestanda på korten).

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem

Såg tabell på wcc som sa nått om 1800 mhz.
Men även att fp64 ökat med 10 ggr sen vega 10

Skickades från m.sweclockers.com

Permalänk
Inaktiv

Bättre Ai är bra, men can it run SkyNet?
Det blir annars en intressant utveckling att se fram emot.

Permalänk
Medlem
Skrivet av anon159643:

Bättre Ai är bra, men can it run SkyNet?
Det blir annars en intressant utveckling att se fram emot.

Bah, alla vet ju att om den inte kan maxa Crysis så kommer den knappast kunna köra SkyNet med acceptabel WDPS (World Domination Per Second).

Visa signatur

12c/24t 4.0GHz (Zen2) • 2x16GiB 3200MHz C14 • RTX 2080 FE 1965MHz 7000MHz • X570 I PW • Ghost S1 MKII

Permalänk
Medlem
Skrivet av Stoff3th3m4n:

Känner spontant att klockfrekvensen är intressant här. Kan det tala för att de nya konsument GPU:erna får sig ett rejält lyft i klockfrekvens också?

Lite detta reagerade jag på också.
50% förbrukning vid samma frekvens är ju imponerande bara där, redan där känns ju ett befintligt Vega intressant.
Men så hög frekvens talar ju för att AMD hittat sin sweet-spot med 7nm också och att TSMC är bättre grund än Glo-Flo.

Om jag förstått det rätt så ska ju Rome göra sina CCX på 7nm, men styrkretsen på 14nm. Så det talar lite för att de använder Glo-Flo för saker som inte är prestanda-krävande, och 7nm på allt där frekvens/prestanda per watt är viktigt.

Även om jag inte tror de kommer släppa konsument av detta på ett tag (då det lär vara svårt med yield i kärnan), så verkar det vara ett bra steg framåt.

Skrivet av Mocka:

Hoppas dock att konsumentkorten skippar HBM2 i förmån för GDDR6 som trots allt är billigare (ifall AMD inte lyckas få ut någon bra prestanda på korten).

Billigare? Så 2080Ti är billigt?
Snälla sluta med det argumentet, för kortet pris är på prestandan, inte val av "billigt VRAM". För 13kkr+ borde de har råd med HBM minne om din logik gäller.

Ang HBM2 så skulle jag också våga säga att det har mognat rätt bra. De sikta ju på 1000Mhz i ursprungliga korten, och pga dålig yield, inte fick detta. Idag finns flera tillverkare som har 1200Mhz, redo att skeppas, och 1500Mhz har jag för mig är inte omöjligt heller.

Om kärnan behöver bandbredden, vill jag hellre se HBM2, än GDDR6, som redan med 20-korten kan vara orsaken till att de är defekta. Idag är GDDR6 otestade nykomlingen, och HBM2 är inne på 2:a eller tom 3:e generationen.

Permalänk
Medlem

Som vanligt är det hype och guld o gröna skogar när AMD presenterar något men jag håller huvudet kallt tills jag ser konsumentprodukter i framförallt speltester.

...men man kan ju hoppas att de sätter rejäl press på intel med 7nm både i gpu och cpu. Go team red!

Skickades från m.sweclockers.com

Visa signatur

PNY Geforce 2080 TI 2250/8200Mhz @550W (Galax HOF bios) | I7 9700K @ 5,1Ghz | Asus Rog Strix Z390-F Gaming | 32Gb 3200Mhz | Samsung 970 Pro M2.SSD | 540mm Radiator Custom loop | Valve Index

Permalänk
Inaktiv
Skrivet av anon228747:

Precis, CUDA kallas det och är industristandard
Det är en ond cirkel. Företag köper inte AMD då det saknas mjukvarustöd och utvecklare implementerar inte stöd för AMD då de har liten marknadsandel.

Kan ju ändra sig snabbt när AMD börjar leverera.

Permalänk
Medlem

Kul att se! Och de borde få extra mycket poäng för att de inte låser mjukvaran till enbart AMD-produkter. Hoppas att detta kan få företag att gå över till AMD.

Visa signatur

Ducati Streetfighter 848, -2013
Yamaha FZR 1000, -1987

Permalänk
Medlem

Gissar på att de fixat NGG fast path, och de nämner trots allt DSBR som en del av deras diagram.

Det bådar gott för Navi.

Skrivet av HenrikM:

Såg tabell på wcc som sa nått om 1800 mhz.
Men även att fp64 ökat med 10 ggr sen vega 10

Skickades från m.sweclockers.com

Det är en approximation från deras sida (indikerad av - tecknet). Upp 20% från MI25. Från 12,3TFLOPS till 14,7 TFLOPS. Då landar man någonstans kring 1780Mhz, då samma antal CU:s används.

Man ska dock komma ihåg att den har samma TDP som MI25, med 16GB extra HBM2 som är också högre klockat. Så 7nm noden har till och med 15-25% högre energieffektivitet även vid 20% högre klockhastigheter än bas om man räknar bort HBM2.

Permalänk
Medlem

Tänker mer och mer... Skynet here we go! 😂

Visa signatur

Star Citizen ❤

Permalänk
Datavetare
Skrivet av daskedennis:

Kul att se! Och de borde få extra mycket poäng för att de inte låser mjukvaran till enbart AMD-produkter. Hoppas att detta kan få företag att gå över till AMD.

Nu är saker inte riktigt så enkla...

Har precis börjat jobba med maskininlärning, det första man slås av är hur denna teknik så totalt domineras av Nvidia på inlärningssidan (inferens-sidan använder typiskt SIMD-optimerad CPU kod). Alla större ramverk stödjer avlastning till GPU, men det är nästan uteslutande enbart stöd för CUDA.

Kan man ju ställa sig frågan: varför då?

Börjar man jobba lite med GPGPU programmering utkristalliseras svaret rätt omedelbart. Tid är pengar, CUDA är så mycket enklare att använda jämfört med OpenCL så från perspektivet "vad är bäst för just mig" blir svaret tyvärr rätt unisont CUDA, det även när man räknar in att Nvidia kommer med penningsugen när det är dags att diskutera prislapp på GPUer.

Finns ändå ljusglimtar vid horisonten. Jobbas en hel del på en teknik som kallas SyCL, det är rätt mycket samma sak som CUDA fast via en öppen standard (man använder typiskt OpenCL under huven).

En liten observation kring dessa GPUer:
MI25 tillverkas på 14 nm, har 12,5 miljarder transistorer och är 484 mm²
MI60 tillverkas på 7 nm, har 13,2 miljarder transistorer och är 331 mm²

Vad hände med x2 skalning (det nämndes i presentationen)? Detta är x1.54 skalning.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Björn P:

Som vanligt är det hype och guld o gröna skogar när AMD presenterar något men jag håller huvudet kallt tills jag ser konsumentprodukter i framförallt speltester.

...men man kan ju hoppas att de sätter rejäl press på intel med 7nm både i gpu och cpu. Go team red!

Skickades från m.sweclockers.com

Hoppas du har rätt, men jag tror inte en inarbetad industristandard kommer släppas "snabbt". Vi tittar nog på mellan fem och tio år om vi leker med tanken att AMD via detta släpp omedelbart får 50% av marknaden, vilket även det är ytterst osannolikt.

Visa signatur

Philips 34M2C8600 | RTX 3090 | AMD R7 5800X3D | 32GB 3600MHz DDR4 | Gigabyte X570 Aorus Master | Seagate Firecuda 530 4TB & Kingston A2000 1TB | 27TB HDD | Seasonic Focus GX 850 | Hifiman Sundara | Fractal North XL | LG CX55 | Yamaha HS7 | Nvidia Shield TV Pro (2019)

Citera för svar!

Permalänk
Medlem
Skrivet av Björn P:

Som vanligt är det hype och guld o gröna skogar när AMD presenterar något men jag håller huvudet kallt tills jag ser konsumentprodukter i framförallt speltester.

...men man kan ju hoppas att de sätter rejäl press på intel med 7nm både i gpu och cpu. Go team red!

Skickades från m.sweclockers.com

Nämn ett företag som vid en produktlansering INTE försöka sätta resultatet av sitt arbete i lite positivt ljus

Hålla huvudet kallt är generellt alltså mycket klokt

Permalänk
Medlem
Skrivet av Paddanx:

Billigare? Så 2080Ti är billigt?
Snälla sluta med det argumentet, för kortet pris är på prestandan, inte val av "billigt VRAM". För 13kkr+ borde de har råd med HBM minne om din logik gäller.

Ang HBM2 så skulle jag också våga säga att det har mognat rätt bra. De sikta ju på 1000Mhz i ursprungliga korten, och pga dålig yield, inte fick detta. Idag finns flera tillverkare som har 1200Mhz, redo att skeppas, och 1500Mhz har jag för mig är inte omöjligt heller.

Om kärnan behöver bandbredden, vill jag hellre se HBM2, än GDDR6, som redan med 20-korten kan vara orsaken till att de är defekta. Idag är GDDR6 otestade nykomlingen, och HBM2 är inne på 2:a eller tom 3:e generationen.

Jag vet inte hur du lyckades konvertera min mening till att handla om att "ett 2080Ti kort är billigt", men okej.

Du menar alltså att skälet till att 2080Ti kostar 15k istället för 10k är valet av GDDR6?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk

@Westelindh!: Personen du citerar syftar förmodligen på avvändares reaktioner. Oavsett om AMD presenterar GPU eller CPU så ser folk in i framtiden om hur mycket det kommer piska den andras grejer. Det börjar bli lite löjligt men jag förstår att man vill vara ”rebell” och hoppas på ”lillebror”.

Visa signatur

1::3700+ San Diego@3.0GHzghz[300x10], Abit KN8-Ultra, 1024mb, X850XT @ PE. 01: 27190. 05: 6220.
2::XP 2500+ @ 3200+, Asus A7N8X-X, GeForce FX 5700 Ultra@ 605/1100, 512mb ddr. 01: 13550

Permalänk
Inaktiv
Skrivet av anon228747:

Precis, CUDA kallas det och är industristandard
Det är en ond cirkel. Företag köper inte AMD då det saknas mjukvarustöd och utvecklare implementerar inte stöd för AMD då de har liten marknadsandel.

Det är en tragisk situation, men det är också just därför ROCm har en kompilator (HIP) som tar CUDA-kod vilket innebär att de som är vana att jobba med CUDA nu får chansen att göra det på AMD's hårdvara. Sedan har det även kompilatorer för C++ och OpenCL om man hellre vill jobba med det.

Permalänk
Medlem
Skrivet av Yoshman:

En liten observation kring dessa GPUer:
MI25 tillverkas på 14 nm, har 12,5 miljarder transistorer och är 484 mm²
MI60 tillverkas på 7 nm, har 13,2 miljarder transistorer och är 331 mm²

Vad hände med x2 skalning (det nämndes i presentationen)? Detta är x1.54 skalning.

Misstänker att AMD inte har designat om sina GFX9-shaders (Vega) för TSMC 7nm, utan bara portat dem över från GF 14nm - på samma sätt som man gjorde med GFX8-shaders från 28nm till 14nm för Polaris.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Radolov:

Gissar på att de fixat NGG fast path, och de nämner trots allt DSBR som en del av deras diagram.

Jag tror att de på något sätt hade nämnt ngg_fastpath och primtive shaders om det nu fungerade. Det är möjligt att de fixat något i ngg_fastpath, men jag räknar inte med det baserat på en lite text-snutt i ett diagram som ser ut som om det är kopierat från Vega-lanseringen. AMD har tidigare sagt att ngg_fastpath aldrig kommer att fungera för GFX9.

Visa signatur

5900X | 6700XT

Permalänk
Inaktiv

Inget Windows-stöd så ni som vill spela Crysis på denna GPU får göra det med Wine eller Proton. 😀

Permalänk
Medlem
Skrivet av Mocka:

Jag vet inte hur du lyckades konvertera min mening till att handla om att "ett 2080Ti kort är billigt", men okej.

Du menar alltså att skälet till att 2080Ti kostar 15k istället för 10k är valet av GDDR6?

Tror nog hans poäng är att priset på minnet eventuellt inte speglas i slutpriset utan det är många andra faktorer som spelar in. För om HBM2 var den största orsaken så skulle ett kort med GDDR6 inte kosta 15k.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Inaktiv
Skrivet av Xinpei:

Tror nog hans poäng är att priset på minnet eventuellt inte speglas i slutpriset utan det är många andra faktorer som spelar in. För om HBM2 var den största orsaken så skulle ett kort med GDDR6 inte kosta 15k.

GamersNexus gjorde en analys av Vega och vad dess olika komponenter kostade och kom fram till att HBM stod för en stor del av produktionskostnaden och att AMD troligtvis sålde dessa kort med små vinstmarginaler. Att RTX2080ti kostar mycket har helt andra orsaker men det säger ingenting om HBM vs. GDDR6 egentligen. När Nvidia släppte sitt första kort med HBM så kostade väl det närmare 30 000kr om jag inte minns fel.

Permalänk
Medlem
Skrivet av Xinpei:

Tror nog hans poäng är att priset på minnet eventuellt inte speglas i slutpriset utan det är många andra faktorer som spelar in. För om HBM2 var den största orsaken så skulle ett kort med GDDR6 inte kosta 15k.

Jag tror helt ärligt att nVidia bara är gnidiga jävlar som tog 300$ (påstådd MSRP) för att de kunde och att de (för tillfället hoppas jag) har monopol på grafikkortsmarknaden, och inte för att GDDR6 kostar mycket. Känns dessutom som att många hade skrivit om saken isf men jag kan inte minnas att jag sett sådana artiklar eller videos.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Inaktiv

Letade upp GN-artikeln. HBM2 kostar i runda slängar tre gånger mer än GDDR5 och jag tvivlar på att GDDR6 påverkar den ekvationen speciellt mycket. HBM2+interposer utgör en kostnad motsvarande halva Vega56's MSRP.

https://www.gamersnexus.net/guides/3032-vega-56-cost-of-hbm2-...