AMD:s framtid bygger på flexibel väv av anslutna kretsar

AMD:s framtid bygger på flexibel väv av anslutna kretsar

Flexibel sammanlänkning och paketering av kretsar dominerar framtidsplanerna för AMD:s processorer och grafikkort.

Läs hela artikeln här

Intressant 🙂

Funderar lite på det här med tekniker som expanderar i både bredd och höjd. Minskad tillverkningsteknik minskar ju en del av värmeutveckling en. Med när det staplas minneskretsar på varandra vilket borde öka värmeutveckling en i stacken, varför börjar man då inte kyla även underifrån?
Borde man inte kunna integrera ett piezoelement i sockeln för detta??

Som synes en sannolikt korkad fråga från någon utan tillräcklig kunskap att själv komma på svaret..

Intressant, som sagt!
The future IS fusion!

Skrivet av NcLr:

Funderar lite på det här med tekniker som expanderar i både bredd och höjd. Minskad tillverkningsteknik minskar ju en del av värmeutveckling en. Med när det staplas minneskretsar på varandra vilket borde öka värmeutveckling en i stacken, varför börjar man då inte kyla även underifrån?
Borde man inte kunna integrera ett piezoelement i sockeln för detta??

Som synes en sannolikt korkad fråga från någon utan tillräcklig kunskap att själv komma på svaret..

Orkar inte leta upp någon källa just nu, men vill minnas att jag läst någonstans om integrerad kylning direkt i kretsarna eller nåt sånt.

Skrivet av NcLr:

Funderar lite på det här med tekniker som expanderar i både bredd och höjd. Minskad tillverkningsteknik minskar ju en del av värmeutveckling en. Med när det staplas minneskretsar på varandra vilket borde öka värmeutveckling en i stacken, varför börjar man då inte kyla även underifrån?
Borde man inte kunna integrera ett piezoelement i sockeln för detta??

Som synes en sannolikt korkad fråga från någon utan tillräcklig kunskap att själv komma på svaret..

Du måste fortfarande leda bort värme oavsett hur du gör. Hur för du det från undersidan? Tack vare fenomenet "entropi" räcker det med av avleda åt ena hållet (som idag) sålänge värmeöverföringen mellan de staplade chippen är bra.

Jag trodde att vi redan 2017 skulle få en en APU med HBM cache, hade tyvärr helt fel, väntar fortfarande.
Stora fördelar med deras modulbyggande.

Det viktigaste av allt är dock att programmeringsmodellen är mycket enklare. Det är varför Intel och AMD får alla kontrakt för superdatorerna, medan NVIDIA blir utan.

Sannolikt kommer vi se programmeringsmodellen hos GPU:er på grafiksidan gå lite i samma riktning. Konsoler kan vara ett bra ställe att börja med.

HA. Skrev i en post förra året att detta skulle bli framtiden. (Nej inte just detta såklart, men teorin runt det)

Det finns inte så annat dom kan göra, än.

Väldigt intressant.

Bra mjukvara vore med intressant AMD

Jag hoppas på enkretsdatorer i stället för enkortsdatorer, moderkortet ska bara behövas för att ha nånstans att montera kontakter.

jaha. men ja ska plocka upp en 3700x idag.. ska ja bara vänta istället? fattar ingenting.

@Gtoxed: Köp

Om du inte ska en Epyc - värstingprocessor.

Skrivet av NcLr:

Funderar lite på det här med tekniker som expanderar i både bredd och höjd. Minskad tillverkningsteknik minskar ju en del av värmeutveckling en. Med när det staplas minneskretsar på varandra vilket borde öka värmeutveckling en i stacken, varför börjar man då inte kyla även underifrån?
Borde man inte kunna integrera ett piezoelement i sockeln för detta??

Som synes en sannolikt korkad fråga från någon utan tillräcklig kunskap att själv komma på svaret..

Skrivet av Thomaseron:

Orkar inte leta upp någon källa just nu, men vill minnas att jag läst någonstans om integrerad kylning direkt i kretsarna eller nåt sånt.

Vad jag läste och om jag minns rätt (källa får utebli av lathet) är att AMD tog patent på att designa in ledningsbanor av koppar i kretsarna för värmeledning ut i sidledes, minns inte om det var internt mellan lagren av transistorerna eller mellan kretsarna (stacked).
Hursom så blir värme ett av utmaningarna

Skrivet av Radolov:

Det viktigaste av allt är dock att programmeringsmodellen är mycket enklare. Det är varför Intel och AMD får alla kontrakt för superdatorerna, medan NVIDIA blir utan.

Sannolikt kommer vi se programmeringsmodellen hos GPU:er på grafiksidan gå lite i samma riktning. Konsoler kan vara ett bra ställe att börja med.

???
Nvidia finns ju i 90 % av alla superdatorer på topp 500 listan, så helt utan kontrakt är de ju inte. Och skulle säga att en väldigt stor anledning till denna brutala dominans är just att Nvidia lyckades få till den överlägset bästa programmeringsmodellen. CUDA är fortfarande de överlägset bästa/enklaste/effektivaste modellen för GPGPU.

Tyvärr verkar GPGPU nu gå mot total splittring sett till APIer. Nvidia har ingen anledning att byta ut CUDA då det är de-facto-standard, AMD verkar ha flera olika APIer just nu men tidigare pushade man primärt HIP. Intel lägger alla sina resurser på OneAPI (innefattar mer än bara GPGPU, mycket också för att utnyttja SIMD i CPU),för GPGPU bygger den på Khronos öppna SyCL.

Det AMD/Intel jobbar på handlar att på kretsnivå binda ihop saker så problem man idag inte effektivt kan avlasta till kretsar utanför CPU kommer bli det framöver. Men Nvidia kommer inte hamna utanför det då modellen Intel och ARM (och förhoppningsvis även AMD då de är medlem) kommer använda för att binda ihop kretsar är Compute eXpress Link.

Med CXL kan AMD köra sitt infinity-fabric-protokoll (för i grunden är ∞-fabric ett enhetligt protokoll, redan idag använder AMD flera olika transportlager för protokollet) över PCIe5 (och senare). Om man kör någon egen lösning rent elektriskt skulle ju deras datacenter GPUer bli bundna till Epyc, vilket inte känns helt optimalt för någon part.

@dlq84: Som sagt, är inte hemma på detta. Min tanke var väl närmst en kylfläns på bakstycket för att avleda värmen ut i chassit på baksidan.
Men entropi låter klart enklare...

Skrivet av NcLr:

Funderar lite på det här med tekniker som expanderar i både bredd och höjd. Minskad tillverkningsteknik minskar ju en del av värmeutveckling en. Med när det staplas minneskretsar på varandra vilket borde öka värmeutveckling en i stacken, varför börjar man då inte kyla även underifrån?
Borde man inte kunna integrera ett piezoelement i sockeln för detta??

Som synes en sannolikt korkad fråga från någon utan tillräcklig kunskap att själv komma på svaret..

Det var det första jag också tänkte på. Ett exempel på en teknisk lösning som skulle kunna fungera är ett lager grafen mellan varje par av chip, då grafen är effektiv på att leda bort värme tvådimensionellt (om jag nu inte blandar ihop det med något annat material). Men grafen är svårtillverkat och dyrt.

Så länge som chippen är små borde det väl räcka gott med valfritt lämpligt material med tillräckligt god värmeledning mellan varje par av chip.

Men jag spånar bara, och besitter inga detaljkunskaper i området.

Tillägg: om chippen är sammanlänkade via vertikala genomgående kopparledare så leder ju om inte annat dessa kopparledare ut värmen.

Skrivet av Yoshman:

???
Nvidia finns ju i 90 % av alla superdatorer på topp 500 listan, så helt utan kontrakt är de ju inte. Och skulle säga att en väldigt stor anledning till denna brutala dominans är just att Nvidia lyckades få till den överlägset bästa programmeringsmodellen. CUDA är fortfarande de överlägset bästa/enklaste/effektivaste modellen för GPGPU.

Tyvärr verkar GPGPU nu gå mot total splittring sett till APIer. Nvidia har ingen anledning att byta ut CUDA då det är de-facto-standard, AMD verkar ha flera olika APIer just nu men tidigare pushade man primärt HIP. Intel lägger alla sina resurser på OneAPI (innefattar mer än bara GPGPU, mycket också för att utnyttja SIMD i CPU),för GPGPU bygger den på Khronos öppna SyCL.

Det AMD/Intel jobbar på handlar att på kretsnivå binda ihop saker så problem man idag inte effektivt kan avlasta till kretsar utanför CPU kommer bli det framöver. Men Nvidia kommer inte hamna utanför det då modellen Intel och ARM (och förhoppningsvis även AMD då de är medlem) kommer använda för att binda ihop kretsar är Compute eXpress Link.

Med CXL kan AMD köra sitt infinity-fabric-protokoll (för i grunden är ∞-fabric ett enhetligt protokoll, redan idag använder AMD flera olika transportlager för protokollet) över PCIe5 (och senare). Om man kör någon egen lösning rent elektriskt skulle ju deras datacenter GPUer bli bundna till Epyc, vilket inte känns helt optimalt för någon part.

HIP var/är bara en del av mjukvaruarkitekturen som ingår i ROCm.

Senast redigerat 2020-03-06 15:07
Skrivet av Yoshman:

???
Nvidia finns ju i 90 % av alla superdatorer på topp 500 listan...

Är det jag som har bristande läsförståelse eller blev det fel på sin sida? Enligt länken så har väl nvidia hårdvara i 136 av top500 superdatorerna, eller 90% av top30. Din poäng är dock relavant oavsett.

Skrivet av Ratatosk:

Jag trodde att vi redan 2017 skulle få en en APU med HBM cache, hade tyvärr helt fel, väntar fortfarande.
Stora fördelar med deras modulbyggande.

Jag spekulerar att även detta inte har med HBM att göra, utan att stapla CPU:er. Tänkt dagens EPYC med 8 CPU-chiplets, så staplar man 2 eller 4 på höjden för att få 128 eller 256 kärnor.

Hellvete att man inte köpte aktier för 3 år sedan då man tipsade andra >_<

Skrivet av Ratatosk:

Jag trodde att vi redan 2017 skulle få en en APU med HBM cache, hade tyvärr helt fel, väntar fortfarande.
Stora fördelar med deras modulbyggande.

Ja AMD borde snart kunna släppa en APU som innehåller motsvarande en vettig Ryzen 7, en Vega 7 och minst 16GB HBM2 på ett chip stort som en Threadripper, typ "next gen" spelkonsoller på steroider .

Skrivet av Bengt-Arne:

Om jag förstått det hela rätt så är/var HIP API och bibliotek som applikationsutvecklare jobbar mot, d.v.s. det CUDA är för Nvidia. Medan ROCm är (just nu Linux-specifik) programvara och bibliotek för att kommunicera med HW, d.v.s. drivrutinerna.

Just att ROCm och därmed flera av de nya GPGPU-APIerna är Linux-only verkade mysko tidigare, men det känns mer vettigt nu med presentationen av RDNA/CDNA-spitten. Windows är i princip helt ute ur leken vad det gäller GPGPU i datacenter. Det förklarar också varför ROCm saknar stöd för RDNA.

Skrivet av sKRUVARN:

Är det jag som har bristande läsförståelse eller blev det fel på sin sida? Enligt länken så har väl nvidia hårdvara i 136 av top500 superdatorerna, eller 90% av top30. Din poäng är dock relavant oavsett.

Helt rätt, ska vara "av de superdatorer som är GPGPU-accelererade". Det verkar vara 145 av 500 st, varav Nvidia finns i 136 st (så lite mer än 90 %).

För just superdatorer tror jag ändå Nvidia kan tappa andelar relativt snabbt. Där är programvara så pass specialskriven till den specifika HW att man rimligen borde kunna skriva till vilket API som helst bara stabiliteten och prestandan finns där.

För datacenter och klienter har jag lite svårt att se vad AMD/Intel har att vinna på att köra sina egna race, allt mer stödjer GPGPU men en allt större andel stödjer enbart CUDA.

Skrivet av Yoshman:

--- Text---
Helt rätt, ska vara "av de superdatorer som är GPGPU-accelererade". Det verkar vara 145 av 500 st, varav Nvidia finns i 136 st (så lite mer än 90 %).

För just superdatorer tror jag ändå Nvidia kan tappa andelar relativt snabbt. Där är programvara så pass specialskriven till den specifika HW att man rimligen borde kunna skriva till vilket API som helst bara stabiliteten och prestandan finns där.

För datacenter och klienter har jag lite svårt att se vad AMD/Intel har att vinna på att köra sina egna race, allt mer stödjer GPGPU men en allt större andel stödjer enbart CUDA.

Lite mer än 25% menar du, är du hård på Fredagsgroggen? (tror jag i ärlighetens namn inte)-

Vad gäller datacenter och klienter förstår jag varför de inte vill ge fritt spelrum åt Nvida, man skall inte heller räkna ut dem, Intel+AMD är ingen liten aktör.

Senast redigerat 2020-03-06 17:34
Skrivet av Yoshman:

???
Nvidia finns ju i 90 % av alla superdatorer på topp 500 listan, så helt utan kontrakt är de ju inte. Och skulle säga att en väldigt stor anledning till denna brutala dominans är just att Nvidia lyckades få till den överlägset bästa programmeringsmodellen. CUDA är fortfarande de överlägset bästa/enklaste/effektivaste modellen för GPGPU.

Tyvärr verkar GPGPU nu gå mot total splittring sett till APIer. Nvidia har ingen anledning att byta ut CUDA då det är de-facto-standard, AMD verkar ha flera olika APIer just nu men tidigare pushade man primärt HIP. Intel lägger alla sina resurser på OneAPI (innefattar mer än bara GPGPU, mycket också för att utnyttja SIMD i CPU),för GPGPU bygger den på Khronos öppna SyCL.

Det AMD/Intel jobbar på handlar att på kretsnivå binda ihop saker så problem man idag inte effektivt kan avlasta till kretsar utanför CPU kommer bli det framöver. Men Nvidia kommer inte hamna utanför det då modellen Intel och ARM (och förhoppningsvis även AMD då de är medlem) kommer använda för att binda ihop kretsar är Compute eXpress Link.

Med CXL kan AMD köra sitt infinity-fabric-protokoll (för i grunden är ∞-fabric ett enhetligt protokoll, redan idag använder AMD flera olika transportlager för protokollet) över PCIe5 (och senare). Om man kör någon egen lösning rent elektriskt skulle ju deras datacenter GPUer bli bundna till Epyc, vilket inte känns helt optimalt för någon part.

Du förstår väl att jag inte menar att det inte finns några NVIDIA superdatorer, right?

De superdatorerna som jag åsyftade var de tre från DOE. Jag skulle nog ha varit tydligare på den punkten. Av de tre superdatorerna som skulle byggas för DOE, Aurora på 1 Exaflop (Intel) , Frontier på 1,5 Exaflop (AMD) och El Capitan på 2 Exaflop (AMD) är NVIDIA med i 0. Jag har inte hittat några uppgifter om hur många exaflopsystem NVIDIA kommer ha 2021, men du får gärna informera mig om det.

NVIDIA nämner att av världens topp 500 superdatorer idag, står NVIDIA för 626 petaflop. När AMD och Intel lägger ut Aurora och Frontier 2021 har de åtminstone 2500 petaflop. Helt plötsligt är dessa 626petaflop inte så jätteimponerande längre. Det betyder ju absolut inte att NVIDIA kommer att stå helt utanför heller, men att de har en nackdel i de allra största kontrakten. Och jag tänker ta friheten att säga att NVIDIA kommer att få många,många kontrakt under tiden, men AMD och Intel kommer ju inte heller att stå stilla om de kan erbjuda lika bra grejer som till de snabbaste superdatorerna i världen.

Kan du nämna varför NVIDIA inte fick något kontrakt för någon av dessa? CUDA:s dominans kan ju omöjligen ha varit en anledning att välja bort dem.

Jensen påstår rakt ut att han inte fattar hur OneAPI någonsin kan fungera. Iallafall inte i en värld där NVIDIA har samma ställning som nu. Kan du komma på en anledning till varför Jensen börjar trashtalka så fort han känner sig hotad? Han menade att han skulle krossa AMD, och att Intel var i princip en dålig kopia av AMD. Det verkar ju som en konstig kommentar, med tanke på att det nu ett år senare är klart att han inte får något av de stora DOE kontrakten. Varför ska Intel samarbeta med någon som förolämpar dem, när de nu satsar på egna GPU:er? NVIDIA har ju kvar ARM, vilket är bra, men det verkar inte ha räckt till för dem tre kontrakten.

AMD påpekade många gånger under financial day att det var just programmeringsmodellen var en av huvudanledningar till varför DOE valde dem. Och då tänkte jag att det skulle vara bra att nämna någonting som inte togs upp i artikeln med ett läckt exempel.

De nämnde många gånger hur det underlättar programmeringen och att det är en av huvudanledningarna till varför de valdes
Skrivet av Ratatosk:

Lite mer än 25% menar du, är du hård på Fredagsgroggen? (tror jag i ärlighetens namn inte)-

Vad gäller datacenter och klienter förstår jag varför de inte vill ge fritt spelrum åt Nvida, man skall inte heller räkna ut dem, Intel+AMD är ingen liten aktör.

Del av meningen som fattas: lite mer än 90 % av de system som använder GPGPU.
Kanske är torsdagsgroggen som spökar än...

Skrivet av Radolov:

Du förstår väl att jag inte menar att det inte finns några NVIDIA superdatorer, right?

De superdatorerna som jag åsyftade var de tre från DOE. Jag skulle nog ha varit tydligare på den punkten. Av de tre superdatorerna som skulle byggas för DOE, Aurora på 1 Exaflop (Intel) , Frontier på 1,5 Exaflop (AMD) och El Capitan på 2 Exaflop (AMD) är NVIDIA med i 0. Jag har inte hittat några uppgifter om hur många exaflopsystem NVIDIA kommer ha 2021, men du får gärna informera mig om det.

NVIDIA nämner att av världens topp 500 superdatorer idag, står NVIDIA för 626 petaflop. När AMD och Intel lägger ut Aurora och Frontier 2021 har de åtminstone 2500 petaflop. Helt plötsligt är dessa 626petaflop inte så jätteimponerande längre. Det betyder ju absolut inte att NVIDIA kommer att stå helt utanför heller, men att de har en nackdel i de allra största kontrakten. Och jag tänker ta friheten att säga att NVIDIA kommer att få många,många kontrakt under tiden, men AMD och Intel kommer ju inte heller att stå stilla om de kan erbjuda lika bra grejer som till de snabbaste superdatorerna i världen.

Kan du nämna varför NVIDIA inte fick något kontrakt för någon av dessa? CUDA:s dominans kan ju omöjligen ha varit en anledning att välja bort dem.

Jensen påstår rakt ut att han inte fattar hur OneAPI någonsin kan fungera. Iallafall inte i en värld där NVIDIA har samma ställning som nu. Kan du komma på en anledning till varför Jensen börjar trashtalka så fort han känner sig hotad? Han menade att han skulle krossa AMD, och att Intel var i princip en dålig kopia av AMD. Det verkar ju som en konstig kommentar, med tanke på att det nu ett år senare är klart att han inte får något av de stora DOE kontrakten. Varför ska Intel samarbeta med någon som förolämpar dem, när de nu satsar på egna GPU:er? NVIDIA har ju kvar ARM, vilket är bra, men det verkar inte ha räckt till för dem tre kontrakten.

AMD påpekade många gånger under financial day att det var just programmeringsmodellen var en av huvudanledningar till varför DOE valde dem. Och då tänkte jag att det skulle vara bra att nämna någonting som inte togs upp i artikeln med ett läckt exempel.

De nämnde många gånger hur det underlättar programmeringen och att det är en av huvudanledningarna till varför de valdes

Som jag skrev ovan: ser absolut hur Nvidia ganska snabbt skulle kunna tappa för superdatorer. Så det är inte problemet för AMD/Intel.

Problemet är att superdatorer må stoltsera med stora per-system prislappar, men i ett större kontext är det en försvinnande liten del av totalmarknaden, d.v.s. man inte bör ha det som enda mål.

Har kikat en del på både HIP och OneAPI, det är inget fel på någon av dessa som GPGPU API. Problemet är att de inte har någon uppenbar relevant fördel över CUDA. Både HIP och OneAPI trycker på att de har bra migrationsvägar att ta något som är skrivet i CUDA och transformera det till HIP resp.. OneAPI motsvarighet.

Har jag en GPU som stödjer CUDA kan man enkelt köra Matlab, Tensorflow, flertalet paket till R, Adobes programvaror m.m. med GPU-acceleration. I många fall finns inget OpenCL stöd och ofta när det finns innehåller det långt färre delar som är accelererade jämfört med CUDA.

Så varför ska man då sluta skriva för CUDA? Man har ingen synergi mellan HIP och OneAPI, det är två separata APIer för GPGPU. Enda gemensamma nämnare är CUDA + det finns något sätt att halvhjälpligt konvertera CUDA till HIP / OneAPI. Just i detta fall har ju Intel, för ovanlighets skull, faktiskt valt en öppen standard som är under samma organisation som Vulkan, OpenGL och OpenCL. Men på direkt fråga säger AMD att de inte har några direkta planer för SyCL och man har i praktiken övergett OpenCL (ett beslut som jag tror är rätt, OpenCL dog nog när dess skapare Apple lämnade och OpenCL är för lågnivå utan några direkta fördelar ställt mot CUDA).

Jag tror AMD/Intel kommer få det rejält tufft mot Nvidias CUDA, de hade haft en långt större chans om man enats kring samma API. Det kan ju fortfarande hända, men det händer inte just nu.

API etc.

Vulkan ska väl vara hyfsat anpassbart till OpenCL, redan idag (?)

Hoppas vilket som att AMD satsar hårt även på detta område, och helst med fokus på OpenCL ... (har själv, som många, fokuserat på CUDA ... lite motvilligt pga dominans - ser helst att alla aktörer sluter upp bakom OpenCL )

I övrigt lär AMD:s uppfinningsrikedom inom hårdvara gynna alla så in i h-lvete

Skrivet av Yoshman:

???
Nvidia finns ju i 90 % av alla superdatorer på topp 500 listan, så helt utan kontrakt är de ju inte. Och skulle säga att en väldigt stor anledning till denna brutala dominans är just att Nvidia lyckades få till den överlägset bästa programmeringsmodellen. CUDA är fortfarande de överlägset bästa/enklaste/effektivaste modellen för GPGPU.

Tyvärr verkar GPGPU nu gå mot total splittring sett till APIer. Nvidia har ingen anledning att byta ut CUDA då det är de-facto-standard, AMD verkar ha flera olika APIer just nu men tidigare pushade man primärt HIP. Intel lägger alla sina resurser på OneAPI (innefattar mer än bara GPGPU, mycket också för att utnyttja SIMD i CPU),för GPGPU bygger den på Khronos öppna SyCL.

Det AMD/Intel jobbar på handlar att på kretsnivå binda ihop saker så problem man idag inte effektivt kan avlasta till kretsar utanför CPU kommer bli det framöver. Men Nvidia kommer inte hamna utanför det då modellen Intel och ARM (och förhoppningsvis även AMD då de är medlem) kommer använda för att binda ihop kretsar är Compute eXpress Link.

Med CXL kan AMD köra sitt infinity-fabric-protokoll (för i grunden är ∞-fabric ett enhetligt protokoll, redan idag använder AMD flera olika transportlager för protokollet) över PCIe5 (och senare). Om man kör någon egen lösning rent elektriskt skulle ju deras datacenter GPUer bli bundna till Epyc, vilket inte känns helt optimalt för någon part.

Senast redigerat 2020-03-06 18:51: (Felstavning av Vulkan)
Skrivet av Yoshman:

Del av meningen som fattas: lite mer än 90 % av de system som använder GPGPU.
Kanske är torsdagsgroggen som spökar än...
---Text---


Kan bli tufft för mig i morgon...

Skrivet av Bengt-Arne:

Sedan behöver det bara bli lättare att installera rocm och få allt att fungera.
Det är det största problemet just nu men även något AMD troligtvis jobbar på.

Skrivet av Yoshman:

Så varför ska man då sluta skriva för CUDA? [...]Men på direkt fråga säger AMD att de inte har några direkta planer för SyCL och man har i praktiken övergett OpenCL (ett beslut som jag tror är rätt, OpenCL dog nog när dess skapare Apple lämnade och OpenCL är för lågnivå utan några direkta fördelar ställt mot CUDA).

Jag tror AMD/Intel kommer få det rejält tufft mot Nvidias CUDA, de hade haft en långt större chans om man enats kring samma API. Det kan ju fortfarande hända, men det händer inte just nu.

Det fungerar bra att fortsätta med CUDA där det används.
Däremot så har AMD inte övergett OpenCL som är en viktig del av ROCm.
Som bridgman svarade på direkt fråga från en på phoronix forum.
"OpenCL is not deprecated (or being deprecated), however if you are looking at porting an application from CUDA then using HIP rather than OpenCL makes the porting effort much easier. "
Datacenter är att anse som AMDs största marknad enligt förväntningarna.

EDIT: för de som vill kolla igenom powerpoint presentationerna.
https://ir.amd.com/events/event-details/financial-analyst-day...

Senast redigerat 2020-03-07 00:54
Skrivet av Snubb1:

Däremot så har AMD inte övergett OpenCL som är en viktig del av ROCm.
Som bridgman svarade på direkt fråga från en på phoronix forum.
"OpenCL is not deprecated (or being deprecated), however if you are looking at porting an application from CUDA then using HIP rather than OpenCL makes the porting effort much easier. "
Datacenter är att anse som AMDs största marknad enligt förväntningarna.
https://i.imgur.com/TzYfnbC.png
https://i.imgur.com/7KepaZm.png

Att datacenter är primärfokus borde inte förvåna någon, samma gäller för Intel (där konsumentmodellerna mest lär komma av att man kan sno ihop dem utan större besvär). Men just därför är det olyckligt att AMD/intel inte slår ihop sina ansträngningar på API-sidan, tror det nästan är ett krav om de ska ha någon chans mot Nvidias totala dominans med CUDA.

AMD har "kind-of" kvar stöd för OpenCL. De har inga planer alls på att stödja OpenCL 2.2, faktum är att ingen har brytt som om att implementera v2.2 trots allt specifikationen funnits sedan mitten av 2017. AMD stödjer endast OpenCL 2.0 (lanserades slutet 2013), egentligen bara Intel som har officiellt stöd för OpenCL 2.1 (lanserades början av 2015).

AMD har inte längre (man har haft detta tidigare) officiellt stöd för OpenCL för deras APUer. Har själv bara testat bärbara (specifikt 2700U samt 3750H), går att dekretera GPU men inte ens OpenCL "hello world" (addition av två vektorer) fungerar (testade både på Windows 10 och Ubuntu 18.04). Tydligen ska det med lite hack gå att få till stödet under Linux, jag körde med de officiella drivarna.

ROCm saknar stöd för RDNA och OpenCL stödet för RDNA under Windows verkar vara i rätt risigt tillstånd

"AMD’s Adrenaline 2020 software has improved the state of their OpenCL drivers slightly – there are fewer hard crashes and performance is up in some cases – but their drivers are still dysfunctional and not fit for production use."

Ställde faktiskt en direkt fråga till Joe Macri kring AMDs framtida riktigt m.a.p. GPGPU på SweClockers 20 års jubileum. Han lindande det inte in det på något sätt utan sa att de slutat satsa på OpenCL, vägen framåt är HIP. Så endera Joe Macri eller bridgman har fel!

Citat:

AMD:s framtid bygger på flexibel väv av anslutna kretsar

Lisa Su The Spider Queen.