AMD:s grafikchef Raja Koduri lämnar Radeon Technologies Group

Permalänk
Medlem
Skrivet av Triton242:

Priset hänger väldigt mycket ihop med en mycket starkare dollar nu mot då men absolut påverkar också konkurrensen priserna.
Dock har Nvidia gjort om lite i sin strategi sedan 500 serien.
Man har helt enkelt introducerat ett ultra High end segment med kort som kostar ännu mer pengar till en än smalare men växande massa som är köpstark. Man gjorde likadant med 900 serien. 1080 kan därför fortfarande platsa som ett high end kort, medans 1070 familjen får placera sig någonst i mitten och under kommer 1060/1050ti som blir korten de säljer i massor världen runt.

Skickades från m.sweclockers.com

Pratar inte om pris i kronor. Så det där är irrelevant. Men ja det har skett en förskjutning, mem jag adresserade det när jag pratade om att bristen på konkurrens. Det är därför fförskjutningen har skett. Ett 1080 är på måmga sätt motsvarande ett 8800GT bortsett från just att priserna för olika grafikkortstyper försljutits uppåt.

Skrivet av Ozzed:

Jag menar bara att folk borde se AMD's produkter för vad AMD har avsett dem för att vara. Vega 56 är t. ex ett svar på 1070, och där klarar det ju sig bra prestandamässigt. Sen kan man ha synpunkter på effektåtgången och värmen, såklart. Men... Att folk tycker att vega är dåliga kort för att det inte spöar skiten ut 1080TI är liksom... Det är knäppt, det blir fel.

Vega är inte ett svar på 1070, de har anpassat prissättningen efter konkurrensen. Men det är en helt annan sak. Konstruktionsmässigt, och hur det lät i marknadsföringsnacket för ett år sedan, så är Vega motsvarande 1080Ti, bara det att prestandan blev så låg att de fick prissätta mot 1070 och 1080 istället. Som redan de har ett mycket högre prissegment än vad motsvarande kort hade för 5+ år sedan.

Skrivet av Ratatosk:

@Yoshman: Så dålig kan väl inte AMD:s grafik vara? Intel tycker i alla fall att den är ganska bra.
https://www.sweclockers.com/nyhet/24703-intel-och-amd-samarbe...

Men tillräckligt dåliga för att Intel ska utveckla egna grafikkort istället? Det hela får nog ses som en övergångsfas nu när inte ska göra egna grafikkort.

Skrivet av mpat:

Polaris 10 är helt felbalanserad när det gäller ROPparna, där är vi överens. Överhuvudtaget är tätheten på GCN-chippen underlig, eftersom Pitcairn och Hawaii verkar mycket tätare (antalet CU per mm2) än övriga chip. Sannolikt tog AMD bara Tonga som det nyaste chippet och petade in en CU till i varje kluster - möjligen för att geometrin ändrades något med förbättrad geometriprocessor, så det fanns ett hål att fylla.

Som jag postade på annat ställe i tråden: om man kör en Vega 56 på ett Vega 64-BIOS, får man 98% av dess prestanda trots att det fattas 8CU. Dessa 8CU gör alltså nästan ingen nytta. Det leder mig att tro att det är minnsbandbredden som är problemet. Alternativet är att de flaskar på något annat - som ROPparna igen - men jag har svårt att se hur det kan vara så illa när den har fler ROPpar per CU än Polaris 10, och lika många som vältestade Tahiti och Tonga.

Dock skall det sägas att GP102 har 96 ROPpar, medan Vega 10 bara har 64, så det är inte helt omöjligt.

Skickades från m.sweclockers.com

Ja men det är nog inte minnesbegänsningar som gör att Vega 56 går bättre med Vega 64-bios. Överklockning av minnet visar att Vega inte är särskillt begränsat av bandbredd. Överklockning av kärnan ger fortfarande mer.

Permalänk
Datavetare
Skrivet av Enigma:

Nej, även om VRAM-frekvens ger ökningar så är det GPU-frekvens som ger helt klart störst ökningar.

Och här gör du en Yoshman deluxe igen och exkluderar bitar av det som man skrev om för att sedan kunna få det att verka som du kan såga allt i sin helhet. Vega10 sitter på fler kort än bara kort avsedda för spel eller ren FP32. Det finns en anledning till att nvidia har en uppdelning på t.ex GP100 och GP102, men då ska man kunna göra det också vilket var en omöjlighet för AMD med dåtidens $R&D och avtal med GLOFO.

Sagt innan och säger igen att fler spel kommer, och Wolfenstein inte är det enda spelet som du givetvis ville få det att låta som, utan Destiny 2 där ligger det och flåsar ett fabriksöverclockat 1080TI i nacken:

https://www.gamersnexus.net/images/media/2017/games/destiny2/launch-bench/destiny-2-gpu-benchmark-1440p-highest.png

Som jag beskrev innan så är det synd att Vega10 stryps ganska saftigt av originalkylaren, men det är ju på väg fler kort och den vattenkylda versionen hade förmodligen matchat det överklockade 1080TI kortet där. I en del tester går den luftkylda referensversionen av Vega så lågt som 12xxMHz när det egentligen ska boosta upp till 16xxMHz. Där har du lätt 15-25% extra prestanda som kan ytvinnas med partnerkort eller LC versionen.

Far Cry 5 är på väg också med fullt stöd för Vega, och ID's Tech6-motor är för övrigt en mer än väl respektabel grafikmotor att mäta prestanda i, men du misstycker säkert bara för att det är en av färre motorer som opartiskt låter bägge respektives arkitekturer sträcka fullt på benen utan fiffel. Det är fortfarande bara början för Vega, hur irriterande det än verkar vara för vissa

Något högre klockad? Ta en kik på vad det luftkylda referenskortet ligger på i snitt i många tester, och betänkt att många fabriksöverklockade partnerkort ofta inte har några problem att ligga på runt 2000MHz så snackar vi en fatal skillnad i frekvens. Sen ger frekvens högre skalning kontra antal streamprocessorer vilket du säkert är införstådd med.

I alla operationer och applikationer? Intressant påstående som alla bara ska svälja med hull och hår antar jag som vanligt. Återigen så exkluderar du helt vad jag tidigare skrev, att tillverkningsprocessen är helt åt fanders för applikationen som Vega10 förväntas vara bra på.

Jag kommenterade det ovan.

Förmodligen bättre än allt annat i sitt segment, och det med ~15w TDP och 8 högprestandatrådar. Jag är ruskigt imponerad, och det verkar Intel också vara. Som tidigare nämnt så verkar också fler vara intresserade i AMD's GPU design då den sitter i både XBox, PS4, Nintendo och Atari's kommande box. Apple har också ett visst sug och jag misstänker att Tesla fortfarande kan komma att sluta en deal med AMD.

Åter en intressant åsikt som ska sväljas med hull och hår, att Vega (MI25) är helt irrelevant för maskininlärning. Vega kan köra FP8/INT8 med dubbel hastighet mot FP16 också, dvs strax över ~50TFLOP/s. Det återstår att se vad nvidia's tensorkärnor är kapabla till. Dom har säkerligen sin applikation, men det har likaså MI25 och andra ev Vega-SOC's. Flexibilitet är ett ledord som kanske kan få dig att se lite klarare på dessa ändamål.

En av mina huvudinvändningar mot AMDs nuvarande strategi är specifikt att de kör "Jack-of-all-trade-master-of-none" spåret. De som shoppar efter en ny gaming-GPU skiter högaktningsfullt i att Vega får sämre effektivitet för den även ska kunna användas i andra områden.

De som är ute efter ett beräkningskort lär knappast se någon vinns i att det finns massa TMUs och annat jox som är totalt irrelevant för dem.

Vad båda ser är att det finns andra val som är bättre för det specifika område just den personen är ute efter. Så är en självklarhet för mig att ignorera att man försökt nå flera marknader med en produkt, det är nästan alltid en dålig idé!

Hurra, du lyckades hitta några spel till där det Vega presterar bra. Faktum kvarstår att den i genomsnitt över en större mängd spel presterar som ett GTX1080. Om det finns spel där den närmar sig GTX1080Ti betyder det i så fall att den presterar klart under GTX1080 i en rad andra. De spel som normalt testas av tekniksiterna är de spel som för tillfället är populära -> i populära spel presterar den som GTX1080.

För att helt isolera "mängd utfört arbete kontra teoretisk kapacitet" delen kan vi i stället titta på streamprocessorer*frekvens, det tar då hänsyn till att Nvidia kör på högre frekvens. GTX1080 har en FP32 peak kapacitet på 8,9 GFLOPS medan Vega64 har 12,7 GFLOPS samt Vega64 LC 13,7 GFLOPS. Är fortfarande 43 % högre kapacitet (53 % för LC) hos Vega64, samma genomsnittlig verklig prestanda.

Och ja, Vega MI25 är rätt irrelevant för både "traning" och "inference". Både FP16 och Int8 är relevant här.

Både Nvidias och AMDs beräkningskort har "packed-math" stöd för FP16, ovanpå det har Volta specifikt stöd för de vanligaste operationerna i Tensor Flow (som är den dominerande tekniken just nu). Teoretisk FP16 kapacitet för MI25 är 24,6 TFLOP. Motsvarande för VP100 är 31,4 TFLOP men specifikt för Tensor Flow har man 125 TFLOP!

Grejen här är att både Google och Intel har ännu högre kapacitet än Nvidia, Google med sin TPU (ASIC specifikt designad för Tensor Flow) och förra månaden släppte Intel sin "Neural Network Processor". Gissar att GPUer kommer försvinna i detta segment, i alla fall för datacenterlösningarna, GPUer kanske finns kvar i mindre installationer som ett mer kostnadseffektiv alternativ.

Vad det gäller Int8 verkar du bara läst PR-materialet. Det hade räckt att titta i Vegas white paper för att se hur väldigt specifikt "rapid-math" är för Int8.

"The NCU also supports a set of 8-bit integer SAD (Sum of Absolute Differences) operations. "

Detta är självklart användbart för viss typ av bildbehandling, AMD försöker till och med stämpla "machine learning" på detta. Det man vill ha, och vad både Nvidia har i Volta och Intel i AVX512, är effektiv beräkning av skalärprodukt för Int8 (och även FP16). Volta/AVX512 har stöd för att beräkna skalärprodukt för två 4x1 vektorer varje cykel och "streamprocessor" (d.v.s. 4 st mul och 3 st add).

Kikar man i Vegas ISA-beskrivning, kapitel 6.7 "packed-math", ser man rätt snabbat att det finns överhuvudtaget inget stöd för Int8 och det finns ingen instruktion för skalärprodukt.

Har inget egenintresse att dissa AMD, tvärt om just nu då jag har en hel del aktier där. Men kan ju vara bra med lite faktakoll ibland...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

En av mina huvudinvändningar mot AMDs nuvarande strategi är specifikt att de kör "Jack-of-all-trade-master-of-none" spåret. De som shoppar efter en ny gaming-GPU skiter högaktningsfullt i att Vega får sämre effektivitet för den även ska kunna användas i andra områden.

De som är ute efter ett beräkningskort lär knappast se någon vinns i att det finns massa TMUs och annat jox som är totalt irrelevant för dem.

Vad båda ser är att det finns andra val som är bättre för det specifika område just den personen är ute efter. Så är en självklarhet för mig att ignorera att man försökt nå flera marknader med en produkt, det är nästan alltid en dålig idé!

Hurra, du lyckades hitta några spel till där det Vega presterar bra. Faktum kvarstår att den i genomsnitt över en större mängd spel presterar som ett GTX1080. Om det finns spel där den närmar sig GTX1080Ti betyder det i så fall att den presterar klart under GTX1080 i en rad andra. De spel som normalt testas av tekniksiterna är de spel som för tillfället är populära -> i populära spel presterar den som GTX1080.

För att helt isolera "mängd utfört arbete kontra teoretisk kapacitet" delen kan vi i stället titta på streamprocessorer*frekvens, det tar då hänsyn till att Nvidia kör på högre frekvens. GTX1080 har en FP32 peak kapacitet på 8,9 GFLOPS medan Vega64 har 12,7 GFLOPS samt Vega64 LC 13,7 GFLOPS. Är fortfarande 43 % högre kapacitet (53 % för LC) hos Vega64, samma genomsnittlig verklig prestanda.

Och ja, Vega MI25 är rätt irrelevant för både "traning" och "inference". Både FP16 och Int8 är relevant här.

Både Nvidias och AMDs beräkningskort har "packed-math" stöd för FP16, ovanpå det har Volta specifikt stöd för de vanligaste operationerna i Tensor Flow (som är den dominerande tekniken just nu). Teoretisk FP16 kapacitet för MI25 är 24,6 TFLOP. Motsvarande för VP100 är 31,4 TFLOP men specifikt för Tensor Flow har man 125 TFLOP!

Grejen här är att både Google och Intel har ännu högre kapacitet än Nvidia, Google med sin TPU (ASIC specifikt designad för Tensor Flow) och förra månaden släppte Intel sin "Neural Network Processor". Gissar att GPUer kommer försvinna i detta segment, i alla fall för datacenterlösningarna, GPUer kanske finns kvar i mindre installationer som ett mer kostnadseffektiv alternativ.

Vad det gäller Int8 verkar du bara läst PR-materialet. Det hade räckt att titta i Vegas white paper för att se hur väldigt specifikt "rapid-math" är för Int8.

"The NCU also supports a set of 8-bit integer SAD (Sum of Absolute Differences) operations. "

Detta är självklart användbart för viss typ av bildbehandling, AMD försöker till och med stämpla "machine learning" på detta. Det man vill ha, och vad både Nvidia har i Volta och Intel i AVX512, är effektiv beräkning av skalärprodukt för Int8 (och även FP16). Volta/AVX512 har stöd för att beräkna skalärprodukt för två 4x1 vektorer varje cykel och "streamprocessor" (d.v.s. 4 st mul och 3 st add).

Kikar man i Vegas ISA-beskrivning, kapitel 6.7 "packed-math", ser man rätt snabbat att det finns överhuvudtaget inget stöd för Int8 och det finns ingen instruktion för skalärprodukt.

Har inget egenintresse att dissa AMD, tvärt om just nu då jag har en hel del aktier där. Men kan ju vara bra med lite faktakoll ibland...

Det är ibland svårt att veta i vilken synvinkel som du talar ifrån när du ena stunden skall snacka på en arkitektonisk nivå som vi bägge två vet att konsumenten i regel struntar i, medans du ibland gör en tvärvändning och skall tala som en konsument. Det är främst ett techforum där jag oftast eller alltid försöker se anledningen till saker. Jag har med egen text redan innan konstaterat styrkor/svagheter hos Vega och lyfte fram vad jag tycker var nämnvärt.

Du ser också att inget av dina svar innehåller eller diskuterar det JAG ursprungligen ville ha sagt först, och det var ang vad tillverkningsprocessen gör med Vega10's energieffektivitet i applikationen high-endgaming/desktop. Nu står jag istället insnöad med dig att diskutera maskininlärning. Jag läste bladen när dom va nya. Jag skulle inte vara så säker på det där och har för mig att 8-bit operationer är reserverat för FE/MI25. Just som du beskriver, och som även står i bladen så är t.ex ansiktsidentifiering/finger/röstigenkänningssystem och inlärning av olika visuella objekt en applikation här.

Jag har också massa aktier i AMD och tjänar snarare mer på om det kastas skit på dom så man kan shorta mer i dom häftiga dipparna vi ser konstant på deras kurs.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Datavetare
Skrivet av Enigma:

Det är ibland svårt att veta i vilken synvinkel som du talar ifrån när du ena stunden skall snacka på en arkitektonisk nivå som vi bägge två vet att konsumenten i regel struntar i, medans du ibland gör en tvärvändning och skall tala som en konsument. Det är främst ett techforum där jag oftast eller alltid försöker se anledningen till saker. Jag har med egen text redan innan konstaterat styrkor/svagheter hos Vega och lyfte fram vad jag tycker var nämnvärt.

Du ser också att inget av dina svar innehåller eller diskuterar det JAG ursprungligen ville ha sagt först, och det var ang vad tillverkningsprocessen gör med Vega10's energieffektivitet i applikationen high-endgaming/desktop. Nu står jag istället insnöad med dig att diskutera maskininlärning. Jag läste bladen när dom va nya. Jag skulle inte vara så säker på det där och har för mig att 8-bit operationer är reserverat för FE/MI25. Just som du beskriver, och som även står i bladen så är t.ex ansiktsidentifiering/finger/röstigenkänningssystem och inlärning av olika visuella objekt en applikation här.

Jag har också massa aktier i AMD och tjänar snarare mer på om det kastas skit på dom så man kan shorta mer i dom häftiga dipparna vi ser konstant på deras kurs.

Vad som i grunden diskuterades var huruvida Vega är en effektiv arkitektur eller ej. Nu verkar även du hävda att den kanske inte är så effektiv, men det ska "ursäktas" med att den ska täcka alla marknader?

Jag diskuterar som vanligt arkitekturspecifika detaljer. Nvidia och till och med Intel får mer gjort per transistor, per Watt, per "streamprocessor" etc jämfört med AMD. Slutsats: Vega är inte en speciellt effektiv arkitektur för de marknader som är relevant för oss här på SweC.

Och angående Int8 och FP16 stödet. Finns inte instruktionen i ISA-manualen lär den överhuvudtaget inte finnas, ingen lär i alla fall kunna skriva en kompilator eller annat program som använder instruktioner som inte dokumenteras. Så slutsatsen blir: Int8 stödet är med ett specifikt undantag, SAD (eller egentligen QSAD som är Int8 versionen), samma som innan och inte på samma nivå som Nvidia och Intel har i sina kretsar (på samma nivå sett till mängd utfört arbete per cykel).

FP16 stödet är utanför några väldig specifika fall främst användbart inom just "machine learning", det är orsaken till varför "alla" pratar om FP16 i samma kontext som machine learning. FP16 ger dig knappt tre signifikanta siffror och ett väldigt smalt område du måste balansera inom. För just "machine learning" är det en feature då det kan representera "lite slumpmässighet", för det mesta andra blir FP16 rätt värdelöst.

Specifikt för spel är FP16 bara glömma för geometri. Däremot finns vissa specifika lägen i fragmentshader där det kan fungera (där är också området där FP16 används på PS4). Huruvida FP16 ens har en möjlighet att påverka spelprestanda för Vega beror därför på om fragmentshader är en primär flaskhals eller ej (har ingen aning själv).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Vad som i grunden diskuterades var huruvida Vega är en effektiv arkitektur eller ej. Nu verkar även du hävda att den kanske inte är så effektiv, men det ska "ursäktas" med att den ska täcka alla marknader?

Jag diskuterar som vanligt arkitekturspecifika detaljer. Nvidia och till och med Intel får mer gjort per transistor, per Watt, per "streamprocessor" etc jämfört med AMD. Slutsats: Vega är inte en speciellt effektiv arkitektur för de marknader som är relevant för oss här på SweC.

Och angående Int8 och FP16 stödet. Finns inte instruktionen i ISA-manualen lär den överhuvudtaget inte finnas, ingen lär i alla fall kunna skriva en kompilator eller annat program som använder instruktioner som inte dokumenteras. Så slutsatsen blir: Int8 stödet är med ett specifikt undantag, SAD (eller egentligen QSAD som är Int8 versionen), samma som innan och inte på samma nivå som Nvidia och Intel har i sina kretsar (på samma nivå sett till mängd utfört arbete per cykel).

FP16 stödet är utanför några väldig specifika fall främst användbart inom just "machine learning", det är orsaken till varför "alla" pratar om FP16 i samma kontext som machine learning. FP16 ger dig knappt tre signifikanta siffror och ett väldigt smalt område du måste balansera inom. För just "machine learning" är det en feature då det kan representera "lite slumpmässighet", för det mesta andra blir FP16 rätt värdelöst.

Specifikt för spel är FP16 bara glömma för geometri. Däremot finns vissa specifika lägen i fragmentshader där det kan fungera (där är också området där FP16 används på PS4). Huruvida FP16 ens har en möjlighet att påverka spelprestanda för Vega beror därför på om fragmentshader är en primär flaskhals eller ej (har ingen aning själv).

Jag ville minnas att dokumentet inte täckte MI25, men jag hittar bara ett, så vi får utgå ifrån det, jag håller dock inte med dig alls om ditt påstående att Vega är totalt irrelevant gällande maskininlärning och AI.

Vega är en arkitektur och en bra kompromiss för att kunna vara flexibel, medans Vega10 är en GPU baserad på den. Du drar hela Vega-arkitekturen över en kam vilket är problemet. Försök va lite mer sammanhängande och koppla helheten bättre i det man skriver så hade jag vart tacksam. Som jag skrev så finner jag arkitekturen i sig självt mycket energieffektiv om du tittar på övriga applikationer som den fyller, vilket är just anledningen till att Radeon också blivit valt där. Ryzen Mobile bekräftade och passerade mina förväntningar över vad som faktiskt var möjligt prestanda/w med Ryzen/Vega kombon. Prestandan blir som väntat bäst i sin klass och det finns ju redan lite siffror att titta på, annars är det inte helt jättesvårt att göra en hyffsad beräkning på vart det hamnar.

Jag har klankat ner på effektkonsumtionen hos RX Vega 64, inget annat. Den är horribel tack vare att man gått långt över vad tillverkningsprocessen är god för. Den processen är till skillnad från TSMC's high power process som nvidia använder, en low power process som har sin sweetspot vid lägre spänning/frekvenser. Jag ska köra min konsumentsyn på det också: Jag köpte mitt kort för 4999kr och skickade på ett vattenblock. Mitt 1080 TI som jag hade innan åkte ut för att jag gillar att testa nytt. Med boost på ~1760MHz och HBM på 1100MHz så är Vega't rätt snabbt...För dom som kom över korten billigt och kan kyla dom så är det en förbannat bra deal i en ren spelmaskin där det bevisligen har mycket muskler. Uppenbarligen är arkitekturen kapabel när man skiner en en av världens bästa spelmotorer just nu som väntat.

Du vill diskutera arkitekturspecifika detaljer, men då får du också vara beredd att ta hänsyn till vad som påverkar dom mjukvarumässigt också. En rad andra TWIMTBP/gimpworks spel skiter jag högaktningsfullt i som gör att Vega och GCN underpresterar, och sådan tur är så ser det ut som att nvidia's järnhand med gimpworks sakta är på väg bort.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av mpat:

Polaris är inte trasig. Polaris är en krympning av GCN rakt av. "Critical path"-beräkningarna är inte omgjorda sen Tahiti (Radeon 7970, 2012), och det är därför den inte klockar högre. Den är ett hafsverk, och ett resultat av att AMD i princip stått stilla mellan första GCN och Vega.

Vega försökte göra en hel massa saker. Dels är critical path omgjord för att gå i högre klockfrekvenser, och det gör den ju. Sen är det alltid svårt att köra de allra största korten på riktigt hög klockfrekvens, men det gäller ju nVidia också - 1080 går ett par hundra MHz snabbare än 1080 Ti, och 1060 har faktiskt ännu högre Max Boost. Där har AMD gjort vad de planerat.

Problemet är att AMD misslyckades på ett par andra områden. Dels verkar inte HBCC fungera - den är ju oftast avstängd - och dels fungerar ju inte den nya rasterizern för att reducera kraven på minnesbandbredd. Vega behöver ungefär lika många GB/s per TFLOPS, om uttrycket tillåts, för att nå god spel prestanda som Polaris gjorde. AMD har helt klart planerat att de skulle klara sig med mindre, vilket är varför minnesbandbredden i Vega 10 är i princip samma som Fury X trots att beräkningskapaciteten är långt högre. Det kan man nog kalla en trasig design. Om den går att laga är dock osäkert. AMD skulle kunna göra några bra mellanklasskort av Vega genom att helt enkelt dränka dem i minnesbandbredd, men de har vi inte sett röken av än.

HBCC är rent dravel. HBCC är resterna av de kretsar som används för att ansluta en intern SSD som används på deras professionella kort. HBCC gör i realiteten inget för att minska latenserna. Att använda systemminne som extra grafikminne när grafikminnet är slut är ju urgammalt. Kostnaden i latenser för det är väldigt hög dock.

Skrivet av Enigma:

Tror det är bra att han lämnar och ger rum för något nytt. RTG behöver accelereras mer aggressivt.

Lustigt att "vissa" fortfarande beskriver Vega som en grundligt dålig eller svag design. Den är en bra design för den marknad som AMD måste möta, dvs HPC/GPGPU OCH spel OCH integrerade lösningar. Arkitekturen är state of the art gällande energieffektivitet samt hur man kan gate'a/styra block i designen och det finns en anledning till att den vunnit alla konsolers hjärtan och kommer göra succé i Ryzen Mobile. Problemet med Vega10 för desktop är uteslutande tillverkningsprocessen som fortfarande är en LPP nod. Vega är klockad långt över vad processen är ämnad för och skenar på så vis i energikonsumtion. Vi såg samma fenomen med Polaris och Fury X och AMD har ett avtal med GLOFO som inte ännu satsat på någon HPP nod tills nu med tätare samarbete med Samsung. Ett Vega10 tillverkat med TSMC's process hade varit mycket farlig konkurrensmässigt.

https://www.anandtech.com/show/11964/ryzen-mobile-is-launched...

Det fungerar heller inte så att man baserat på endast kretsens storlek kan avgöra dess komplexitet att tillverka den beroende på att olika block/kluster är olika svåra i den litografiska processen. En del av kislet i Vega10 var nödvändigt att skala ut för att möjliggöra dom höga frekvenserna som Vega kan nå då det är en högfrekvensdesign, precis som Ryzen, men där man som sagt stoppas av tillverkningsprocessen i dagsläget vilket är trist. Dom borde gjort en ny sortering och pressat ner samtliga Vega10 från fabrik med 50-100mv vilket gör stora underverk på prestanda och energieffektivitet.

Baserat på lite nyare spel så ser man att Vega presterar som väntat ganska fint och närmar sig 1080Ti, och det med låga frekvenser som den luftkylda referensversionen tyvärr dras med. LC versionen hade nog kunnat stänga gapet här. Vega är ett kul kort om man kan kyla det. Mitt snittar på ~1750MHz på vatten med original bios, men man hade ju ändå velat se 2GHz.

AMD har redan minst en före detta nvidia-anställd i RTG. Bl.a en tidigare CEO/direktör från evga/nvidia om jag minns rätt.

Titta vad GCN uträttar per clockcykel i spel så ser du att det är en stark design. Vega närmar sig 1080TI i nyare spel och det är också en GPU som innefattar väldigt många transistorer gällande HPC/GPGPU. Som sagt, tillverkningsprocessen är det som stoppar Vega främst vilket man också kunde se med Polaris och Fury X. TSMC's tillverkningsprocess är vad som saknas.

Vega 20 ska ju komma nästa år och tillverkas på IBMs/Globalfoundries 7nm som verkar väldigt lovande.

Skrivet av mpat:

Jo, det var ett par nya grejer. Geometriprocessorn är ny, men det är en liten del jämfört med den massiva shader arrayen. Förändringarna i shadern är verkligen små, och dessutom kom det mesta i Tonga (märk att AMD hela tiden jämför Polaris mot Hawaii som är en generation äldre än Tonga). De har lite bättre cachning, och det finns stöd för halvprecisions flyttal och 16-bitars heltal, men utan att öka hastigheten mot vanlig enkelprecision/32-bitars heltal. Vega packar in två 16-bitars tal på samma utrymme som ett 32-bitars, och kan därför köra dessa i dubbel hastighet.

Jag tror egentligen att Vegas shaders är ett steg i rätt riktning. Problemet är att de svälter bakom en alltför låg minnesbandbredd. Inte heller Polaris är en katastrof - där är det ROParna som är begränsande.

Ping @Aleshi
Den tunga nedsidan för grafik är väl att de fortfarande har delat in alla CUs i enbart 4 shader engines med 1 geometrimotor i varje. Det måste vara den främsta anledningen till att alla shaders är svältfödda. Detta var ju ett stort problem redan på Fiji, så det är bara fullkomligt uruselt att AMD inte rättat till det.

Men ROPs och bandbredd spelar säkert också in. Över huvud taget känns det som att där är alldeles för många streamprocessorer i förhållande till allt annat.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem

Det som är svårt att förklara är varför prestandan på Vega 64 inte gått upp med lika mycket över Fury X som klockfrekvensen ökade. Om antalet shader engines är begränsande, så borde ökningen ha föjt klockfrekvensen rakt av. Här har prestandan gått upp mindre. Det som inte ändrats är minnsbandbredden, där Vega 64 ligger kvar på ungefär samma som Fury X, vilket gör att den är huvudspåret för mig.

Skickades från m.sweclockers.com

Visa signatur

5900X | 6700XT