Nvidia-forskare föreslår flera grafikkretsar i MCM-lösning för högre prestanda

Permalänk
Melding Plague

Nvidia-forskare föreslår flera grafikkretsar i MCM-lösning för högre prestanda

Allt trögare tillverkningstekniska framsteg gör att Nvidia undersöker möjligheterna för framtidens grafikkretsar, där en lösning är att koppla samman ett flertal mindre på ett substrat.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Jaha, så AMD leder vägen, får se när deras utlovade monster-APU behagar komma något varken Intel eller Nvidia kan göra.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Så det är skillnad emot vanlig (på cpu-sidan vanlig d.v.s) multi-core struktur alltså?

Visa signatur

Post-and-run foruming
GeForce GTX 1070 ;~; Intel 4790k ;~; ASUS Z97M-PLUS ;~; Cooler Master Hyper 212 EVO ;~; ADATA 16GB 1600MHz RAM ;~; 840 EVO 500GB + 1TB WD Blue + 4TB WD Green ;~; Seasonic Platinum 660w ;~; Fractal Design Define Mini ;~; G910 "Orion Spark" ;~; U2415 x2 ;~;

Permalänk
Medlem

Tycker det är lite småroligt att man har kommit fram till detta nu efter framföralt Nvidia har skärt ner SLI.
Vissligen kommer säkert implimenteringen vara en hel det anarlunda och mer avanserat. Men i grund och botton säga forskaren altså att flera gpu är kraftigare än en. Well no s***.
Men ja, man få väl hoppas att man tar det på alvar.

Nu när jag tänker efter, har inte adoredtv pratat om det tidigare i en video?

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Master of Overkill
Skrivet av the squonk:

Jaha, så AMD leder vägen, får se när deras utlovade monster-APU behagar komma något varken Intel eller Nvidia kan göra.

Fast jävla skillnad CPU vs GPU

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

MCM är ju inget nytt. Använts i årtionden av Tex Cray och IBM för att skapa monster till Processorer eller Vector Processorer innan GPU:er ens var något som existerade.

AMD talade ju om MCM lösningar för många härrans år sedan, typ HD4000 tiden vill jag minnas.

Iden är ju inget nytt, bara ingen som gjort det för en GPU liksom om man räknar flera GPU,er annars är Fiji och Vega per definiton MCM lösningar.

På PC sidan så använde ju tex Prenium PRO MCM, separat chip för kärna och cache, detta var föregångaren till Pentium 2.

Intel har ju kört MCM för C2Q tex.

Men som sagt MCM är himmlka popis för högpresterande processorer tex IBM Power och som sagt Cray använde det för sina Vektor processorer back in the day.

AMD tex har ju redan Interposter tekniken så vad dom skulle behöva är GPU:er med en interconnect så skulle dom kunna göra samma sak.

Att detta kan bli en vidarutveckling på GPU:er med HBM förefaller rätt naturligt. Mest lustigt att det dröjt så länge.

MCM konceptet går ju tillbaks till 1970 talet om man ska tro wikipedia i alla fall.
https://en.wikipedia.org/wiki/Multi-chip_module

Men å andra sidan kan väl AMD's Fury X anses vara en MCM då GPU och ram sitter på en och samma interposter i samma förpackning.
https://www.techpowerup.com/reviews/AMD/R9_Fury_X/2.html

Permalänk
Medlem
Skrivet av tvelander:

Fast jävla skillnad CPU vs GPU

Om jag förstått det rätt dock så ska AMD göra det med Ryzen APUn och CPU + GPU. Så... de är banne mig närmare än många andra är iaf som sitter på en simulator och leker med tanken.

Permalänk
Medlem

Detta är ju något som AMD pratat om länge men nu är det helt plötsligt Nvidia som kommit på idén?

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Master of Overkill
Skrivet av Ozzed:

Detta är ju något som AMD pratat om länge men nu är det helt plötsligt Nvidia som kommit på idén?

"Nvidia-forskare föreslår"

= kommit på?

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk

Dubbla GPUer har väl funnits förut på grafikkort, typ Geforce 690.
Man kan undra varför man inte pushar mer för detta, smidigare med dubbla GPU än med SLi uppsättningar.
Dock kanske det är sämre lönsamhet för Nvidia med dubbla GPUer snarare än att folk köper dubbla grafikkort och använder Sli.
Känns verkligen som dubbla GPUer är något som skulle sälja bland nördarna och det är konstigt att man inte erbjudit såna lösningar sista 5 åren.

Visa signatur

Arbetsdator: Imac 27" Core I3@3,2 Ghz, 1TB HDD. Backup: Scaleo home server 2205 2+2TB
GamerPC: Core i7 2,8 Ghz, 6GB DDR3, Geforce 2x680 Sli, 128GB Samsung 830 SSD, Corsair 750W nätagg, W7 Ultimate.

Permalänk
Master of Overkill
Skrivet av BerraJobb:

Dubbla GPUer har väl funnits förut på grafikkort, typ Geforce 690.
Man kan undra varför man inte pushar mer för detta, smidigare med dubbla GPU än med SLi uppsättningar.
Dock kanske det är sämre lönsamhet för Nvidia med dubbla GPUer snarare än att folk köper dubbla grafikkort och använder Sli.
Känns verkligen som dubbla GPUer är något som skulle sälja bland nördarna och det är konstigt att man inte erbjudit såna lösningar sista 5 åren.

För uppgraderings möjlighet och dom är SNORDYRA.
Sämre överklock och låter massor.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Avstängd
Skrivet av Bernd_P1:

Tycker det är lite småroligt att man har kommit fram till detta nu efter framföralt Nvidia har skärt ner SLI.
Vissligen kommer säkert implimenteringen vara en hel det anarlunda och mer avanserat. Men i grund och botton säga forskaren altså att flera gpu är kraftigare än en. Well no s***.
Men ja, man få väl hoppas att man tar det på alvar.

Nu när jag tänker efter, har inte adoredtv pratat om det tidigare i en video?

Detta är dock helt annorlunda SLI/Crossfire. Det är något som verkligen måste bort.

Att köra MCM är betydligt bättre om det går att lösa på ett vettigt sätt.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Är inte AMDs Navi tänkt att bygga på dessa koncept?
Man kanväl även säga att deras Vega gör det då den kommer att "klistras" ihop med en Ryzenkärna.
Det skall bli spännande att se vad Intel och Nvidia kommer med.

Permalänk
Datavetare

Nvidia är i alla fall införstådda med begränsningar med MCM, i det tankeexperiment man gör når en simulerad 256 SM MCM-GPU strax under 50 % effektivitet av vad en fiktiv monolitisk krets med samma teoretiska kapacitet skulle nå.
Edit: men man konstaterar också att en monolitisk krets med 256 SMs inte är möjlig att bygga idag, man anser att gränsen går runt 128 SMs. En MCM med totalt 256 SMs är absolut möjlig att realisera.

Det var fel, man konstaterar att skalbarheten från 128 SM till 256 SM är 44,5 %!

Tittar man historiskt på CPU-sidan kunde inte Intels MCM-designer man hade med P4 (dual-core) matcha AMDs monolitiska dual-core design (Athlon64 X2).

Det var i.o.f.s. jämnare mellan Intels C2Q MCM design och AMDs monolitiska Phenom X4, men det var mycket en effekt av att Core2 var klart starkare per CPU-kärna. Undantaget program som hade noll kommunikation mellan CPU-kärnor och som i princip helt kunde köras ur lokal CPU-cache så skalade Phenom X4 klart bättre.

AMDs Magny Cours tog MCM-designen ett steg längre än vad Intel tidigare gjort. Det var den första x86-designen som var en NUMA-design i en och samma CPU-sockel (Intels P4/C2Q MCM var UMA då alla kretsar delade front-side bus). Magny Cours var aldrig konkurrenskraftig mot samtida monolitiska Nehalem/Westmere, det trots att de senare bara hade hälften så många kärnor.

Så både Nvidias simulering och vad historien visat så här långt säger att MCM kan absolut ge en produkt med högre kapacitet, men mycket pekar på att MCM är ett verktyg man bör ta till först när man verkligen nått gränsen för vad som är möjligt med en monolitisk design då effektiviteten är lägre för MCM-lösningar (generellt sett, finns speciella fall som går att skala i princip lika bra på en MCM som över en monolitisk design).

Nu är vi väldigt mycket vid världens ände vad det gäller kretsdesign, tittar man runt lite ser man massor med MCM-designer: AMDs Threadripper/Epyc, Intels CPUer med Iris/Iris Pro (eDRAM är en separat krets), Xeon Phi finns redan som MCM och Skylake Xeon kommer som MCM (CPU-delen är monolitisk i båda fallen men finns/kommer finnas varianter med MCDRAM).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Enligt pcper så kom nvidia fram till att en homogen GPU med samma antal SM som en MCM enbart hade ca 10% bättre prestanda.
https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discusses...

Sedan som någon nämnde så får vi säkert se mer framsteg på interposter sidan, som någon sa det är ju ett chip i sig självt, på än större nod men inget hindrar en att integrerar logik direkt på interpostern vilket skulle kunna öppna upp möjligheter med.

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Är inte AMDs Navi tänkt att bygga på dessa koncept?

Det har ryktats om det. Jag vet inte om något är ens nästan bekräftat, men pratet har varit att Navi ska göra för GPUer vad Ryzen (med dess Infinity Fabric) gör för CPUer - ihopkopplandet av flera enheter "out of the box" för prestanda som kan skalas både upp och ned och därmed också få ner kostnaderna. Vi får se!

Visa signatur

Ryzen 7 7800X3D | RTX 3070 | 2x32GB DDR5-5600 | B650M Pro RS WiFi
Define R5 Blackout | Noctua NH-U14S | EVGA G2 SuperNOVA 850W
G502 Proteus Spectrum | Vortex Pok3r RGB

Permalänk
Medlem
Skrivet av tvelander:

Fast jävla skillnad CPU vs GPU

VEGA är AMD´s första GPU byggd på "infinity fabric" så ja AMD är först på både CPU/GPU d.v.s. då man bara räknar x86 för IBM har ju använt detta till POWER8 CPU.

Här påstår Semiaccurate att AMD sagt att VEGA består av "Infinity fabric",

https://semiaccurate.com/2017/01/19/amd-infinity-fabric-under...

Visa signatur

Rʏᴢᴇɴ 5800X3D / Tᴀɪᴄʜɪ X570 / 64Gʙ DDR4/ RX 6950XT Mᴇʀᴄʜ 319

Permalänk
Skrivet av Yoshman:

"men mycket pekar på att MCM är ett verktyg man bör ta till först när man verkligen nått gränsen för vad som är möjligt med en monolitisk design"

Men det är väl just det nVidia anser...?

Permalänk
Datavetare
Skrivet av StuntmanMike:

Men det är väl just det nVidia anser...?

För GPUer är det absolut så, Nvidias största GPUer är idag så stora man kan tillverka. Gäller även för Intels Xeon Pi.

För CPUer är man inte riktigt på gränsen än, men inte långt ifrån (Intels XCC kretsar är kanske 100 mm^2 från gränsen idag).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Entusiast
Skrivet av Yoshman:

Nvidia är i alla fall införstådda med begränsningar med MCM, i det tankeexperiment man gör når en simulerad 256 SM MCM-GPU strax under 50 % effektivitet av vad en fiktiv monolitisk krets med samma teoretiska kapacitet skulle nå.
Edit: men man konstaterar också att en monolitisk krets med 256 SMs inte är möjlig att bygga idag, man anser att gränsen går runt 128 SMs. En MCM med totalt 256 SMs är absolut möjlig att realisera.

Det var fel, man konstaterar att skalbarheten från 128 SM till 256 SM är 44,5 %!

Tittar man historiskt på CPU-sidan kunde inte Intels MCM-designer man hade med P4 (dual-core) matcha AMDs monolitiska dual-core design (Athlon64 X2).

Det var i.o.f.s. jämnare mellan Intels C2Q MCM design och AMDs monolitiska Phenom X4, men det var mycket en effekt av att Core2 var klart starkare per CPU-kärna. Undantaget program som hade noll kommunikation mellan CPU-kärnor och som i princip helt kunde köras ur lokal CPU-cache så skalade Phenom X4 klart bättre.

AMDs Magny Cours tog MCM-designen ett steg längre än vad Intel tidigare gjort. Det var den första x86-designen som var en NUMA-design i en och samma CPU-sockel (Intels P4/C2Q MCM var UMA då alla kretsar delade front-side bus). Magny Cours var aldrig konkurrenskraftig mot samtida monolitiska Nehalem/Westmere, det trots att de senare bara hade hälften så många kärnor.

Så både Nvidias simulering och vad historien visat så här långt säger att MCM kan absolut ge en produkt med högre kapacitet, men mycket pekar på att MCM är ett verktyg man bör ta till först när man verkligen nått gränsen för vad som är möjligt med en monolitisk design då effektiviteten är lägre för MCM-lösningar (generellt sett, finns speciella fall som går att skala i princip lika bra på en MCM som över en monolitisk design).

Nu är vi väldigt mycket vid världens ände vad det gäller kretsdesign, tittar man runt lite ser man massor med MCM-designer: AMDs Threadripper/Epyc, Intels CPUer med Iris/Iris Pro (eDRAM är en separat krets), Xeon Phi finns redan som MCM och Skylake Xeon kommer som MCM (CPU-delen är monolitisk i båda fallen men finns/kommer finnas varianter med MCDRAM).

Fast borde in MCM vara betydligt enklare att implementera i en GPU än CPU tack vare den löjligt parallella lasten?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Paddanx:

Om jag förstått det rätt dock så ska AMD göra det med Ryzen APUn och CPU + GPU. Så... de är banne mig närmare än många andra är iaf som sitter på en simulator och leker med tanken.

Jo fast.. Intel har ju också iGPU. En APU är en CPU med en integerad grafikdel, inte mer magiskt än så.

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Medlem
Skrivet av Bloodstainer:

Jo fast.. Intel har ju också iGPU. En APU är en CPU med en integerad grafikdel, inte mer magiskt än så.

Jo det är en hel del mer än så, om du inte sett hur nya APU är tänkt så föreslår jag att du läser istället.

Det är inte en GPU som är gjord inne i CPUn, som intels iGPU, eller tidigare APUer.

Permalänk
Skrivet av Paddanx:

Jo det är en hel del mer än så, om du inte sett hur nya APU är tänkt så föreslår jag att du läser istället.

Det är inte en GPU som är gjord inne i CPUn, som intels iGPU, eller tidigare APUer.

För mig spelar det ingen roll, kanske efter jag ser hur de presterar och vilken typ av kylning som blir relevant. Och så klart hur bra de klockar. Skulle älska att kunna använda en APU för att lira i 4k.

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Medlem
Skrivet av Bloodstainer:

För mig spelar det ingen roll, kanske efter jag ser hur de presterar och vilken typ av kylning som blir relevant. Och så klart hur bra de klockar. Skulle älska att kunna använda en APU för att lira i 4k.

Och jag vill ha 100Gbe nätverk hemma, och 16x PCI-E 3.0 SSDer med 15GB/s bandbredd....

Du brydde dig ändå nog för att gå in på en tråd av saker "du inte är intresserad av", och sen kommentera på något du inte förstod.

Permalänk
Skrivet av Paddanx:

Och jag vill ha 100Gbe nätverk hemma, och 16x PCI-E 3.0 SSDer med 15GB/s bandbredd....

Du brydde dig ändå nog för att gå in på en tråd av saker "du inte är intresserad av", och sen kommentera på något du inte förstod.

Ju var det ju en artikel gällande en teknik jag var intresserad av, inte skillnaden på nuvarande iGPUer och de som kommande APUer har, jag är mer intresserad av hur faktiska prestandan ser ut i dom. Och jag tror knappast att APUer som kör i 4k 60 i vissa titlar är jämförbart med 15000Mb/s internet ;P

Äldre APuer har man kunnat kört CF på med AMD, kan man göra de nu och de kommer ha polaris eller vega lösningar så hoppas jag på att ett vega kort + APU kommer klara de, dock tror jag att de känns dumt att blanda ett HBM 2 kort med en APU lösning, men 480/580 x 2 prestanda inom ett singelGPU PC är väldigt relevant. Men som sagt, vet inte hur APUerna kommer se ut ännu och just nu har jag min fokus på Vega, och kommer de ge tillräcklig prestanda utan att värma allt för mycket till rätt pris kommer fjärde burken att köra AMD CPU + GPU

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Medlem
Skrivet av Bloodstainer:

Ju var det ju en artikel gällande en teknik jag var intresserad av, inte skillnaden på nuvarande iGPUer och de som kommande APUer har, jag är mer intresserad av hur faktiska prestandan ser ut i dom. Och jag tror knappast att APUer som kör i 4k 60 i vissa titlar är jämförbart med 15000Mb/s internet ;P

Äldre APuer har man kunnat kört CF på med AMD, kan man göra de nu och de kommer ha polaris eller vega lösningar så hoppas jag på att ett vega kort + APU kommer klara de, dock tror jag att de känns dumt att blanda ett HBM 2 kort med en APU lösning, men 480/580 x 2 prestanda inom ett singelGPU PC är väldigt relevant. Men som sagt, vet inte hur APUerna kommer se ut ännu och just nu har jag min fokus på Vega, och kommer de ge tillräcklig prestanda utan att värma allt för mycket till rätt pris kommer fjärde burken att köra AMD CPU + GPU

Okej, vi försöker igen.
Poängen är att Ryzens kommande APU kommer använda infinity fabric för att koppla samman GPU och CPU. Det är mao en hel GPU krets som kopplas väldigt likt denna teknik du nu är intresserad av, med en fullskalig CPU som då saknar iGPU.

Det har givits lite andra exempel på liknande lösningar med tex cache och tidigare andra saker ovan så jag tar inte upp dem igen, men att koppla en hel GPU+GPU på detta sättet har inte direkt gjorts förr. I teorin kan AMD redan koppla flera GPUer samman med denna tekniken, om det funnits någon poäng med det. Sen om det vore super effektivt eller inte är väl en annan fråga, men planen är trots allt ett Vega 11 chip + en Ryzen 4C8T CPU sammankopplade.

Inte omöjligt att denna APU rent teoretiskt kan ersätta rätt många dGPUer, men problemet kommer att bli minnesprestanda. Hade de haft fullskaligt VRAM, hade kretsen kunnat prestera som vanliga vega... du vet den som trots allt förväntas bli runt 1080 i prestanda.

Nu tror jag inte på allvar att detta kommer ske, utan det kommer att bli en nedskalad version och med lägre TDP (300W på CPU är lite saftigt), och pga minnesbegränsningar också inte leverera så bra som den kunnat. Men DDR4 är ändå runt 3Ghz och sniffar, kan de lägga till en HBM cache så kanske. (Detta är något jag dock tror har ryktats om, inget jag vet säkert)

Skulle inte förvåna mig om du kan få bra nog 1080p prestanda ur dem att ersätta 1060/480 och under iaf, om minnes problemen kan lösas. Vilket trots allt skulle verkligen röra om i grytan.

Lägg till att AMD Epyc är denna teknik, men med CPUer, i modern fattning med både PCI och minnesplatser, så säger jag att AMD verkligen har första steget till denna tekniken ute på marknaden.

Mao, Nvidia sitter och spånar i teoretisk design.... AMD bygger dem. AMD har redan planerat denna typ av design delvis i kommande GPUer och är betydligt längre än forskningsstadiet med simuleringar.

Därför sa jag det jag gjorde ovan, så denna "Nvidia nyhet" är något som AMD redan jobbat på rätt länge.

Är du lite mer klok på det hela nu?