Radeon RX 6000-serien uppges få 16 och 12 GB grafikminne

Permalänk
Medlem
Skrivet av Schluug:

Minnesmängd är ju tyvärr rätt irrelevant. En 192/256-bitars buss talar ju inte för någon monsterprestanda om det nu stämmer..

Radeon Fury X hade 4096 bitars buss som inte gjorde någon större skillnad. VEGA hade 2048 bitar.

Visa signatur

Ryzen 7800X3D
32GB DDR5
RX 7900XT

Permalänk
Avstängd
Skrivet av elajt_1:

Ja, dom där breda minnesbussarna kan vara ohyggligt högljudda under belastning.

Det ar inte minnesbussen. 2900xt var 80nm, släpptes under första halvan av 2007 och sen kom 3870 senare under året som var "bara" 55nm.

TDP gick ner från 215 W till 106 W

(själv så köpte jag 4850 512MB, tyckte det fungerade helt OK i Crysis)

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av kibatronic:

Detta synkar väl med 3st HBM på 4GB 3072bitars buss på 1000MHz+, samt 4st på 4096bitars buss. Allt tyder på att det blir HBM.

Hur går det där ihop när bokstavligen talat allt indikerar vanligt GDDR6 minne?

Hursomhelst så om dom släpper ett 16gb kort under $600 så har dom iaf det att utmana Nvidia med. Kan det matcha 3080 så har dom en vinnare. Jag har dock fortfarande mina tvivel och är inte särskilt optimistisk. Gissar än så länge på en "besvikelse" med "bara" strax norr om 2080Ti/runt 3070 prestanda. Allt beror på priset då.

Permalänk
Medlem

@Måttband: Okej, blir den varm?

Visa signatur

i7 8700k 5.1ghz egengjord delid | 32gb G.Skill Trident Z RGB 3600mhz cl15 | MSI Suprim X 3070ti
https://valid.x86.fr/uudh64

Permalänk
Medlem
Skrivet av AplAy:

Jag har sagt det förr och jag säger det igen om AMD: "men va gött!"

Jag ser detta som tack från ovan, för oss som håller på med 4K och mycket effekter i program som Adobe Premiere som äter VRAMET.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av Sveklockarn:

Fortfarande ofattbart att de inte har sin avtäckning förrän 28/10.

Vad väntar de på?

Håller med, kunde ha vart omvänt och haft det den 8'e Oktober och flyttat fram Zen 3.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av Yoshman:

Korten klockar ungefär lika högt, antar man att effekten i GPU är någorlunda linjär med antal CUDA-kärnor medan effekten är någorlunda linjär med bredden på VRAM-bussen (den avgör hur många RAM-kretsar som typiskt aktiveras per transaktion).

Kör lite linjärregression på det hela går inte att få ihop ekvationen där 3070 drar ~220 W, 3080 drar ~320 W och 3090 drar ~350 W med mindre än att VRAM faktiskt står för ~100 W av totala budget.

Är möjligt att modellen är totalt fel, men en av sakerna som brukar lyftas fram som fördel hos HBM är just att det är betydligt effektsnålare. Om det ska vara en relevant fördel måste absolut effekt för GDDRx vara relativt hög ställd mot totalt effekt.

Modellen är säkert inte helt fel. Minne drar väldigt mycket på grafikkort. Har för mig jag läste nånstans att grafikminnet på RX480 (GDDR5) utgör ungefär 1/3 av kortets totala effekt på ca 150 W. Många miners klockade ner minnet för att göra kortet effektivare.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Medlem
Skrivet av murklor:

Hur går det där ihop när bokstavligen talat allt indikerar vanligt GDDR6 minne?

Hursomhelst så om dom släpper ett 16gb kort under $600 så har dom iaf det att utmana Nvidia med. Kan det matcha 3080 så har dom en vinnare. Jag har dock fortfarande mina tvivel och är inte särskilt optimistisk. Gissar än så länge på en "besvikelse" med "bara" strax norr om 2080Ti/runt 3070 prestanda. Allt beror på priset då.

Placeringen av skruvarna på kylaren hamnar i vägen för minneskapslarna om AMD skulle använda GDDR6 (se tidigar kommentarer om buildzoids analys av kylaren).

Visa signatur

Happy Face!

Permalänk
Medlem
Skrivet av kibatronic:

Placeringen av skruvarna på kylaren hamnar i vägen för minneskapslarna om AMD skulle använda GDDR6 (se tidigar kommentarer om buildzoids analys av kylaren).

Vilket IMO är ett inkorrekt antagande då 5700xt PCBer finns med skruvhål väldigt nära minnesmodulerna - typiskt nog också 2st på vardera sida, dock 90% roterat jämfört med 6700xt läckorna.

Sen har jag lite tvivel att dom skruvarna faktiskt sitter i PCBn... om du kollar på 6700xt läckorna på vad som förmodligen är riktiga kortet istället för fortnite rendern, ser det snarare ut som dom öppnar två metalplattor på backplaten. Men det är ren spekulering och skulle vara ett lite funky sätt att bygga den för jag ser inte meningen, lol.

Jag vet att det är svårt att argumentera mot ett pro men det är så jag ser det iaf, lol.

Permalänk
Medlem
Skrivet av murklor:

Vilket IMO är ett inkorrekt antagande då 5700xt PCBer finns med skruvhål väldigt nära minnesmodulerna - typiskt nog också 2st på vardera sida, dock 90% roterat jämfört med 6700xt läckorna.

Sen har jag lite tvivel att dom skruvarna faktiskt sitter i PCBn... om du kollar på 6700xt läckorna på vad som förmodligen är riktiga kortet istället för fortnite rendern, ser det snarare ut som dom öppnar två metalplattor på backplaten. Men det är ren spekulering och skulle vara ett lite funky sätt att bygga den för jag ser inte meningen, lol.

Jag vet att det är svårt att argumentera mot ett pro men det är så jag ser det iaf, lol.

På 5700xt så hamnar bara en skruv i vägen och då emellan 2st minneskapslar i toppen, den andra hamnar vid PCIe anslutningen.

Nåja. Jag satsar på HBM och skulle inte bli förvånad om det blir HBM2E eller HBMNext. Den som väntar får se.

Visa signatur

Happy Face!

Permalänk
Avstängd
Skrivet av Jonhed:

@Måttband: Okej, blir den varm?

Fungerar bäst med vatten (om du är känslig för blåsljud)

Visa signatur

There is more stupidity than hydrogen in the universe, and it has a longer shelf life. /Frank Zappa

Permalänk
Medlem

Trevligt trevligt, hoppas bara att priserna inte springer iväg totalt.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av kibatronic:

På 5700xt så hamnar bara en skruv i vägen och då emellan 2st minneskapslar i toppen, den andra hamnar vid PCIe anslutningen.

Nåja. Jag satsar på HBM och skulle inte bli förvånad om det blir HBM2E eller HBMNext. Den som väntar får se.

Jag tror problemet med det är att bara 16gb HBM minnesmoduler kostar väl ungefär lika mycket som ett helt RTX3070 att producera, så jag ser inte hur AMD skulle kunna tävla med dom...

Permalänk
Medlem

köper hellre en ps5 från amd än ett löst grafikkort

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Skrivet av kibatronic:

Detta synkar väl med 3st HBM på 4GB 3072bitars buss på 1000MHz+, samt 4st på 4096bitars buss. Allt tyder på att det blir HBM.

Hur räknar du ut det?

Skrivet av femkantig:

köper hellre en ps5 från amd än ett löst grafikkort

Ja din Intel cpu är inte mycket att hänga i granen idag jämfört med Ryzen och snart Ryzen 5000-serien.

Permalänk
Medlem
Skrivet av Dinkefing:

Hur räknar du ut det?

Ja din Intel cpu är inte mycket att hänga i granen idag jämfört med Ryzen och snart Ryzen 5000-serien.

Nej eller hur, min i7 4790k är inte bättre än en ryzen 5 3600x och den kostar typ 2000kr idag.
Hade det inte varit för att AMDs begagnade marknad är så liten hade jag köpt en begagnad ryzen.

Visa signatur

i7 8700k 5.1ghz egengjord delid | 32gb G.Skill Trident Z RGB 3600mhz cl15 | MSI Suprim X 3070ti
https://valid.x86.fr/uudh64

Permalänk
Skrivet av Jonhed:

Nej eller hur, min i7 4790k är inte bättre än en ryzen 5 3600x och den kostar typ 2000kr idag.
Hade det inte varit för att AMDs begagnade marknad är så liten hade jag köpt en begagnad ryzen.

Att AMD inte har en stor begagnadmarknad för Ryzen visar väl hur bra de är.

Permalänk
Medlem

Buss hit och dit. Titta på Radeon VII. Ingen nyårsraket trots sin extremt höga bandbredd. Det viktiga är helheten och lösningarna. Låt oss hoppas att AMD kan plocka fram trumpf och skicka svarte Petter till lädermannen.

Visa signatur

AMD RYZEN 5 5600X | RTX 3060Ti | MSI B450 GAMING PRO CARBON AC

I ett tidigare liv:
AMD 2600X | AMD 8350 | AMD Phenom II X2 555 Black edition | AMD Athlon 64 3700+ | Intel® Pentium® II | Intel® 486DX2-66

Permalänk
Medlem

@Dinkefing: Eller hur!

Visa signatur

i7 8700k 5.1ghz egengjord delid | 32gb G.Skill Trident Z RGB 3600mhz cl15 | MSI Suprim X 3070ti
https://valid.x86.fr/uudh64

Permalänk
Medlem

Ska bli intressant & se prestandan på big navi ,men risken e väl att de blev förvånade av hur bra 3000 serien blev & skruvar upp frekvensen så det blir en orkan i datorn & varma kort för att hänga med men håller tummarna på ett bra kort, dessutom ska det bli intressant att se hur deras ray tracing satsning lyckas. om buss storleken stämmer med rykterna så blir man ju inte så optimistisk direkt.
Man får göra som vanligt vänta ett halvår så hype lägger sig & fakta framstår.

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Ahlen:

Jag som inte är superinstatt i grafikminne. Är det bra att baselinen för grafikminne ökar? Kan utvecklare lägga mer i videominnet om de vet att platsen finns eller skalar minne linjerät med hur tungt spelet blir?

Alltså kan spelet använda mer vram utan att det krävs mer TFLOPS för att driva spelet?

Generellt så är mängden VRAM kopplat till hur högupplösta texturer utvecklaren kan använda. Detta brukar vara konfigurerbart separat i de flesta spelen. Så det är möjligt, om du har "för lite" grafikminne att du kan maxa ett spel i alla bemärkelser utom just texturer.

Permalänk
Medlem
Skrivet av Jonhed:

Så du kör på Vega 64 nu?
Har inte hört en enda person som haft en sådan till annat än mining typ. Är den bra?

Kör 2080S nu då jag råkade kvadda mitt Vega när jag repastade och var lite oförsiktig med morpheuskylarens skruvar, spände för hårt :/
Freesync med nvidia funkar okej på min skärm utom i specifikt overwatch där det beter sig skumt, men där vill jag ligga på150+ fps så freesync är meningslöst.

Men det var bra, instabilt som fan i början. När drivers var vettiga och jag lärt mig vad som funkade osv så kunde jag undervolta och överklocka med rejäla gains- var därför jag sålde de nvidiakort jag hade (1070, 1070Ti, 1080Ti) till slut, 1080Ti var värt runt 7k på marknaden just då medan Vega 64 var värt typ 3500 men i alla spel förutom destiny 2 typ fick jag typ samma prestanda minus max ett par procent (i 1440p) med Vega 64 överklockat som med ett EVGA 1080Ti SC. Första och sista gången under de senaste generationerna som jag faktiskt haft kul med att klocka en GPU då det fanns mer att göra än att bara dra i en power-slider och kyla bättre.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Kör 2080S nu då jag råkade kvadda mitt Vega när jag repastade och var lite oförsiktig med morpheuskylarens skruvar, spände för hårt :/
Freesync med nvidia funkar okej på min skärm utom i specifikt overwatch där det beter sig skumt, men där vill jag ligga på150+ fps så freesync är meningslöst.

Men det var bra, instabilt som fan i början. När drivers var vettiga och jag lärt mig vad som funkade osv så kunde jag undervolta och överklocka med rejäla gains- var därför jag sålde de nvidiakort jag hade (1070, 1070Ti, 1080Ti) till slut, 1080Ti var värt runt 7k på marknaden just då medan Vega 64 var värt typ 3500 men i alla spel förutom destiny 2 typ fick jag typ samma prestanda minus max ett par procent (i 1440p) med Vega 64 överklockat som med ett EVGA 1080Ti SC. Första och sista gången under de senaste generationerna som jag faktiskt haft kul med att klocka en GPU då det fanns mer att göra än att bara dra i en power-slider och kyla bättre.

Hur lyckades du med det? Kollar man Sweclockers tester så snackar vi en hel del skillnad!
https://www.sweclockers.com/test/24240-amd-radeon-rx-vega-64-...

edit:
Eller så kan man ju ta det senaste testet med fräschare drivrutiner
https://www.sweclockers.com/test/30343-nvidia-geforce-rtx-308...

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Man ska väl inte dra allt för hastiga slutsatser, men bussen på 192 respektivt 256-bitar verkar ju tyda på att de kommer vara high-end kort i det lägre spannet, som kommer konkurrera mot RTX 3070 och 3060.

Men om så är fallet så behöver det inte betyda något negativt. Det som kommer avgöra allt är ju priset. Om 6900 XT får en prislapp på 4000 kr och presterar som ett 3070 så känns det ju som ett självklart val.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av Gender Bender:

Man ska väl inte dra allt för hastiga slutsatser, men bussen på 192 respektivt 256-bitar verkar ju tyda på att de kommer vara high-end kort i det lägre spannet, som kommer konkurrera mot RTX 3070 och 3060.

Men om så är fallet så behöver det inte betyda något negativt. Det som kommer avgöra allt är ju priset. Om 6900 XT får en prislapp på 4000 kr och presterar som ett 3070 så känns det ju som ett självklart val.

Då återstår frågan varför de skulle sälja minst dubbelt så mycket kisel för lägre pris än 5700XT kostar...

Permalänk
Medlem
Skrivet av SectionX2:

Radeon Fury X hade 4096 bitars buss som inte gjorde någon större skillnad. VEGA hade 2048 bitar.

Skrivet av Nimin:

Buss hit och dit. Titta på Radeon VII. Ingen nyårsraket trots sin extremt höga bandbredd.

Det påvisar att hög bandbredd ensamt inte kan ordna hög prestanda.

Vad som diskuteras här är att hög prestanda kräver hög bandbredd. Lite skillnad.

Citat:

Det viktiga är helheten

Det är ju den som diskuteras.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Hur lyckades du med det? Kollar man Sweclockers tester så snackar vi en hel del skillnad!
https://www.sweclockers.com/test/24240-amd-radeon-rx-vega-64-...

edit:
Eller så kan man ju ta det senaste testet med fräschare drivrutiner
https://www.sweclockers.com/test/30343-nvidia-geforce-rtx-308...

Först och främst så tänker jag inte påstå att de resultat jag fick är något slags universal regel- det var helt enkelt vad jag kunde se i de spel jag spelade när jag körde ett gäng test med samma inställningar. Det var ursprungligen ett Sapphire referensdesign, jag satte på en Morpheus II med 2x120mm och redigt med kylpasta för att fylla skarveb mellan core och HBM. Under den perioden hade jag en r5 2600 med 4,1 All-core, 16GB FlareX 3200@CL14. Inget monster men borde inte vart en bottleneck. Jag säger inte att det presterade över 1080Ti, bara att prestandaskillnaden oftast var så liten att det inte riktigt spelade någon roll i de spel jag spelade. Det var huvudsakligen typ Siege, D2, Overwatch, BF1, GTAV, alla i 1440p, samt ett gäng VR-spel med original-vive (2160x1200) oftast med 150% resolution scale.

Det Vega 64 jag kvaddade klarade av att köra spel stabilt med 1050Mhz HBM, var säg 95% stabilt på 1100- funkade alltid när jag stresstestade osv men om jag spelade ett par timmar varje kväll i en vecka så fick jag en hard reset kanske en gång veckan, så inte 100%.
Jag körde generellt 1630/945 bios för stabilitet och använde powertables för att få clocks dit jag ville. Körde när jag hade morpheuskylaren även liquid bios som defaultade 1750/945 och sedan powertables. Minade en del XMR och ETH samt lekte en del med hashcat och dylikt på detta kort så hade gått om tid att testa fram stabila inställningar.

Dock skulle jag säga så här- Vega 64 var kul om man gillade att klocka och mecka, det var ett sämre grafikkort overall än Pascalserien och vad gäller stabilitet osv sämre även än AMD's egna andra kort. När de uppdaterade catalyst med möjlighet att slå på auto undervolt/oc direkt från game overlay så var det mycket bekvämare och nöjde mig nog med lite lägre prestanda då för bekvämlighets skull. Var sjukt taggad på Radeon VII som tyvärr var en besvikelse.
En konstant med Vega 64 som verkar ha hängt med till Radeon VII var att i spel där det presterade bra så kunde det prestera riktigt bra, men det fanns tyvärr en del spel som bara inte verkade lira, vare sig det handlade om optimering eller arkitekturens design så var det vissa fall som till exempel Destiny 2 där det bara hur man än gjorde aldrig kunde konkurrera- kunde skrämma upp ett klockat 2060 till ungefär samma eller ibland bättre FPS än mitt klockade Vega 64 i Destiny 2 (dock med lite värre dips vad jag minns). Kan ju vara väldigt subjektivt dock- vet inte hur utspritt issue det är/var.

Jag är den sista att påstå att 3dmark ger en bra indikation för spelprestanda, och detta är inte superimponerande resultat, men definitivt inte de 5400 grafikpoäng som swec har (stock) i sitt index:

https://www.3dmark.com/fs/17230097 <- där med liquid bios, core 1750 och HBM@1080 Graphics score: 6112
https://www.3dmark.com/fs/17429657 <- där med stock bios, core 1630 och HBM@1050 Graphics score: 6016

Detta var alltså slutet av 2018 med dåvarande drivrutiner, och jag är knappast någon "riktig" överklockare.

Ska has i åtanke att jag betalade 8999kr för 1080Ti SC, sålde det 2018-11 för 6700kr här på marknaden.
Betalade för mina två Vega 64 5790kr per kort och sålde ena 2018-11 för 4000kr här på marknaden.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Dinkefing:

Hur räknar du ut det?

Varje HBM minne har en bandbredd på 1024bit. Med 3 respektive 4 minnen får du 12 och 16GB.
Bra sätt att skapa modeller med mindre minne (pga defekter) utan att tappa alltför mycket bandbredd eller minneskapacitet.

Visa signatur

Happy Face!

Permalänk
Medlem
Skrivet av medbor:

Då återstår frågan varför de skulle sälja minst dubbelt så mycket kisel för lägre pris än 5700XT kostar...

Har die size ens blivit bekräftat för Big Navi? Jag läste något rykte om 500+ för flera månader sedan, och det behöver nödvändigtvis inte vara sant eller ha varit för 6900 XT. Det är inte ens säkert att ryktet om mängden minne och bussen stämmer.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av Gender Bender:

Har die size ens blivit bekräftat för Big Navi? Jag läste något rykte om 500+ för flera månader sedan, och det behöver nödvändigtvis inte vara sant eller ha varit för 6900 XT. Det är inte ens säkert att ryktet om mängden minne och bussen stämmer.

Både bussen och minnet är läckt från så många källor att det mer eller mindre räknas som sanning. Verkar dock som AMDs nya cash-lösning (detta är en ganska ny information) kommer lösa buss-hastigheten om man ska tro på läckorna.
Die size verkar oxå mer eller mindre bekräftat.

Jag är försiktigt optimistisk. Några tubers som sitter på information som de inte släppt än säger att 6900xt kommer ta upp fighten med RTX3090. Jag skulle nöja mig med att de är i närheten av RTX3080 för att jag skulle klippa ett kort tidigt.

Visa signatur

L-ARV: Ryzen R9 5950X, 32Gb@3600, 500Gb + 1Tb nvme, RX 6800XT, CSFG The Crow, OS: Arch
LAN-Burken: Ryzen R7 5600G, 16Gb@3200, RX 6600XT, OS: Windows 10
Kotten: PineBook Pro, OS: Manjaro_ARM
Macbook PRO 13 (2015) OS: Manjaro SWAY