AMD presentererar RDNA 2 – Radeon RX 6000 och "Big Navi"

Permalänk
Medlem
Skrivet av oqvist:

Nu använder inte Sweclockers max inställningarna vad jag förstått.

Fast det står "Ultra" på deras test av tex Battlefield, the division 2 etc här på sweclockers.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Intressant och imponerande av AMD
Meeen väntar till testerna avslöjar hur kortet presterar med andra cpu/mobo konfigurationer...

Permalänk
Medlem

Kanske blir ett 6800/3070 under våren förhoppningsvis finns de för runt 5000kr då om det blir lite priskrig.
Jag har en ryzen 3600x och 3440x1440 100hz skärm så tror inte det är någon idé att köra snabbare gpu i alla fall.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem
Skrivet av ottoblom:

Ville mer få fram att 3080 inte kostar 699 +moms utan 781 dollar + moms .Då 699 bara var under papperslanseringen . Så håller AMD 649 dollar +moms är det inte 50 dollar billigare .Det är 132 dollar billigare .

Precis. Var det inte så att de fick subventionerat pris partnertillverkarna första 2 veckorna lr så?
Det betyder att 6800XT är klart billigare och mkt bättre pris/prestanda

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk

Det var väl längesen vi hade en såhär spännande höst med både GPU & CPU lanseringar

Visa signatur

AMD Ryzen 9 5900X /Radeon RX 6950XT / Gigabyte X570 AORUS ULTRA / 32gb Corsair Vengeance RGB PRO DDR4 3600MHz /, EVGA Supernova G2 850W PSU/ Lian-li O11 Dynamic /M.2 Samsung 950pro,WD BLACK SN750 /EKWB Watercooling 240+120mm radiator /Corsair Hydro X Series XC7 RGB / Corsair K70 RGB / Phillips 27" G-sync + 2st 27" AOC .

Permalänk
Medlem

Hittade följande länk i en kommentar på youtube:

https://www.phoronix.com/forums/forum/phoronix/latest-phoroni...

"Smart Access Technology works just fine on Linux. It is resizeable BAR support which Linux has supported for years (AMD actually added support for this), but which is relatively new on windows. You just need a platform with enough MMIO space. On older systems this is enabled via sbios options with names like ">4GB MMIO"."

Frågan är det om det verkligen är samma, och vad som då menas med "older systems", då det lät på presskonferansen att man behövde ha B550 eller X570, men det kanske är en artificiell låsning i windows?

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Datavetare
Skrivet av mpat:

Det kan vara så. Vi vet inte än.

Min personliga teori är att det är en egen krets, på äldre process än 7nm, som ligger under själva GPUn med en massa TSVer från GPUn till kretskortet. På så sätt kan man få massor av bandbredd direkt mellan GPUn och minnet. Alternativ två är att det är ett hål i kretskortet som minneskretsen gömmer sig i.

Är inte omöjligt att man stoppat in eDRAM direkt på kretsen. En stor fördel med eDRAM är att det tar mindre plats jämfört med traditionell cache (SRAM).

Har ju faktiskt gjorts historiskt av AMD: Xbox360 samt XboxOne.

Problemet med eDRAM verkar vara att det fördyrar kretstillverkningen en del. eDRAM kräver extra och komplicerade processteg. Det förklarar nog varför många fall där eDRAM använts använt en extra krets.

Vi lär snart veta hur det är gjort här!

Skrivet av SwedenVirre:

Nja, det är AMD(Vesa egentligen) låter både intel och nvidia lägga in "freesync" då det ingår i någon Vesa DP standard. G-sync är proprietär till NVIDIA, Freesync/Vesa Adaptive sync är fritt att använda vad jag vet.

Så nej, nvidia låter inte andra använda det.

Jag gillar öppna standarder och är helt klart för det. Men Nvidia handlingar har fått mig att acceptera proprietära till större del än innan.

Tycker det är helt okey av AMD att ta fördel av sina divisioner för att skapa sig en fördel. Nvidia har gjort det i år, så why not lixom numera.

bara kolla på PhysX, förr var det ett separat kort du stoppade i din dator och du fick häftigare effekter i spel. nvidia köpte upp Ageia och låste det till sig själva och inte ge andra möjligheten.

Samma sak lite där med DLSS etc och RTX(även om MS nu vill vara med). för där finns väl ingen som tror på fullaste allvar att Nvidia hade licensierat RTX och DLSS till AMD? Nvidia har aldrig gjort det förr så varför nu?

Att använda PhysX som exempel för att belysa poängen du försöker göra ovan blev väl ändå inte helt rätt? Har folk helt missat att PhysX idag är öppen källkod? När CPUerna fick fler kärnor än spelen kan göra något med och framförallt när de fick SIMD-kapacitet långt över vad spel kan göra något vettigt med blev det långt vettigare att köra något som PhysX på CPU än på GPU.

Finns vissa specifika effekter som bättre lämpar sig för GPGPU, har inga exempel och om de finns så är de inte öppen källkod då den öppna versionen av PhysX (som för övrigt är integrerad som en standardfunktion i bl.a. Unreal Engine och Unity) använder CPU (multipla kärnor och SSE/AVX).

Tycker inte heller G-sync vs Freesync är något superbra exempel. Ja, en är en proprietär standard och en är öppen, men historisk har också G-sync fungerat långt bättre då Freesync varit allt för vingligt specificerat så det har fungerat bra i vissa fall och mindre bra i andra fall.

Finns inget som spel som egentligen använder "RTX". Det är Nvidia namn på deras teknik de använder för att implementera bl.a. DXR. Ja RTX är låst till Geforce, men den teknik AMD använder för att implementera DXR i deras GPUer är låst till Radeon. Det är inget konstigt, distinktionen här är mellan ett API som spelen använder mot tekniken GPUer använder för att realisera APIet.

DLSS är det enda som är bundet till Nvidias produkter och explicit påverkar spel. Man kan göra liknande saker med DirectML, hur väl det fungerar ställd mot DLSS lär vi få se tids nog. Vill man "försvara" låsningen runt DLSS går det att peka på att den tekniken är helt designad runt Tensor-kärnorna, så att öppna den skulle kunna bli rätt mycket som när AMD gav Mantle till Khronos. Det tog över ett år för Khronos att fixa till Mantle så det på något realistiskt sätt gick att köra effektivt på något annat än CGN. D.v.s. att Mantle var "öppet" var i praktiken helt värdelöst då designen var helt baserad på en specifik GPU-implementation, d.v.s. rätt likt hur DLSS är helt designat runt Nvidias nuvarande Geforce kretsar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Spekulation kring AMDs raytracing prestanda:
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-...

"We have also ran the benchmark on the GeForce RTX 3080 with stock clock and power targets using a precompiled executable file. The RTX 3080 scored 635 framerate on average from three 1 minute runs.

This means that GeForce RTX 3080 is around 33% faster than Radeon RX 6800 XT in this particular benchmark. OF course, there are few things that need to be taken into the account such as the testing platform and DXR benchmark resolution (AMD did not clarify, hence we used default)."

Visa signatur

Samsung 77" S90C QD-OLED || LG OLED 42C2 || Sony 77" A80J OLED || Macbook Pro 16" M1 Max 1TB 32GB || Asus ROG Azoth med Black Ink V2s (205g0) + Asus ROG Harpe ACE

Permalänk
Avstängd

När får grabbarna på Swec kontoret tillgång till ett AMD-kort?
Skulle gärna se en recension av dessa att jämföra med vad Nvidia har skickat ut (eller inte skickat ut).

Visa signatur

Chassi: Fractal Design Define R3 Black, Mobo: ASUS Z170 Pro Gaming, CPU: Intel i7 6700K, kylning CM Hyper 212 EVO, RAM: 32 GB Hyper X 3000 mhz, GPU: Nvidia MSI 1080 Gaming X, PSU: XFX Core Edition Pro 750W, Mus: Logitech G700, Tgb: Corsair Raptor K30, OS: Win10

Permalänk
Medlem
Skrivet av Aja82:

Varför skulle jag ha en förklaring. Var en tanke, en idé som inte är helt ologisk sett till AMD's inblandning i övriga gamingmarknaden. Var inte ens ett argument. Men jag tror detta kan ge AMD en fördel denna generationen. That's all.

Tror dessvärre att det är önsketankar.
AMD har varit involverade i konsoler sedan xbox 360 som hade en grafikkdel från ATI, som numera är en del av AMD.
Xbox one och playstation 4 använde båda en APU från AMDs GCN arkitektur.

Innan dess (original xbox och playstation 3) användes nvidia gpu:er.

Skrivet av foreveryang:

Tyvärr kommer det bli strax över 11k med svenska avgifter och moms etc. Enkelt räknat i nuläget är att ta amerikansk dollar x 10 + 12 % cirka så har du ungefär svenska priser. Detta givet att man räknar på MSRP.

Vi har 25% moms.
Med nuvarande kurs (8,83sek per usd) blir det 999*8.83*1.25 vilket även det är strax över 11k.

Visa signatur

Stationär: Core i9 13900k | Asus X790 ROG Strix Gaming-F | 32GB DDR5 | RX 7900 XT | Lian Li PC-O11 dynamic evo
Laptop: Macbook Air | Apple M1

Permalänk
Medlem

Angående raytracing för spel, för dem som är intresserade av det, är det kanske värt att komma ihåg att speltillverkarna säljer sina produkter på en marknad, och den marknaden är inte high-end PC. Som väl är börjar kapabla konsoler säljas snart som kan nå vettiga försäljningsvolymer. Om ett par år kommer det att släppas spel som inte är bakåtkompatibla, och så småningom kommer konsolerna att bilda baslinje. En baslinje som kommer att hålla generationen ut + ett par år. Säg 2030.
Innan man ser vad som faktiskt kommer till användning på konsolerna är framtidsutsagor om ray-tracing meningslöst ur ett spelperspektiv.

Permalänk
Moderator
Testpilot
Skrivet av anon5930:

AMD har verkligen fått fart nu. Finns god chans att det blir AMD efter att senaste tre korten varit AMD. Ändå på jakt efter ny skärm så är inte det som något bekymmer heller. 240Hz, 2560x1440 eller möjligen UW och med iallafall acceptabel HDR och 27" vore smaskigt.

Om allt stämmer kan det nog vara första gången någonsin kombinationen AMD CPU och AMD GPU ger bästa upplevelsen. Närmaste borde annars vara Athlon XP/64 tiden och Radeon 9800. Men då var ATI ett eget företag.

På sätt och vis kul att detta eländiga Corona-år ser ut att ha blivit ett av de intressantaste hårdvaru åren på mycket länge.

Fy tusan. Det var nog senast vi hade en liknande guldålder.

2020 har varit tragiskt på många sätt men gaming har nog aldrig varit mer relevant än det är just nu med full konkurrens på alla håll. Då kommer även Intel smygande in i mellan/budgetsegmentet också.

Älskart.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Ang RT så glömmer folk bort att nvidia är på andra gen och amd första, klart nvidia kommer prestera bättre i RT.

Permalänk
Moderator
Testpilot
Skrivet av Toss3:

Spekulation kring AMDs raytracing prestanda:
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-...

"We have also ran the benchmark on the GeForce RTX 3080 with stock clock and power targets using a precompiled executable file. The RTX 3080 scored 635 framerate on average from three 1 minute runs.

This means that GeForce RTX 3080 is around 33% faster than Radeon RX 6800 XT in this particular benchmark. OF course, there are few things that need to be taken into the account such as the testing platform and DXR benchmark resolution (AMD did not clarify, hence we used default)."

Eftersom detta är första generationen för AMD så hoppas jag på att det fortfarande finns en del att putsa på drivrutinerna sen är ju frågan om Nvidias och AMD's RT-cores är likställda då AMD har fler och snabbare kärnor så måste ju Nvidias helt enkelt vara effektivare.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Vad svårt allt blir nu. Jag var helt inställd på att försöka få tag i ett 3070 när de släpps idag, men nu blir man ju lite sugen att vänta ett par veckor och försöka få tag i ett RX6800 istället. 3070 känns helt plötsligt lite B jämfört med RX6800 (för några hundralappar mer).

Vad finns det för spekulationer kring tillgängligheten av RX-korten? Vet att AMD lovade att det inte handlade om någon "papperslansering", men det hade ju vart fint med mer info.

Permalänk
Medlem
Skrivet av carlbanan:

Vad svårt allt blir nu. Jag var helt inställd på att försöka få tag i ett 3070 när de släpps idag, men nu blir man ju lite sugen att vänta ett par veckor och försöka få tag i ett RX6800 istället. 3070 känns helt plötsligt lite B jämfört med RX6800 (för några hundralappar mer).

Vad finns det för spekulationer kring tillgängligheten av RX-korten? Vet att AMD lovade att det inte handlade om någon "papperslansering", men det hade ju vart fint med mer info.

Jag kommer hänga på låset och försöka få tag på ett 3070 idag, men låta det ligga kvar i kartongen tills jag har sett hur RX6800(XT) blir, både i oberoende tester och hur tillgängligheten blir! Tråkigt om man inte lyckas få tag på ett 3070 idag, och sedan visar det sig att 6800(XT) blir näst intil omöjligt att få tag på också...

Permalänk
Medlem

Blir nog RX6800 istället för ett RTX 3070 nu. Gör inget om 3070 skulle vara något snabbare i vissa spel då man får dubbelt med minne till nästan samma pris. 8 gb känns nog i snålaste laget i den där prisklassen i dagsläget. RTX 3070 borde haft 10gb och 3080 borde ju varit minst 12gb.

Permalänk
Avstängd
Skrivet av addman:

Blir nog RX6800 istället för ett RTX 3070 nu. Gör inget om 3070 skulle vara något snabbare i vissa spel då man får dubbelt med minne till nästan samma pris. 8 gb känns nog i snålaste laget i den där prisklassen i dagsläget. RTX 3070 borde haft 10gb och 3080 borde ju varit minst 12gb.

Håller helt med dig, 8GB var riktigt gött när 1080 kom men även om det nu inte är för lite så känns det som att köpa ett kort som man hoppas hålla i mellan 4-6 år så är 8GB garanterat för lite.
Jag skulle säga att 3070 borde ha 12GB och 3080 skulle haft 16GB men vi får väl se vad som sker då Nvidia måste kontra detta på något sätt och kanske kommer det Ti eller Super varianter av deras kort senare, om det nu ens kommer ut några kort alls.

Gissar på att det är lite svettigt hos Nvidia idag när 3070 ska släppas och AMD släppte sin presentation en dag innan med riktigt bra resultat. Efter fiaskolanseringen av 3080 och 3090 så tror jag inte så många är sugna på samma sak igen med 3070 och kanske avvaktar istället för att se recensioner på AMD:s alster.

Visa signatur

Chassi: Fractal Design Define R3 Black, Mobo: ASUS Z170 Pro Gaming, CPU: Intel i7 6700K, kylning CM Hyper 212 EVO, RAM: 32 GB Hyper X 3000 mhz, GPU: Nvidia MSI 1080 Gaming X, PSU: XFX Core Edition Pro 750W, Mus: Logitech G700, Tgb: Corsair Raptor K30, OS: Win10

Permalänk
Medlem
Skrivet av CubaCola:

"New to the AMD RDNA 2 compute unit is the implementation of a high-performance ray tracing acceleration architecture known as the Ray Accelerator. The Ray Accelerator is specialized hardware that handles the intersection of rays providing an order of magnitude increase in intersection performance compared to a software implementation. *4"

och fotnot 4 säger:

"Measured by AMD engineering labs 8/17/2020 on an AMD RDNA 2 based graphics card, using the Procedural Geometry sample application from Microsoft’s DXR SDK, the AMD RDNA 2 based graphics card gets up to 13.8x speedup (471 FPS) using HW based raytracing vs using the Software DXR fallback layer (34 FPS) at the same clocks. Performance may vary. RX-571"

Så med den datan kanske man kan räkna ut på något vänster hur bra det är.

edit är det detta program? https://github.com/microsoft/DirectX-Graphics-Samples/blob/ma...

Jag satt och kollade AMD presentation x flera och tolkade det hela som att stöd kommer finnas även för äldre titlar, men hur mycket vet vi inte. De hade ju kunnat visa mer riktiga tester i spel eller kan det vara så enkelt att det inte finns stöd ännu? En del spel behöver få det i en patch. Kollar man Nvidia så har de redan släppt flera videor där de gör reklam för just RT i bland annat Cyberpunk, men inget från amd förutom videor från ps5 och xbox series x. Fanns ett techdemo från mars 2020 men det räknas inte tycker jag...sen hoppas jag amd drivers är vid god vigör denna gång jämfört med 5700 som var katastrof vid release.

Nu står det mellan Rtx 3070 och rx 6800 xt. Det knepiga är att man ska vänta i ytterligare 3 veckor till och då inte vet hur tillgången blir där heller eller slå till på ett 3070 nu med bara 8 g vram men goda RT-prestanda och spara en slant.

Om de siffror som visats från Igors lab stämmer behöver man ett rx 6800 xt för att få identisk RT-prestanda som ett 3070.
https://www.igorslab.de/en/3dmark-in-ultra-hd-benchmarks-the-...

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Medlem
Skrivet av Nekrol:

Skulle hålla med dig. Om det nu inte vore så att konsolerna är extremt centrerade kring sina nvme lösningar och asset streaming.
För asset streaming krävs en Nvme, och det finns en god chans att ett spel uppbyggt med det i åtanke inte är möjligt att köra på en vanlig SSD. Konsolerna dikterar spelmarknaden.

Och vad som då händer är att de spelen inte kommer till PC. För vilka spelföretag kommer att lägga ner de pengar som krävs för att göra en PC-version om man sen bara kan sälja till den ynka minoritet som har nvme-diskar?

De fungerar för spel till de nya konsollerna för att alla då kommer att ha hårdvaran som krävs.

Permalänk
Avstängd

Tror vi nyss fick förklaringen till dom låga 3000 priserna jämfört med generationen innan.

Visa signatur

Alldeles för svag för SFF 🥰

Permalänk
Medlem
Skrivet av DasIch:

Ser bättre ut än jag trodde, dock en stor grej som saknas - de har inget motsvarande DLSS.

DLSS är en utmärkt uppskalningsteknik. Som stöds av tolv spel, varav inget ingår i mitt spelbibliotek.

Ärligt talat vore det mycket intressantare med en uppskalningsteknik som vore lite sämre, men som kunde appliceras på allt, eller åtminstone kan implementeras inom DX12, och inte bara en Nvidia tech-demo.
Och si, det finns. Men de uppskalningsmöjligheterna, som ger ganska OK resultat, pratar vi inte så mycket om. Undrar varför...

Enda anledningen att vi alls pratar om uppskalning på kraftfulla dedicerade GPU:er är att Nvidia vill att vi skall göra det (och för att raytracing kostar prestanda utan att ge så mycket tillbaka visuellt att det kompenserar en sänkning av upplösningen). Nvidia vill sälja en grafikfeature som krävs för att de skall kunna sälja en annan grafikfeature.

Intelligent uppskalning är ingen ny utmaning precis, det har varit stapelvara i stillbildsvärlden sedan digitalkamerorna gjorde entre, och för spel finns flera visuellt hyfsade lösningar som använts redan på den nuvarande/gamla konsolgenerationen som inte kräver något speciellt. DLSS är brutalt översålt, av de som har intresse av att sälja. Tekniken är vida relevantare för en framtida Nintendo Switch, en billig mobilkonsol (=definierad, låst plattform) som ändå förväntas driva spel på 70" TV-apparater, än för dedicerade PC-grafikkort.

Permalänk
Medlem

Lär inte få mitt 3800 innan årets slut så avvaktar tester av 6800xt. Intressant och se hur deras drivrutiner förbättrats för 5700xt var inget vidare när jag körde den en period.. blivit bekväm, orkar inte med en massa meck för att få spel att funka. Nvidia är riktigt bra på mjukvaran och nya funktioner.

Visa signatur

CPU: 5600X| Mobo: AORUS X570 itx|Minne: 32GB Corsair Vengeance PRO 4000Mhz|GPU: Asus TUF 3080 OC |Chassi: CM NR200P|SSD: Samsung 850 EVO 500GB, 2xSamsung 970 EVO 1TB|PSU: NZXT 650W
Mus: Razer Basilisk|Tangentbord: Corsair K70|Skärm: LG27GP850

Permalänk
Medlem

Jag köpte 3080 för 7800, gissningvis kostar 6800xt över 7000, men det återstår att se, 3080 är bättre i 1440p och 6800xt bättre i 4k, så beror på vad du vill ha.

Permalänk
Avstängd
Skrivet av magma86:

Jag satt och kollade AMD presentation x flera och tolkade det hela som att stöd kommer finnas även för äldre titlar, men hur mycket vet vi inte. De hade ju kunnat visa mer riktiga tester i spel eller kan det vara så enkelt att det inte finns stöd ännu? En del spel behöver få det i en patch. Kollar man Nvidia så har de redan släppt flera videor där de gör reklam för just RT i bland annat Cyberpunk, men inget från amd förutom videor från ps5 och xbox series x. Fanns ett techdemo från mars 2020 men det räknas inte tycker jag...sen hoppas jag amd drivers är vid god vigör denna gång jämfört med 5700 som var katastrof vid release.

Nu står det mellan Rtx 3070 och rx 6800 xt. Det knepiga är att man ska vänta i ytterligare 3 veckor till och då inte vet hur tillgången blir där heller eller slå till på ett 3070 nu med bara 8 g vram men goda RT-prestanda och spara en slant.

Om de siffror som visats från Igors lab stämmer behöver man ett rx 6800 xt för att få identisk RT-prestanda som ett 3070.
https://www.igorslab.de/en/3dmark-in-ultra-hd-benchmarks-the-...

8gb ynka vram 2020.... För 4k o 1440p med raytracing är det för lite.

Skrivet av Daemon85:

Jag köpte 3080 för 7800, gissningvis kostar 6800xt över 7000, men det återstår att se, 3080 är bättre i 1440p och 6800xt bättre i 4k, så beror på vad du vill ha.

kollade vi på samma presentation?. Amd ledde i 1440p.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Yoshman:

Är inte omöjligt att man stoppat in eDRAM direkt på kretsen. En stor fördel med eDRAM är att det tar mindre plats jämfört med traditionell cache (SRAM).

Det kan absolut vara så. Min ursprungliga gissning var baserad på att Navi 21 hade dubbelt så många exekveringsenheter som Navi 10 och tog upp dubbelt så mycket plats (505 mm2 mot 251mm2), alltså finns det inte plats för någon cache i det chippet. AMD har ju jobbat en del interposers och att paketera chip rent allmänt, så det känns inte orimligt att de skulle ge sig på något som jag sa. Men jag vet absolut ingenting, det är bara gissningar.

Ser att Anandtech har gjort matten på antalet transistorer och indikerar att det kan vara en traditionell cache, möjligen.

Citat:

Har ju faktiskt gjorts historiskt av AMD: Xbox360 samt XboxOne.

Xbox 360 var eDRAM. Xbox One var faktiskt eSRAM.

Citat:

Problemet med eDRAM verkar vara att det fördyrar kretstillverkningen en del. eDRAM kräver extra och komplicerade processteg. Det förklarar nog varför många fall där eDRAM använts använt en extra krets.

Vi lär snart veta hur det är gjort här!

Japp! Eftersom jag inte skall ha några GPUer i den här prisklassen så är själva spekulationerna nästan roligast...

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av muSashi:

Stackars alla 3090 ägare, kan inte vara kul att läsa dagens nyheter med ett 6900XT för 999$.

Varför skulle någon bli ledsen frö det? Inte så att 3090 fich sämre prestanda helt plötsligt och de kanske också sitter med ganska dyra G-Sync bildskärmar.

Permalänk
Skrivet av MaxieTheHatter:

Tror dessvärre att det är önsketankar.
AMD har varit involverade i konsoler sedan xbox 360 som hade en grafikkdel från ATI, som numera är en del av AMD.
Xbox one och playstation 4 använde båda en APU från AMDs GCN arkitektur.

Innan dess (original xbox och playstation 3) användes nvidia gpu:er.

Glöm inte Nintendo! Gamecube, Wii och Wii U körde alla ATI chipp.

Visa signatur

Asrock Z490M-ITX/ac | i5 10600 | RTX 2060 FE | 16GB DDR4-3200 | Corsair SF450 | A-DATA SP900 128GB | Samsung 970 EVO 500GB | Noctua NH-L9i | Kolink Rocket

Permalänk
Medlem
Skrivet av ottoblom:

Ville mer få fram att 3080 inte kostar 699 +moms utan 781 dollar + moms .Då 699 bara var under papperslanseringen . Så håller AMD 649 dollar +moms är det inte 50 dollar billigare .Det är 132 dollar billigare .

Är väl $699 fortfarande for 3080?

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av _Merc_:

kollade vi på samma presentation?. Amd ledde i 1440p.

Hänvisar till folk på Youtube som sett oberoende resultat.
Vågar garantera att amd i deras egna tester använder sin senaste 5000 serie cpu med sin egna gpu och sen Intel med nvidias gpu. Amd har gjort denna taktik förut med olika system för att få sina egna produkter att glänsa.