AMD ger smakprov på Radeon RX 6000 – nya kylaren visas upp på bild

Permalänk
Medlem
Skrivet av mpat:

Hyfsad skalning, men inte perfekt.

Vilket är hela poängen. Folk ser 2x prestanda rakt av trots att allt vi vet säger nej, det kommer förmodligen inte vara 2x för skalningen är inte perfekt. Även på ett hyffsat 1.7x... så snackar vi som sagt "bara" förmodligen runt 3070 klass prestanda.

Men visst, att gå från motsvarande 2070 prestanda till motsvarande 3090 prestanda i en generation med samma klass kort som är under $500 skulle vara imponerande... men lever vi i en perfekt värld? Jag tror inte på det

Permalänk

Buildzoid gör en rätt Intressant analys av kylaren

Permalänk
Medlem

Såg att folk är oroliga för bandbredden på dessa 16GB minne, det kan man vara, det blir "bara" ca 500GB/s med 16GB/s minne och 256-bit buss. MEN enligt uppgift har AMD tänkt på detta och använder en ovanligt stor cache on-die på 128MB, Turing tex har bara 4MB, vilket sägs minska vikten av bandbredd på minnet. Och man använder nya mer effektiva komprimerings algoritmer så det går inte att jämföra rakt av med RDNA1.

Vinsten, om det fungerar, är att GDDR6 är mycket billigare än GDDR6X samt att kretskortet blir mycket billigare med färre ledningsbanor än om man behövt en bredare buss = lägre pris till konsument.

Med lite tur blir det en upprepning av HD4850/HD4870 som konkurrerade bra med Nvidia med ett mycket lägre pris.

Hur blir det med "HALO-produkt" då? Kanske man släpper en fullt upplåst 80Cu die med HBM2E och helt löjlig bandbredd i begränsad upplaga, dyr såklart men billigare än RTX3090.

Esset i rockärmen som AMD har är produktnoden, TSMC 7nm+ sägs vara extremt bra. NU börjar det komma rykten om riktigt höga klockfrekvenser som Nvidia inte har en chans att komma i närheten av, det bör kunna tugga i sig gapet upp till 10000+ Cus bra! Och det är just där ryktena ligger, AMD funderar in i det längsta på hur högt det ska få klocka och därmed hur mycket ström det skall få dra. Jag tror att även dom vill se benchmarks på Ampere först innan dom spikar sitt VGA-bios.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av sKRUVARN:

Och för den delen lägger man inte en sådan pjäs till kylare för ett kort som drar mycket mindre än 320W.

Den kylaren är ju inte ens stor så den hade nog fått kämpa en del för att bara kyla 250w.
3090 däremot, där snackar vi stor kylare Iaf på bredden och längden, inte tjockleken

Visa signatur

6800 XT - Ryzen 5900x - 32GB G.Skill 3733mhz - Asus Strix X570-E - Noctua NH-D15
WD SN750 1TB - Samsung 960 Evo - 850 Evo 1TB - 750 Evo
Corsair HX750i - NZXT Phantom 630 - LG S2721DGFA
Razer Deathadder 2013 - HyperX Alloy Core - Sennheiser GSP 350

Permalänk
Medlem
Skrivet av Izenoz:

Svar på din fråga

Som det "populäraste" spelet just nu, med över 12 miljoner aktiva spelare och över 350 miljoner konton fram till maj i år är det smart marknadsföring, det kostade säkert en rejäl slant för AMD, har egentligen ingen betydelse då de garanterat kommer få en stor del av spelarna att köpa ett AMD kort.

Sen att majoriteten av spelarna i Fortnite är 12 är kanske en lätt överdrift, visst är det många i den åldersgruppen som spelar men tittar man på statistiken säger det annat.

Kunderna som AMD riktar sig till är som du själv skriver, 12 år upp till 88 åringar (?), svårt att svara på direkt ålder men alla som vill ha mest "bang for the buck" skulle jag säga och säkert de som tänker på elräkningen (mig inräknad).

De som klarat på deras marknadsföring bör tänka om, detta kan vara det mest genialiska någonsin, även om det som sagt kostade dom en rejäl slant.

Ummm......."kostade dem en rejäl slant"....

Jag kan inte se hur den snubbe som gjorde detta och grafikkortet kostade dem mer än en fjärt i rymden av deras marknadsföringsbudget på hundratals miljoner dollar.

De har redan fått tillbaka pengarna många gånger om i mindshare.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Så du tror inte AMD har gjort något annat än att bara peta in mer minne? OM dubbelt minne kan i sig få upp prestandan med 50% så borde Nvidia vara rädda, då det blir mer än dubbelt med CU jämfört med RX5700XT, 60% mer, vilket kanske bara ger 30% prestanda, sammanlagt blir det då en prestandaökning på +95% jämfört med RX5700XT, vilket borde slå RTX3080, det räcker nog dock inte mot ett RTX3080Ti (20GB)

Dubbelt minne i sig ger inte ens 1% mer prestanda givet att du inte tar i taket, vilket var min poäng.

Det är rimligt att gissa att de kör med 16GB på high-end. Inget garanterat men låter som något som de skulle kunna göra eftersom det låter bra. Det i sig däremot förutsätter en 256bit bus samt sannolikt GDDR6-minne istället för 6X om de inte antingen kör med väldigt många kapslar likt 3090 (=dyrt och tar plats) eller tänker lansera kortet först en bit inpå 2021 när kapslar med högre kapacitet finns tillgängliga. Skulle det vara 256 bit GDDR6 så låter det inte som något man parar med en krets som ska utprestera 3080. Samtidigt är det svårt att säga vad för slags bandbredd RDNA2 behöver så det kanske är helt ok.

RDNA2 och RDNA1 (RX5700) är ganska olika så att addera CU och försöka räkna ut hur mycket mer prestanda man får känns som det kan gå ganska fel ganska snabbt.

Visa signatur

i9-10980XE ~4.6GHz | 128GB DDR4-3600 | ASUS WS X299 PRO | RTX 4070 Super, Founders Edition
i7-7820X 4.8GHz | 64GB DDR4-3200 | ASUS WS X299 PRO | RTX 3080, Founders Edition

Permalänk
Medlem
Skrivet av murklor:

Vilket är hela poängen. Folk ser 2x prestanda rakt av trots att allt vi vet säger nej, det kommer förmodligen inte vara 2x för skalningen är inte perfekt. Även på ett hyffsat 1.7x... så snackar vi som sagt "bara" förmodligen runt 3070 klass prestanda.

Men visst, att gå från motsvarande 2070 prestanda till motsvarande 3090 prestanda i en generation med samma klass kort som är under $500 skulle vara imponerande... men lever vi i en perfekt värld? Jag tror inte på det

Det är väl ingen som påstår att det kommer vara ett till mellansegmentskort för samma pengt som 5700xt? Hela poängen är väl att detta är deras första kort sen Vega som siktar på att konkurrera på högre prestanda?

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Gruarn:

"Ta inspiration från konkurrenten", va? Jag undrar hur mycket tid som lagts på att koda in kylaren i fortnite. Givet framförhållningen på det här projektet vore det inte konstigt om det är tvärtom. Men som sagt, nVidia måste ju göra en feature av sin höga värmeutveckling på något sått ("Titta på vårt kort, det är så varmt så vi var tvungna att uppfinna kylfläkten på nytt"), så det kan ha varit 2 helt parallella spår.

Ja tydligt industri spioneri hehe

Permalänk
Medlem
Skrivet av Radolov:

Ummm......."kostade dem en rejäl slant"....

https://www.youtube.com/watch?v=qYP6hkyDrI4

Jag kan inte se hur den snubbe som gjorde detta och grafikkortet kostade dem mer än en fjärt i rymden av deras marknadsföringsbudget på hundratals miljoner dollar.

De har redan fått tillbaka pengarna många gånger om i mindshare.

Du missar två viktiga innehåll i ditt citat/quote.

det kostade säkert en rejäl slant för AMD, har egentligen ingen betydelse då de garanterat kommer få en stor del av spelarna att köpa ett AMD kort.

Sen vet jag inte hur AMD kontra EPIC har samarbete/avtal men att göra reklam/marknadsföra generellt är dyrt, speciellt med tanke på den otroliga spelarbasen Fortnite har (återigen, vet inte om de har ett avtal sinsemellan) som AMD riktar sig emot (en del av den stora kakan i marknadsföringen) tror jag inte kommer gratis, precis som alla företag har de inte en oändlig skattkista för X avdelningar. Förutsatt att avtal/samarbete inte finns så hade jag varit EPIC skulle detta kostat mycket för AMD.

Att skapa ett grafikkort i sig är inte den stora kostnaden, det är rätten att få göra marknadsföring som kostar.

Visa signatur

Har numera en Laptop från gigabyte.

Permalänk
Medlem

@Hymer: Jag har aldrig någonsin brytt mig om strömförbrukning och kommer aldrig att göra det. Det jag primärt bryr mig om är en felfri upplevelse och så högt antal FPS det bara går.

Visa signatur

12900K | 32GB 6000 DDR5 | 3090 FE | PG259QN | Z790 Gaming X AX | SF750 | O11 Mini

Permalänk
Skrivet av murklor:

Vilket är hela poängen. Folk ser 2x prestanda rakt av trots att allt vi vet säger nej, det kommer förmodligen inte vara 2x för skalningen är inte perfekt. Även på ett hyffsat 1.7x... så snackar vi som sagt "bara" förmodligen runt 3070 klass prestanda.

Men visst, att gå från motsvarande 2070 prestanda till motsvarande 3090 prestanda i en generation med samma klass kort som är under $500 skulle vara imponerande... men lever vi i en perfekt värld? Jag tror inte på det

RTX 3070 prestanda? Nej den borde vara rätt mycket snabbare än RTX 3070.

Permalänk
Medlem

@Izenoz: Du missade nog en sak... de behöver inget avtal med EPIC. De betalade en snubbe som gör custom-byggen m.h.a fortnite att göra en bana och ett grafikkort. De behöver endast betala en youtuber med ~100k subs. Hur mycket? Well, så mycket han är redo att ta betalt för det. Vi snackar om under 1 miljon kronor. Det är kaffepengar för AMD, varför det är en så bra investering.

Permalänk
Medlem

Härligt med alla spekulationer, känns som slutet på detta året kommer bli trevligt för hårdvaru nördarna.

Gissas ju högt och lågt om RX6xxx prestanda, och läckor från nån youtuber presenteras som fakta.

Vad jag vet är detta dom enda fakta som är bekräftade:

1. Vi vet hur snabbt ett RX5700XT är, och på vilken kretsyta, och elförbrukning
2. AMD säger officiellt 50% mer prestanda/W
3. AMD har sagt att RDNA2 är en ny arkitektur helt utan GCN. D.v.s. en RDNA1 & en RDNA2 CU kan inte jämföras rakt av.
4. Vi vet vad klockfrekvensen i PS5 är på ett 56 (?) CU chip, 2.23 GHz

Det saknas fortfarande ganska mycket för att kunna göra nån mer exakt gissning. Men spekulationer är ju ändå rätt kul, skall bli intressant att se vilka som gissade rätt i slutändan.

Permalänk
Medlem
Skrivet av Lastammunition:

https://www.youtube.com/watch?v=6uxLy1qWRAk&feature=share

Buildzoid gör en rätt Intressant analys av kylaren

Mycket intressant. Om nu den modellen som flyter uppe i skyn i Fortnite stämmer så kommer nog AMD försöka rå på Nvidias toppkort definitivt. Kommer nog inte bli billigt dock.

Permalänk
Medlem
Skrivet av ddelin:

4. Vi vet vad klockfrekvensen i PS5 är på ett 56 (?) CU chip, 2.23 GHz

36 CU, det är Microsoft som har 50+ CU.

Senaste ryktet är att Sony har problem med yielden, troligen pga den höga klockfrekvensen, Microsoft klockar 500MHz lägre. Samtidigt kan man inte jämföra yielden med RDNA2, dels är det troligen olika noder och dels är det till stor del olika arkitekturer med helt olika flaskhalsar.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Läst igenom tråden och man slås av att AMD kommer inte ha en chans osv kanske kan matcha Turing osv . Men 6000 serien är inte byggd för att gå upp mot Turing utan den är byggd för att gå upp Ampere . Innan satsade dom bara på låg och medel klass vilket är så dumt så klockorna stannar . Miss förstå mig inte det säljs mer kort i dom lägre prisklasserna men folk som skall köpa ett löst grafikkort läser tester och där läser alla i princip vad som finns i testbänken .Vilket ger så mycket reklam och för förtroende för företaget . Ingen vill tillbaka till bulldozer på processorerna där vi får 5 % IPC per generation .Folk borde tänka efter lite det är aldrig bra om det bara finns ett enda företag som säljer grafikkort . Det såg vi på Turing med tex 2080 ti som skulle kosta 999 dollar men som kostade 1200 dollar och inget annat och på 2080 som skulle kosta 699 dollar men kostade närmare 800 dollar och inget annat . Utan konkurrens var det där vi hamnade .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Avstängd

Hoppas den blir bättre än RTX 3050

Permalänk
Medlem
Skrivet av the squonk:

36 CU, det är Microsoft som har 50+ CU.

Senaste ryktet är att Sony har problem med yielden, troligen pga den höga klockfrekvensen, Microsoft klockar 500MHz lägre. Samtidigt kan man inte jämföra yielden med RDNA2, dels är det troligen olika noder och dels är det till stor del olika arkitekturer med helt olika flaskhalsar.

Korrekt med CU, fel av mig.
Rykten om yields är som sagt rykten, och det är lite min poäng, det finns för lite fakta för att som vissa tvärsäkert säga hur det är jämfört med ett Ampere kort som vi inte heller har några oberoende tester av, skinnvästens powerpoints räknas inte.
Låter rimligt med lägre klocka på Xbox med ett så mycket större chip, strömförbrukning är ju rätt viktigt i en konsoll.

Permalänk
Medlem
Skrivet av Radolov:

@Izenoz: Du missade nog en sak... de behöver inget avtal med EPIC. De betalade en snubbe som gör custom-byggen m.h.a fortnite att göra en bana och ett grafikkort. De behöver endast betala en youtuber med ~100k subs. Hur mycket? Well, så mycket han är redo att ta betalt för det. Vi snackar om under 1 miljon kronor. Det är kaffepengar för AMD, varför det är en så bra investering.

Helt enig i att det är genialiskt av AMD med marknadsföringen och jag är inte insatt i hur allt fungerar men som du skriver, otroligt smart och bra av AMD

Visa signatur

Har numera en Laptop från gigabyte.

Permalänk
Medlem
Skrivet av ddelin:

Härligt med alla spekulationer, känns som slutet på detta året kommer bli trevligt för hårdvaru nördarna.

Gissas ju högt och lågt om RX6xxx prestanda, och läckor från nån youtuber presenteras som fakta.

Vad jag vet är detta dom enda fakta som är bekräftade:

1. Vi vet hur snabbt ett RX5700XT är, och på vilken kretsyta, och elförbrukning
2. AMD säger officiellt 50% mer prestanda/W

Japp, men detta är egentligen lätt att fixa - bara skruva ner klockfrekvensen lite. Det är bara det att som du skriver nedan vi räknar med att klockfrekvensen skall upp, högre än NVidia, och den ekvationen ser svår ut.

Citat:

3. AMD har sagt att RDNA2 är en ny arkitektur helt utan GCN. D.v.s. en RDNA1 & en RDNA2 CU kan inte jämföras rakt av.

Citation needed på den. Tror inte för en sekund att AMD väljer det här tillfället att göra något helt nytt när de inte inte ens byter namn. De har egentligen försökt byta namn både med Navi och med Vega (minns ni NCU?) där de bara fixade med en liten bit av designen, och nu skall de ändra på allt när de inte byter namn? Nej, jag tror att poängen nu är fler SE än 4 för att skala bättre och bättre cachning, men att själva shadern ser ut som i Navi mer eller mindre.

Citat:

4. Vi vet vad klockfrekvensen i PS5 är på ett 56 (?) CU chip, 2.23 GHz

Det är 36 CU på PS5, men ändå - detta är det mest intressanta. GCN var layoutad för att klara upp till 1.4 GHz (och det gick redan med Pitcairn att komma dit). Vega var en omdesign för att höja det taket lite - 1.7 GHz för 14nm GF, och krympningen till 7nm gjorde att den gick att pressa upp lite till, precis under 2GHz för 5700XT. Där är det i princip stopp, enligt vad jag kan läsa mig till - t.o.m med vattenkylning är det svårt att gå över 2.1 GHz. Nu kommer en konsol med sannolikt väldigt standardiserad kylning, utan någon krympning, och drar upp klockfrekvensen ytterligare - 10% jämfört med 5700XT, men det är en dålig jämförelse då skall hela SOCn dra 180W, eller samma som 5700. Jämför vi med 5700 istället går boost upp med 500 MHz, utan ny process och med sannolikt lägre strömförbrukning (CPUn drar väl något?). Det är massor, och jag undrar just hur det går ihop. Höga klockfrekvenser löser ju alla problem, så om de lyckas få sin GPU att gå i uppåt 2.5GHz vet jag inte var det kan sluta.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Citation needed på den. Tror inte för en sekund att AMD väljer det här tillfället att göra något helt nytt när de inte inte ens byter namn. De har egentligen försökt byta namn både med Navi och med Vega (minns ni NCU?) där de bara fixade med en liten bit av designen, och nu skall de ändra på allt när de inte byter namn? Nej, jag tror att poängen nu är fler SE än 4 för att skala bättre och bättre cachning, men att själva shadern ser ut som i Navi mer eller mindre.

Såg det in nån intervju för ett tag sedan där nån från AMD i princip kallade RDNA1 ett stop-gap innan den kompletta transformationen som skulle bli RDNA2.
Har faktiskt svårt att se att man skulle kunna klämma ut 50% mer/W om man inte gjort rätt stora ändringar i arkitekturen. Även om det ryktas om en nyare 7nm process lär det inte ge så mycket.

Permalänk
Medlem

Jag har inte undersökt alla swec-artiklar i detalj, men tycker mig märka att Nvidia-nyheter på denna sajt handlar om Nvidia, medans AMD-nyheter alltid ställer något i relation till Nvidia/Intel. Är det så?
Om det är så, är det medvetet gjort?

Permalänk
Medlem

Nvidia lyckas öka prestanda med rumt 25% ifrån RTX2080ti till rtx3080.
Och då tror många att AMD ska lyckas höja prestandan ifrån rx5700xt med över 100%.
Jag är tveksam :/

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av Woaini:

Jag har inte undersökt alla swec-artiklar i detalj, men tycker mig märka att Nvidia-nyheter på denna sajt handlar om Nvidia, medans AMD-nyheter alltid ställer något i relation till Nvidia/Intel. Är det så?
Om det är så, är det medvetet gjort?

Det har väl mycket att göra med att AMD legat på efterkälken ett tag- nvidia har höjt ribban för prestanda och sesam har AMD kommit in lite senare med äkta prestanda/kr.

För många är det sannolikt prestanda/kr som år viktigare men på en entusiastsida är det inte så konstigt att fokus ligger på top of the line, och då blir frågan ofta "kan AMD konkurrera". Särskilt då nvidia gillar sin proprietary software så blir det väl också lite så att när AMD inte förmår konkurrera i rå prestanda så hamnar mer fokus på huruvida de fortfarande kan hålla marknaden lite balanserad och spela underdog nog för att få hålla prissättningen i schack.

Sedan tycks det ske lite historierevision här ibland då de nyfrälsta färgfanatikerka googlar upp olika sätt att retroaktivt bestämma segrare av olika generationer för att dra argumentet att laget med deras favoritfärg faktiskt vart bäst hela tiden osv, alla sidor lika skyldiga till detta. Jag själv viftar stolt den rödgrönblåa flaggan

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Kaleid:

Bah, somliga av oss kör 2x 140mm

Det vore underbart. HDMI 2.1 och snabbare spelladdning så är jag intresserad, i alla fall köp kring våren.

Provade det. Fick popnita fast kortet eller jaga det med håv då.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av CubaCola:

Nvidia lyckas öka prestanda med rumt 25% ifrån RTX2080ti till rtx3080.
Och då tror många att AMD ska lyckas höja prestandan ifrån rx5700xt med över 100%.
Jag är tveksam :/

5700 xt var byggd för att säljas och konkurrera mot mellan klass kort i Turing dessa är byggda att konkurrera mot topp korten Nvidia släppt efter Turing ? .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av CubaCola:

Nvidia lyckas öka prestanda med rumt 25% ifrån RTX2080ti till rtx3080.
Och då tror många att AMD ska lyckas höja prestandan ifrån rx5700xt med över 100%.
Jag är tveksam :/

Olika noder förvisso, men Nvidia går från en krets på över 700mm² till en mindre nod med en jättekrets på över 600mm². AMD går från en krets på ca 251mm² till en krets på över 500mm² (enligt rykten) på en tätare nod.

Där har du förklaringen. Jag personligen tror att toppkorten antagligen får HBM för att GDDR6 inte kommer räcka för att mata en sådan jättekrets med de ryktade 80 CU.

Permalänk
Avstängd
Skrivet av Lastammunition:

Nja, Nvidias referenskylare är ju rejält mycket snyggare än dessa renderingar iaf. Men gissar de också blir sjukt svåra att få tag i då det går rykten att deras kylarlösning är väldigt dyr att producera.

kan inte hålla med, tycker dem ser ut som en avlång robot damsugare.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Avstängd

Blir nog bara snäppet över 2080Ti i watt/performance tyvärr

Permalänk
Medlem

Nice, det ser ut att kunna vara den bästa referenskylaren någonsin faktiskt (pga den rejäla kylflänsen), beroende på hur bra eller dåligt kylarna på 3080/3090 FE fungerar i praktiken då.

Önskar att de kunde släppa kortet samtidigt som Nvidia, så man slapp vänta för att se hur det kommer stå sig, men nu är det ju som det är tyvärr.

Visa signatur

5950X, 3090