Powercolor RX 5700 XT Red Devil – AMD Navi på rätt sätt

And the flame war is on..
Intresset att uppgradera har nog aldrig varit lägre, verkar som man får vänta några år till.
Får hoppas AMDs nästa generation blir intressantare eller att Nvidia kan kräma ut mer prestanda ur 7nm.
Helt okej kort, men i slutändan ganska ointressant för oss som köpte Pascal.

Update, tiden går uppenbarligen snabbare i mitt parallella universum.

Senast redigerat 2019-08-16 20:43
Skrivet av Nivity:

Vad hände med 1080p ;O

Skulle gissa på att det inte är medtaget för det här är ett lite kortare test än vanligt. DX12 är inte heller medtaget i testet till exempel.
Det är troligtvis för att Sweclockers ej har full bemanning än utan det fortfarande är semester för vissa.

Kan ju lugnt säga att det kliade lite i fingrarna när jag ser det här kortet, men får trots allt avvakta tills jag är hemkommen från Japan... Sen vill jag gärna ha ray-tracing till Cyberpunk 2077 men det har AMD ett litet tag på sig att få fram innan release.

Mvh

Skrivet av ramlösa:

And the flame war is on..
Tråkigt att AMD ska ta ett par månader på sig att lansera 3e-part kort, speciellt när deras referenskort är ganska värdelöst, dödar hypen liten.
Intresset att uppgradera har nog aldrig varit lägre, verkar som man får vänta några år till.
Får hoppas AMDs nästa generation blir intressantare eller att Nvidia kan kräma ut mer prestanda ur 7nm.
Helt okej kort, men i slutändan ganska ointressant för oss som köpte Pascal.

🤨 sist jag kollade lanserades navi för knappt en månad sen. så förstå inte hur du få ihop denna räkningen.

Skrivet av ramlösa:

And the flame war is on..
Tråkigt att AMD ska ta ett par månader på sig att lansera 3e-part kort, speciellt när deras referenskort är ganska värdelöst, dödar hypen liten.
Intresset att uppgradera har nog aldrig varit lägre, verkar som man får vänta några år till.
Får hoppas AMDs nästa generation blir intressantare eller att Nvidia kan kräma ut mer prestanda ur 7nm.
Helt okej kort, men i slutändan ganska ointressant för oss som köpte Pascal.

Ett par månader? 5700 introducerades den 7/7

Skickades från m.sweclockers.com

Bra recension, men!

Att byta mätmetod mitt i grafen ser lite konstigt ut. Bara för att AMD väljer att ha med mer information än nödvändigt med junction temperature , så ska man inte sortera vissa kort efter genomsnitt och andra efter maxvärden. Tänk er bara om samma sak hade gjorts med FPS testen.

Är ju sugen på 5700XT men blir lite nojjig över drivrutiner som folk verkar ha problem med här och där. Är det någon som äger ett kort och kan uttala sig?

Skickades från m.sweclockers.com

Kul att AMD är tillbaka och rör om i grytan på både CPU och GPU-sidan! Det fick bli ett bättre begagnat 2070 den här gången dock då jag fortfarande behöver en DVI-DL-utgång till min gamla koreaskärm. Får nog bli en ny skärm nästa år och förhoppningsvis släpper AMD ett monsterkort också.

Dags för uppgradering, en sån här blir det! <3

Men är det bara jag som anser att Red Devil-texten vid HDMI/DP-portarna är upp-och-ner? Lite märkligt isf...

Skrivet av Bernd_P1:

🤨 sist jag kollade lanserades navi för knappt en månad sen. så förstå inte hur du få ihop denna räkningen.

Kändes som det var längre, men jag har uppenbarligen fel.

Skrivet av ClintBeastwood:

Det har inte Nvidia sagt alls. Nvidia sa att det första spelet som kräver hårdvara för raytracing kommer 2023. Sprider du trams eller minns du bara fel?
https://m.sweclockers.com/nyhet/27944-nvidia-ar-2023-slapps-d...

Du själv drog upp DX12 tidigare som en fördel, finns det i 9/10 spel?

Nej, det stämmer att de sa att de gissar att första spelet som kräver hårdvara för raytracing kommer 2023.
Dåligt uttryckt av mig.

Jag menade att raytracing är inget för 2019 och inte heller för 2020.
2023 är om 4 år och det är OM just det första spelet skulle kräva det är din favoritspel OCH att de gissar rätt på året.

Varför betala extra för att bli en beta-testare för en teknik för flera år i framtiden?
Om någon väljer att spendera extra och har inget emot att vara beta-testare "för att driva utvecklingen", fine, do it, men man ska inte gå in på forum år 2019 och säga "AMD är skräp för att de har inte raytracing" och lura de med mindre plånbok att de borde "spendera extra för att AMD är en poor mans GPU".

Att AMD inte släppt en GPU med specifik hårdvarastöd för DXR så betyder det inte att du inte kan få raytracing på Radeon.
CryTek visade en DXR tech-demo med en Radeon Vega 56 som funkar hur bra som helst och detta helt utan "RTX cores" och annat trams nVidia hypar upp/tvingar på marknaden, för att sälja kort, precis som G-Sync/FreeSync.

DX12 är något som har funnits i flera år och stödet är betydligt bredare än raytracing.
Samtidigt så är det inte lika tufft för utvecklarna att stödja detta.
Som du säkert känner till så utvecklas i princip alla multi-platform spel på X1/PS4 och sedan portas till PC.
X2/PS4 kommer att sätta standarden med DX12/Vulkan(aka AMDs Mantle) redan nästa år, vilket kommer att öka stödet enormt, långt innan raytracing etablerat sig.

Jag tror att vulkan är framtiden och samma sak med RNDA (kommer ju finnas i framtidens konsoler ps5 och nya xbox som i princip alla stortitlar kommer utvecklas mot). Om alla utvecklare optimerade sina spel som Strange brigade, doom eller Wolfenstein skulle man inte behöva mer än ett vega 56...

På tal om raytraying: https://www.fz.se/nyhet/280645-rtx-off-assetto-corsa-competiz..., visst är det bara ett spel, men intressant läsning.

Avseende eftermarknadskorten för navi känns priserna lite för saftiga (åtminstone här i Sverige). Möjligen också bortsett från mech OC som nämns ovan. Förhoppningsvis stabiliseras priserna de närmaste månaderna.

Skrivet av birdman:

Nej, det stämmer att de sa att de gissar att första spelet som kräver hårdvara för raytracing kommer 2023.
Dåligt uttryckt av mig.

Jag menade att raytracing är inget för 2019 och inte heller för 2020.
2023 är om 4 år och det är OM just det första spelet skulle kräva det är din favoritspel OCH att de gissar rätt på året.

Varför betala extra för att bli en beta-testare för en teknik för flera år i framtiden?
Om någon väljer att spendera extra och har inget emot att vara beta-testare "för att driva utvecklingen", fine, do it, men man ska inte gå in på forum år 2019 och säga "AMD är skräp för att de har inte raytracing" och lura de med mindre plånbok att de borde "spendera extra för att AMD är en poor mans GPU".

Att AMD inte släppt en GPU med specifik hårdvarastöd för DXR så betyder det inte att du inte kan få raytracing på Radeon.
CryTek visade en DXR tech-demo med en Radeon Vega 56 som funkar hur bra som helst och detta helt utan "RTX cores" och annat trams nVidia hypar upp/tvingar på marknaden, för att sälja kort, precis som G-Sync/FreeSync.

DX12 är något som har funnits i flera år och stödet är betydligt bredare än raytracing.
Samtidigt så är det inte lika tufft för utvecklarna att stödja detta.
Som du säkert känner till så utvecklas i princip alla multi-platform spel på X1/PS4 och sedan portas till PC.
X2/PS4 kommer att sätta standarden med DX12/Vulkan(aka AMDs Mantle) redan nästa år, vilket kommer att öka stödet enormt, långt innan raytracing etablerat sig.

Jag har inte ställt mig på varken din eller hans sida i om AMD ä ettr bättre köp eller om Nvidia är det. Däremot har jag rättat dig på dina rena faktafel som, av någon anledning, ingen annan gör utan bara gillar dina inlägg.

Och fungerade hur bra som helst? Nja..
https://m.sweclockers.com/nyhet/27488-crytek-forklarar-ray-tr...

Skickades från m.sweclockers.com

Senast redigerat 2019-08-16 21:07

Sjukt bra kort för pengarna!

Slåss jämt med 2070 Super i många nya titlar och slår den t.o.m i vissa!

Istället för att överclocka så rekommenderar jag att undervolta då det av sig själv klockar högre fast har samma effektivitet som oclockad!!

Hade jag köpt ny rigg nu så hade det definitivt blivit AMD rakt igenom.

Ryzen 3600 och 5700 XT.

Skrivet av drwlz:

Är ju sugen på 5700XT men blir lite nojjig över drivrutiner som folk verkar ha problem med här och där. Är det någon som äger ett kort och kan uttala sig?

Skickades från m.sweclockers.com

Har kört rx 5700 sedan release och inte haft problem alls förutom en gång när bilden blev grön, men försvann efter uppdatering till ny drivrutin. Använder frametarget flitigt som håller både ljud- och temperaturnivå samt strömförbrukning i schack.

Säkert en dum fråga som besvarats 100 gånger tidigare men varför kör man dx11 som standard när dx12 finns? Jag kan i alla fall inte minnas att man hållit kvar en sån gammal standard så länge när det finns en nyare version.

Skrivet av magma86:

Har kört rx 5700 sedan release och inte haft problem alls förutom en gång när bilden blev grön, men försvann efter uppdatering till ny drivrutin. Använder frametarget flitigt som håller både ljud- och temperaturnivå samt strömförbrukning i schack.

Det låter ju lovande

Skrivet av igelkotte:

Säkert en dum fråga som besvarats 100 gånger tidigare men varför kör man dx11 som standard när dx12 finns? Jag kan i alla fall inte minnas att man hållit kvar en sån gammal standard så länge när det finns en nyare version.

Jag gissar att det är för att DX12 fungerar så pass dåligt för många.

Såg väl inte så speciellt ut Devil 13 (2012) såg häftigare ut isåfall.
Lite lustigt med Red Devil då det är/var en energi dryck.

Skrivet av Boredbynoobs:

2070 Super med bra kylning går att få tag på för ca 6100kr och är bättre än det här...känns som detta hade behövt vara en tusenlapp billigare för att vara intressant då man går miste om vissa saker när man väljer AMD som exempelvis katastrofal Opengl drivrutiner, Raytracing, etc.

Jaså? Jag har fantastisk OpenGL-prestanda med mitt 290X? Kanske dags att titta på bättre operativsystem?

Skickades från m.sweclockers.com

Skrivet av ClintBeastwood:

Jag har inte ställt mig på varken din eller hans sida i om AMD ä ettr bättre köp eller om Nvidia är det. Däremot har jag rättat dig på dina rena faktafel som, av någon anledning, ingen annan gör utan bara gillar dina inlägg.

Och fungerade hur bra som helst? Nja..
https://m.sweclockers.com/nyhet/27488-crytek-forklarar-ray-tr...

Skickades från m.sweclockers.com

Vilka faktafel syftar du på, bara så jag förstår vad det är jag anklagas för?

"AMD/nVidia har själva sagt att det dröjer minst ett par år till innan man har nytta av raytracing i grafikkorten."

AMD/nVidia: första spelet som kräver raytracing kommer (optimistisk gissning?) år 2023 (om 4 år).
Min tolkning: raytracing kommer inte att vara relevant förrän om ett par (2) år i framtiden, för att senare år 2023, på allvar, börja etablera sig i spelindustrin.
Var detta fel tolkning?
Visst, kanske dåligt uttryckt men ej en grov feltolkning som du kanske vill få det till.

Att DX12 används i 9/10 spel?

Detta var inget som jag skrev som fakta, utan du antog att det var det jag menade.
Jag sa att han nämner inte DX12, som AMD har bättre stöd för än nVidia.

Han ville påpeka att man ska inte köpa AMD för att AMD har dålig stöd för OpenGL (irrelevant för 9/10 gamer).
Samt att han ignorera att AMD har en fördel i DX12, framtidens grundpelare, för inklusive DXR, just för att han är oärlig.

Edit: Missade denna:
"Och fungerade hur bra som helst? Nja.."

Det jag menade var att tekniken funkar hur bra som helst, även på ett AMD kort utan RTX-cores eller ens officiell stöd.
Resultatet är ju det samma som på RTX-korten.
Låga FPS även på 1080p, tecken på att tekniken är inte redo för att tvinga på konsumenterna.

Som att släppa en flygande bil för marknaden men den kan bara lyfta från marken med max en person på 20kg.
Nej, tack.
Återkom när korten kan uppnå minst 60 FPS i 1440p, sen kan ni kräva pengar från kunderna.

Senast redigerat 2019-08-16 21:59
Skrivet av birdman:

Vilka faktafel syftar du på, bara så jag förstår vad det är jag anklagas för?

"AMD/nVidia har själva sagt att det dröjer minst ett par år till innan man har nytta av raytracing i grafikkorten."

AMD/nVidia: första spelet som kräver raytracing kommer (optimistisk gissning?) år 2023 (om 4 år).
Min tolkning: raytracing kommer inte att vara relevant förrän om ett par (2) år i framtiden, för att senare år 2023, på allvar, börja etablera sig i spelindustrin.
Var detta fel tolkning?
Visst, kanske dåligt uttryckt men ej en grov feltolkning som du kanske vill få det till.

Att DX12 används i 9/10 spel?

Detta var inget som jag skrev som fakta, utan du antog att det var det jag menade.
Jag sa att han nämner inte DX12, som AMD har bättre stöd för än nVidia.

Han ville påpeka att man ska inte köpa AMD för att AMD har dålig stöd för OpenGL (irrelevant för 9/10 gamer).
Samt att han ignorera att AMD har en fördel i DX12, framtidens grundpelare, för inklusive DXR, just för att han är oärlig.

Edit: Missade denna:
"Och fungerade hur bra som helst? Nja.."

Det jag menade var att tekniken funkar hur bra som helst, även på ett AMD kort utan RTX-cores eller ens officiell stöd.
Resultatet är ju det samma som på RTX-korten.
Låga FPS även på 1080p, tecken på att tekniken är inte redo för att tvinga på konsumenterna.

Som att släppa en flygande bil för marknaden men den kan bara lyfta från marken med max en person på 20kg.
Nej, tack.
Återkom när korten kan uppnå minst 60 FPS i 1440p, sen kan ni kräva pengar från kunderna.

Det är ett helvete att sitta och klippa och klistra på mobilen men svarar på det sista så får du ett längre svar när jag sitter vid en dator. Crytek körde det alltså i 1080p, 30fps och i blogginlägget spånar han att det med rtx kunnat köra i 4k. Om du tänker hur mycket mer krävande 4k är än 1080p så kanske det ger dig en idé hur mycket den där "gimicken" i rtx-korten gör. Är det fortfarande helt okej när du tänker på hur raytracing dödar prestanda i spel på kort med dedikerad hårdvara?

Vi kanske borde flytta ut den här diskussionen i en egen tråd eller pm för vi är farligt offtopic nu. Oavsett, god kväll!

Skickades från m.sweclockers.com

Senast redigerat 2019-08-16 22:18

Får väl vara förhållandevis nöjd över att ha lyckats beställa ett sådant här för 5000 norska då. Även om det också är ett hiskeligt överpris i mina ögon. 2500 hade varit någorlunda rimligt.

Men, har väl inte så mycket att välja på. Antingen detta eller inget. Nvidia vägrar jag stödja för tillfället, så det blir väl ännu ett stödköp för AMD från min sida.

Tror jag ska bli nöjd med prestandan och ljudnivån i alla fall. Presterar ju gissningsvis något bättre än mitt (döda) Vega 64 LC, men verkar vara ännu tystare.

Skrivet av birdman:

Återkom när korten kan uppnå minst 60 FPS i 1440p, sen kan ni kräva pengar från kunderna.

Ok, så nu då. För det är redan verklighet i Metro, BFV och Tomb Raider med ett 2080.

Skrivet av ClintBeastwood:

Det är ett helvete att sitta och klippa och klistra på mobilen men svarar på det sista så får du ett längre svar när jag sitter vid en dator. Crytek körde det alltså i 1080p, 30fps och i blogginlägget spånar han att det med rtx kunnat köra i 4k. Om du tänker hur mycket mer krävande 4k är än 1080p så kanske det ger dig en idé hur mycket den där "gimicken" i rtx-korten gör. Är det fortfarande helt okej när du tänker på hur raytracing dödar prestanda i spel på kort med dedikerad hårdvara?

Vi kanske borde flytta ut den här diskussionen i en annan tråd?

Skickades från m.sweclockers.com

Saken är att tekniken, både på hårdvara och mjukvara stadiet, är väldigt omogen.
Så länge raytracing inte har det breda stödet i spel, så spelar det inte roll om en 2060 kan köra en tech-demo i 8k 144 fps.

Att AMD skulle faila idag säger ingenting om framtidens raytrace-krig, när raytracing är lika vanlig som DX12.
Det är inte en diskussion värt att ha 2019 men ville endast poängtera att det är inte rätt att tvinga på ofärdig produkt på konsumenter.
Om två år vet vi förhoppningsvis mer för att kunna dra bättre slutsatser men för tillfället så är tekniken omogen och inte redo.

Skrivet av Flygplanet:

Ok, så nu då. För det är redan verklighet i Metro, BFV och Tomb Raider med ett 2080.

Dagens spel fuskar väldigt mycket med raytracing.
De använder inte global raytracing, utan endast för vissa objekt bara för att kunna få det något spelbar.

Enligt nedan test så får RTX 2080, 39 fps snitt och så lågt som 27 fps.
Detta med ett grafikkort som kostar 7000 SEK som lägst.
Inte riktigt vad jag skulle kalla redo för mainstream...

Dold text

Som väntat då, ska man ha vettigt kort är från partner Riktigt bra ljudnivå med silent!

Skrivet av Boredbynoobs:

Tack för att du delade med dig av din magnifika kunskap. Jag som inte visste att opengl är förlegat...förutom att i princip varenda emulator använder det. AMD är helt skräp i många emulatorer av den anledningen. Vi snackar alltså Geforce 1650 som slår Radeon VII med råge pga att deras opengl är så horribla.

OpenGL är inte ett måste i flera fall. Dolphin exempelvis.

Dold text

Huh? Inga DX12 tester?

Skickades från m.sweclockers.com

Skrivet av KorpiSavu:

Jag gissar att det är för att DX12 fungerar så pass dåligt för många.

Om så är fallet finns det ens någon plan på att få det att fungera bättre heller då det funnits ganska länge också typ släppa dx12.1 eller nånting? Känns som att MS verkligen missköter sig på den fronten om jag får komma med den kritiken.

Vad hände med Dx12 och Vulcan-testerna?
Jag tycker att ni i fortsättningen ska jämföra korten i det API:t där korten presterar bäst. Själv struntar jag i vilket API som används då kvalitén ju är lika, men prestandan kan däremot skilja ganska mycket för respektive tillverkare beroende på vilket APi som används.

Hur kommer det sig att andra reviewers får så otroligt mycket bättre temperaturer och ljudnivåer på detta kort? ..

Och temperaturer kring 75 C.

Skrivet av Samlooh:

Hur kommer det sig att andra reviewers får så otroligt mycket bättre temperaturer och ljudnivåer på detta kort? ..

https://tpucdn.com/review/powercolor-radeon-rx-5700-xt-red-devil/images/fannoise_load.png

Och temperaturer kring 75 C.

Gå efter dom röda staplarna i Sweclockers temperaturtest. Olika ljudnivåer har nog mest med omgivningen att göra.

Skickades från m.sweclockers.com