AMD Radeon VII – först ut på 7 nanometer

Permalänk
Medlem
Skrivet av Elektron:

Bra video ni gjorde.
1 grad ifrån throttel lät ju som väl lite marginal. Lite damm med tiden kanske fyller ut den lilla marginalen. Förhoppningsvis kan de finjustera lite med drivrutiner.
Inget kort för ett itx-chassi med andra ord, men det antar jag att 2080/2080ti inte heller lämpar sig för? (Tänker luftkylt då)

Skickades från m.sweclockers.com

Min grabb har Rtx 2080 Ventus i ett nzxt h200i mitx, ligger på 70-72 grader vid spel i 1440p, standard fläktkurva, väldigt tyst, svårt att höra det med chassifläktar igång.

Permalänk
Skrivet av Dunder:

Nej, för då hade det inte låtit så mycket, i och med att man kunnat klocka ned det ordentligt. Vad ska du med 800 FPS till?

Framtidssäkert resten av ditt liv om inte annat

Permalänk
Medlem
Skrivet av stamp1s:

Min grabb har Rtx 2080 Ventus i ett nzxt h200i mitx, ligger på 70-72 grader vid spel i 1440p, standard fläktkurva, väldigt tyst, svårt att höra det med chassifläktar igång.

Det är bra. Dock rätt stort chassi (med itx mått då)
Jag hade detta kortet https://m.sweclockers.com/test/22680-asus-radeon-rx-480-dual-... 1060 3GB palit i ett CM elite 120 och landade på 83-84 grader som mest, dvs 8-9 grader högre än sweclockers test.

Permalänk
Medlem

Bra video pojkar!
Jag tror de flesta som är sura nu är det pga av AMD till skillnad från förut, har insett att det inte är hållbart att vara billigare än Nvidia för samma prestanda. Det enda det gjorde var att Nvidia var tvungna att sänka sina priser, och vid samma pris väljer ca: 8 av 10 ändå Nvidia. Helt logiskt val av AMD att få ut mer pengar av sina 15-20% av marknaden. Av samma anledning tror jag inte ett dugg på att Navi kommer kosta halva pengen mot Nvidias motsvarighet.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Keeper of Traditions
Skrivet av JonkenPonken:

Framtidssäkert resten av ditt liv om inte annat

Nej, det är också fel. Sluta tramsa och kliv in i verkligheten.

Visa signatur

|| Intel 8700K || Asus RTX 4070 TI Super TUF || Samsung 750 EVO 500GB & Kingston A2000 1TB & Samsung 960 EVO 250GB || Corsair RM 850x || Antec P183 || Asus G-Sync RoG Swift PG279Q || Dell XPS 15 || Thinkpad X220

The Force is like Duct Tape, it has a light side, a dark side, and holds the universe together.

Permalänk
Medlem

Ingenting är framtidssäkert oavsett specifikation. Nästa generation av något är alltid bättre än det vi har idag.

Permalänk
Medlem
Skrivet av JonkenPonken:

1) Vilket spel idag behöver 16GB?

2) Vilket spel imorgon behöver 16GB?

3) Kommer något spel nästa år behöva 16GB Vram? Troligtvis inte...

4) Dom flesta spelar inte med 4K upplösning.

5) Även om dom gjorde det så duger knappt kortet till den upplösningen med vad jag skulle våga påstå i dom flestas ögon en rimlig framerate (dvs helst inte under 60fps). Förutom i Battlefield där det faktiskt presterar riktigt riktigt bra. Men vem sjutton köper ett sådant kort för 1 eller 2 spel. Hade alla spel varit gjorda på Frostbite så "kanske" kortet hade varit en riktig hit.

6) Jag "tror" att när 16GB Vram blir en grej i spel, så är Radeon VII kraftigt underpresterande och förmodligen en passé arkitektur.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

@elajt_1: idag så maxar spelen på 8GB, så vi kommer se snart passera 8 GB m.a.o. Då är 12 eller 16 att föredra om man köper nytt som ska kunna spela morgondagens spel i bl.a. högre texturnivåer.

Permalänk
Medlem
Skrivet av HappyPie:

@elajt_1: idag så maxar spelen på 8GB, så vi kommer se snart passera 8 GB m.a.o. Då är 12 eller 16 att föredra om man köper nytt som ska kunna spela morgondagens spel i bl.a. högre texturnivåer.

Spel allokerar mycket vRAM för att dom kan, inte för att dom behöver.
Vissa spel allokerar bara så mycket vRAM som dom behöver, vissa allokerar lite mer än vad dom behöver, och vissa allokerar allt tillgängligt vRAM.

Som Steve på Gamer Nexus säger:

Citat:

"Memory usage is kind of a lie in a lot of cases. What you really know is how much memory the application requested, like, via GPU-Z for instance, but you don't truly know what memory the application is actually using, what it needs, so you get some games like Black Ops 3, that request 100% of the vRAM, and don't actually need all that much. So it is very difficult to test capacity utilization on these videocards with any level of meaningful accuracy."

Den dagen spel kommer behöva (på riktigt) 16 GB vRAM kommer Radeon VII (och samtliga nuvarande grafikkort från Nivida) vara hopplöst utdaterade, med en gpu-prestanda som fallerar långt innan grafikminnet tar slut.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av MinscS2:

Spel allokerar mycket vRAM för att dom kan, inte för att dom behöver.
Vissa spel allokerar bara så mycket vRAM som dom behöver, vissa allokerar lite mer än vad dom behöver, och vissa allokerar allt tillgängligt vRAM.

Som Steve på Gamer Nexus säger:

Den dagen spel kommer behöva (på riktigt) 16 GB vRAM kommer Radeon VII (och samtliga nuvarande grafikkort från Nivida) vara hopplöst utdaterade, med en gpu-prestanda som fallerar långt innan grafikminnet tar slut.

Den dagen spelet och dess inställningar du kör kräver 8.1GB då är droppar prestandan rejält.
Dessutom så tar Texturer plats, de är inte så beräkningstunga.

När t.ex. fury x släpptes så va det "bara" 4 GB och det räckte för då. Idag så skulle jag kunna spela med den bättre om den skulle ha haft 6-8 GB.
Jag väljer hellre ett 12GB+ kort idag än ett 8GB om jag köper ett nytt highend 4000kr+

Det är också hönan och ägget, precis som innan Ryzen "behövde" vi inte mer än 4 kärnor. "Behövde" innebar att utvecklarna inte hade någon incitament att koda motorn för fler än 4 kärnor, fanns ju inte mer än 4 ändå.
Idag vet vi att 6-8 är helst minimum för dagens spel och 12 är rimligtvis en bra balans för att möta morgondagen samt med möjlighet att enbart behöva uppgradera grafikkortet.

Det finns även liknande goda syften att gå över 8GB i spelmotorerna speciellt med högre detaljerade texturer, förbakade eller genererade texturerna t.ex. GI, AO eller annan render maps samt ladda in större delen av banorna speciellt som i open world spel eller reload:a hela eller delar av kommande banor.

Permalänk
Medlem
Skrivet av HappyPie:

Den dagen spelet och dess inställningar du kör kräver 8.1GB då är droppar prestandan rejält.

Visst är det så, men den dagen är inte här och kommer inte vara här på ett bra tag för 99% av användarna.

Skrivet av HappyPie:

Idag vet vi att 6-8 är helst minimum för dagens spel och 12 är rimligtvis en bra balans för att möta morgondagen samt med möjlighet att enbart behöva uppgradera grafikkortet.

Håller nog inte helt med om att 6-8 GB är minimum, såvida man inte spelar i 2160p. Skulle nog säga att 6-8 (iallafall 8) är standard och att 3-4 är minimum.

Många stirrar sig blinda på "vRAM-usage" i GPU-Z/MSI Afterburner och ser att spelet de spelar "använder" 7+ GB av (t.ex.) 8 GB vRAM och tänker "Oj, jag ligger på gränsen ju", men sanningen är att den faktiska användningen är mycket mindre.

Kollar man runt på diverse benchmarks (t.ex. Hardware Unboxed) så klarar sig 3GB och 4GB-varianterna av GTX 1060 och RX 580 fortfarande ganska bra, t.om. i 1440p - och om dom korten klarar 1440p idag, så kommer ett kort med 8 GB vRAM definitivt att klara av 1440p "imorgon".

"vRAM-panik" (syftar inte nödvändigtvis på dig nu HappyPie) är rätt vanligt bland hårdvarufantaster.
Jag minns hur många slog ner på GTX 680 för att det bara hade 2 GB vRAM, och att HD 7970 var mer framtidssäkert med sina 3 GB, och sen slogs det ner på GTX 780 som bara hade 3 GB jämfört med R9 290(X) som hade 4 GB. (Börjar få liknande vibbar nu när RTX 2080 och Radeon 7 jämförs om jag ska vara helt ärlig. )

Nu med facit i hand så är den enkla sanningen att för samtliga av dessa 4 kort (680, 780, 7970, 290X) så var det råprestandan som tog slut först allt eftersom grafikkorten blev mer krävande, och det var i ytterst få scenarion som det var grafikminnet som satte stopp först.

Jag känner mig bekväm med mina 8 GB vRAM på mitt RTX 2080, och jag kan nästan garantera att den dagen jag uppgraderar mitt grafikkort så beror det på att jag vill ha mer råprestanda, och inte på att mitt grafikminne inte räcker till.

Skrivet av HappyPie:

Det finns även liknande goda syften att gå över 8GB i spelmotorerna speciellt med högre detaljerade texturer, förbakade eller genererade texturerna t.ex. GI, AO eller annan render maps samt ladda in större delen av banorna speciellt som i open world spel eller reload:a hela eller delar av kommande banor.

Här säger jag inte emot då du har rätt i princip.
Med det sagt så har finns det en hel del tester där man kan påvisa att mer vRAM i många scenarion inte leder till (noterbart) högre FPS bara för att mer saker laddas in i grafikminnet. Det finns så klart undantag.

Allt som kan sätta lite eld i baken på utvecklare får däremot en av mig.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av HappyPie:

@elajt_1: idag så maxar spelen på 8GB, så vi kommer se snart passera 8 GB m.a.o. Då är 12 eller 16 att föredra om man köper nytt som ska kunna spela morgondagens spel i bl.a. högre texturnivåer.

I 4K upplösning med allting maxat kanske. Det berör fortfarande en liten liten del av alla spelare. Och som en del ovan redan hintat om, när över 11-12GB är nödvändigt så är förmodligen Radeon VII och RTX2080ti inte tillräckliga ändå, men vi får se helt enkelt.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av elajt_1:

I 4K upplösning med allting maxat kanske. Det berör fortfarande en liten liten del av alla spelare. Och som en del ovan redan hintat om, när över 11-12GB är nödvändigt så är förmodligen Radeon VII och RTX2080ti inte tillräckliga ändå, men vi får se helt enkelt.

"Maxat" texturer och render maps ja, men inte shader kvalite, partiklar, post effecter, dekaler ect för dessa är beräkningsintensiva och har inte så mycket med minnet att göra. Skilja vad som kräver minne och vad som kräver beräkningskraft.

Permalänk
Skrivet av elajt_1:

1) Vilket spel idag behöver 16GB?

2) Vilket spel imorgon behöver 16GB?

3) Kommer något spel nästa år behöva 16GB Vram? Troligtvis inte...

4) Dom flesta spelar inte med 4K upplösning.

5) Även om dom gjorde det så duger knappt kortet till den upplösningen med vad jag skulle våga påstå i dom flestas ögon en rimlig framerate (dvs helst inte under 60fps). Förutom i Battlefield där det faktiskt presterar riktigt riktigt bra. Men vem sjutton köper ett sådant kort för 1 eller 2 spel. Hade alla spel varit gjorda på Frostbite så "kanske" kortet hade varit en riktig hit.

6) Jag "tror" att när 16GB Vram blir en grej i spel, så är Radeon VII kraftigt underpresterande och förmodligen en passé arkitektur.

Spel?

Permalänk
Medlem

Nuförtiden så är det inte speciellt intressant med nya grafikkorts lanseringar. Antingen får priset eller prestandan en att tänka "Mitt 980ti får nog hänga med ett tag till."
Kommer ihåg när man fick 100% mer prestanda till samma eller bättre pris, det var tider det....

Skickades från m.sweclockers.com

Visa signatur

"Jag är så gammal att jag brukade styra med piltangenterna"
StoppaCopySwede
Fraktrfitt:Inet

Permalänk
Medlem
Skrivet av ipac:

Hur slår du på RTX på Radeon 7?

Du klockar ner det 50%.

Skickades från m.sweclockers.com

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av elajt_1:

1) Vilket spel idag behöver 16GB?

2) Vilket spel imorgon behöver 16GB?

3) Kommer något spel nästa år behöva 16GB Vram? Troligtvis inte...

4) Dom flesta spelar inte med 4K upplösning.

5) Även om dom gjorde det så duger knappt kortet till den upplösningen med vad jag skulle våga påstå i dom flestas ögon en rimlig framerate (dvs helst inte under 60fps). Förutom i Battlefield där det faktiskt presterar riktigt riktigt bra. Men vem sjutton köper ett sådant kort för 1 eller 2 spel. Hade alla spel varit gjorda på Frostbite så "kanske" kortet hade varit en riktig hit.

6) Jag "tror" att när 16GB Vram blir en grej i spel, så är Radeon VII kraftigt underpresterande och förmodligen en passé arkitektur.

Det finns en hel del användare som gör mer än spelar. Kör man t ex 3D-rendering med grafikkortsaccelererad rendering så är det mängden minne på grafikkortet som begränsar hur stor "scen" man kan rendera. Säkert finns det andra, mer nischade användningsområden som också är minneskrävande.

Sen är det väl så att den extrema minnesbandbredden, som är en viktig komponent i den totala prestandan, inte hade gått att få till med en mindre mängd minne, så enbart av det skälet verkar det vettigt.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

Jag funderar ändå lite...

Visst, AMD har mer eller mindre tagit ett MI50-kort och konfigurerat om det lite för att vara ett bättre grafikkort, och inte konkurrera med MI50-kortet. Så det var säkert aldrig aktuellt med en förstoring av kretsen. Men...

Om vi först antar att AMD inte tjänar mycket pengar utan kanske mest går jämnt upp på VII-korten, sen att ryktena om att minnet utgör halva kostnaden stämmer, då återstår ca 350 USD för resten av kortet. Av det är en del kretskortet med alla komponenter. Det är portar, backplate, skal, fläktar och kylaren. Marknadsföring, lagerkostnader, m m. Och då själva grafikprocessorn, som rimligtvis inte kan utgöra mer än max en 150-200 USD av totalen.

Låt säga då att AMD skulle göra en ny grafikprocessor baserat på denna, men med 50 procent högre kapacitet (fler "kärnor" eller vad det nu innebär i praktiken). Säg 150 USD extra, närmare en fördubbling? Sen en bättre kylare och fläktar. Säg 50 USD till?

Då skulle kortet ha en prestanda högre än ett 2080 Ti på allt utom raytracing, och med drygt 40 procent mer grafikminne. Och detta till ett lägre pris än ett 2080 Ti.

Visst, jag gissar friskt här. En omkonstruerad grafikprocessor kanske skulle bli väldigt mycket dyrare eftersom det skulle innebära en separat produktionslinje i förhållande till produktivitetskortens. Men om de skulle kunna göra det jag beskriver till samma eller marginellt högre pris än 2080 Ti, så skulle det nog innebära ett mentalt skifte hos branschen och konsumenterna. Att det finns en ny herre på täppan.

Att sen kortet skulle dra 450 W och låta som en JA-37 i starten, det får man kanske leva med...

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av jacozz:

Bra video pojkar!
Jag tror de flesta som är sura nu är det pga av AMD till skillnad från förut, har insett att det inte är hållbart att vara billigare än Nvidia för samma prestanda. Det enda det gjorde var att Nvidia var tvungna att sänka sina priser, och vid samma pris väljer ca: 8 av 10 ändå Nvidia.

nja är inte så säker på att så är fallet längre, iom deras framsteg på cpu marknaden. Rent logiskt borde dom försöka rida på den vågen lite och nischa in sig på någon funktion som fungerar klockrent tillsammans med Zen arkitekturen. (samma, lika = bättre). Dom har precis samma potential att köra över Nvidia som man gjorde med Intel. (har själv bara ägt Nvidia kort, med dagens priser tar jag gärna o provar ett kort från AMD).
Tyvärr tror jag inte vi kommer se något riktigt genombrott förrän ca:2021 "next gen" -dessvärre för AMD o Nvidia kommer nog (Samsung?) och Intel med sina modeller vid samma punkt.
Om jag inte minns fel så ryktades det redan 2017 att kort från AMD testades i självkörande bilar, maskininlärning och AI -kort som egentligen inte skulle släppas förrän 2021. (tidiga exemplar av Navi -next gen?) Om man nu suttit och vidareutvecklat detta sen dess - hoppas iaf jag på samma "in your face" effekt som Ryzen fått på marknaden.

Permalänk
Medlem
Skrivet av Ratatosk:

RT på ett RTX2060 är ganska meningslöst, kortet orkar inte med det, dessutom tar RT mer minne.

Framtidssäker. Det kommer ju givetvis mindre krävande spel än BFV.

Visa signatur

Laptop 4 13.5 - Ryzen 4680U - 16 GB DDR4 - 256 GB SSD

Permalänk
Medlem

Gtx 1080 släpptes för nästan 3 år sen... Om gtx 1080 skulle släppas på 7nm, hur mycket bättre skulle den vara amds nya kort? Vega är den sämsta gpu arkitekturen amd nånsin utvecklat och ju snabbare den skrotas desto bättre. Jag lägger mina förhoppningar på Navi.

Skickades från m.sweclockers.com

Permalänk
Medlem

Testade ni att använda kortet för video redigering? För det låter väldans intressant att den har 16Gb HBM2, så den borde vara il sket bra för att citera Emil i Lönneberga.

Visa signatur

Homer Simpson: "Internet! Is that thing still around?"

Continuously updating

Permalänk
Medlem
Skrivet av kelthar:

Du klockar ner det 50%.

Skickades från m.sweclockers.com

Ja det är ett intelligent förslag som ligger i nivå med det ursprungliga påståendet.

Permalänk
Medlem
Skrivet av cyklonen:

Det finns en hel del användare som gör mer än spelar. Kör man t ex 3D-rendering med grafikkortsaccelererad rendering så är det mängden minne på grafikkortet som begränsar hur stor "scen" man kan rendera. Säkert finns det andra, mer nischade användningsområden som också är minneskrävande.

Sen är det väl så att den extrema minnesbandbredden, som är en viktig komponent i den totala prestandan, inte hade gått att få till med en mindre mängd minne, så enbart av det skälet verkar det vettigt.

Jag har inte tagit upp content creation eller liknande. Kortet fungerar säkert strålande i många andra scenarior.
Men det är som sagt inte det jag pratade om utan gaming.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

@elajt_1: Man ser ju dock tydligt att BF1 (DX12) trottlar i 4K med ett 2080ti och Radeon 7 gör det inte. (tänker på minimum fps)

Permalänk
Hjälpsam

Det vore intressant att se hur mycket minne som används.
Ja jag vet att mer vram ockuperas än vad som används för stunden, men det vore ändå intressant.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Inaktiv

Bra prestanda, ja, men det är det enda. Kylningen och ljudnivån är oacceptabel. Kortet kostar runt 8 lakan, det är det definitivt inte värt. Skulle de kosta 4 lakan, då blir det köp och VA-kylning på det. Iofs finns det inga block ännu, men det lär komma då behovet är stort.
Hoppas partnertillverkarna lyckas med bättre kylare inom snar framtid.

Permalänk
Medlem
Skrivet av Zaarker:

@elajt_1: Man ser ju dock tydligt att BF1 (DX12) trottlar i 4K med ett 2080ti och Radeon 7 gör det inte. (tänker på minimum fps)

Ja. Menar du att 2080ti skulle varit bättre med en kraftfullare CPU eller vad säger du? Vet dock inte om det motsäger något jag sagt?

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av anon173108:

Bra prestanda, ja, men det är det enda. Kylningen och ljudnivån är oacceptabel. Kortet kostar runt 8 lakan, det är det definitivt inte värt. Skulle de kosta 4 lakan, då blir det köp och VA-kylning på det. Iofs finns det inga block ännu, men det lär komma då behovet är stort.
Hoppas partnertillverkarna lyckas med bättre kylare inom snar framtid.

En bra 3:e partskylare skulle kanske också kunna göra jobbet.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Redaktion
Praktikant ✨
Skrivet av Zaarker:

@elajt_1: Man ser ju dock tydligt att BF1 (DX12) trottlar i 4K med ett 2080ti och Radeon 7 gör det inte. (tänker på minimum fps)

Det handlar mer om att DX12-implementationen i BF1 fungerar helkasst ihop med Nvidia-kort, inte att något throttlar eller att minnet tar slut. Kika på DX11-delen av BF1 vid samma upplösning.

Skrivet av Ratatosk:

Det vore intressant att se hur mycket minne som används.
Ja jag vet att mer vram ockuperas än vad som används för stunden, men det vore ändå intressant.

Om det fanns något vettigt sätt att presentera såna siffror som har förankring i verkligheten så håller jag med om att det skulle vara intressant.