Nvidias 3090 kort åker på spö av 5600XT, pga "overhead" problem?

Permalänk
Medlem

Nvidias 3090 kort åker på spö av 5600XT, pga "overhead" problem?

Nvidias 3000-serie flaskar fullständigt vid cpu begränsning, enligt Hardware Unboxed.
Där AMDs "budget" kort 5600xt slår Nvidias 3090 kort på fingrarna och hamnar långt efter AMDs senaste kort när CPUn börjar tryta i 1080p speciellt..
Även med förhållandevis bra cpuer som Ryzen 2600X så flaskar 3000-serien på ett helt annat sätt än AMDs kort pga betydligt högre overhead.
Kanske är det vi också har sett i testerna när 3000-serien har varit väldigt klena i 1080p.

Lyckas inte få till 4k tabellen till ghost, suck..
https://cdn.sweclockers.com/artikel/diagram/21924?key=0da0e03...

Har grabbarna på sweclockers något att sätta tänderna i?
Var det Intels Core i9-10900K som räddade Nvidias lansering och kan Nvidia lösa problemet?
Eller har Hardware Unboxed haft otur med urvalet av spel?

Gissar att mitt 3080 får min 7700k att gråta, dags att få fingret ur..

Permalänk
Medlem

Väldigt intressant test.
Förklarar varför jag såg väldigt stor prestandavinst när jag gick från en 3700X (Medelmåttigt exemplar) med ett 3080 till en 5900X.

Edit: Exempelvis gick jag från ~100 FPS i Call of Duty på 1440P @ High till runt 160 efter bytet.
Efter jag bytte från 3080 till 6900XT så hoppade jag upp till 244 FPS average med SAM påslaget.

Visa signatur

Ryzen 5800X3D | 64 GB Ram | 7900 XTX | Samsung 990 Pro 4 TB + Seagate FireCuda 520 2TB * 2
Laptop: Core 9 Ultra 185H | 24GB Ram | RTX 4060 | 3 TB NVME

Permalänk
Medlem

Eftersom det är Hardware Unboxed så får man ju vara lite försiktig med att dra några slutsatser av det här testet, och speciellt när jag bara kan se att han testat 2 olika spel.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Intressant, själv har man en i-7 4770k och väntar på ett 3080...

Börjar nog bli dags att uppgradera resten av burken också.

Visa signatur

Lian Li O11 Dynamic XL, Be Quiet Dark power pro 12 1200w, Ryzen 9 3900X(EK velocity), MSI X570, Corsair Dominator 3200mhz, RTX 3090(Suprim X med EK block)+ RTX 3080(FTW3 Ultra med EK block). EK distro/pump O11 Dynamic XL, 2x EK 360mm radiatorer.

Legion 7, 5800H/RTX3080.

Permalänk
Inaktiv
Skrivet av Lodisen:

Väldigt intressant test.
Förklarar varför jag såg väldigt stor prestandavinst när jag gick från en 3700X (Medelmåttigt exemplar) med ett 3080 till en 5900X.

Edit: Exempelvis gick jag från ~100 FPS i Call of Duty på 1440P @ High till runt 160 efter bytet.
Efter jag bytte från 3080 till 6900XT så hoppade jag upp till 244 FPS average med SAM påslaget.

160fps med 3080 och 244fps med 6900xt kan inte stämma. Antar du har testat genom att ibland kolla vad du har för fps

Permalänk
Medlem

Det finns väl ingen som köper ett 3090 för att använda det i 1080p?

Permalänk
Medlem
Skrivet av npftd:

Det finns väl ingen som köper ett 3090 för att använda det i 1080p?

Då misstolkar du problemet fullständigt och är inte specifikt för 3090 utan för hela 3000 serien.
Har inget med 1080p överhuvudtaget egentligen, har du ett 3090 så har då förmodligen också en 144+hz skärm och då ligger du nästan alltid och nosar på en CPU begränsning.
Skillnaden är att du stöter på flaskhalsen betydligt tidigare med Nvidia och alla äldre Ryzen cpuer är en betydande flaskhals pga av Nvidias overhead.
Är det här ett verkligt problem och att ingen på hardware Unboxed har klantat sig fullständigt, så ligger Nvidia jävligt illa till.

Permalänk
Medlem
Skrivet av ramlösa:

Då misstolkar du problemet fullständigt och är inte specifikt för 3090 utan för hela 3000 serien.
Har inget med 1080p överhuvudtaget egentligen, har du ett 3090 så har då förmodligen också en 144+hz skärm och då ligger du nästan alltid och nosar på en CPU begränsning.
Skillnaden är att du stöter på flaskhalsen betydligt tidigare med Nvidia och alla äldre Ryzen cpuer är en betydande flaskhals pga av Nvidias overhead.
Är det här ett verkligt problem och att ingen på hardware Unboxed har klantat sig fullständigt, så ligger Nvidia jävligt illa till.

Jo det är ju inget vidare men investerar man i ett 3080 eller tillochmed ett 3090 och sitter på en budget-cpu så har man prioriterat fel. Och vilka titlar flaskhalsar CPU före GPU med en 5600x eller bättre t ex? Inga?

Permalänk
Medlem
Skrivet av CubaCola:

Eftersom det är Hardware Unboxed så får man ju vara lite försiktig med att dra några slutsatser av det här testet, och speciellt när jag bara kan se att han testat 2 olika spel.

Jag tycker att Hardware unboxed är fullt pålitliga samt att de testar fler än 2 spel. De har gjort minst 2 videor där de testar äldre cpuer med nya gpuer.

Permalänk
Medlem
Skrivet av CubaCola:

Eftersom det är Hardware Unboxed så får man ju vara lite försiktig med att dra några slutsatser av det här testet, och speciellt när jag bara kan se att han testat 2 olika spel.

Hardware unboxed är väl en av dom bättre att kolla reviews på? Känns opartiska.

Permalänk
Medlem
Skrivet av CubaCola:

Eftersom det är Hardware Unboxed så får man ju vara lite försiktig med att dra några slutsatser av det här testet, och speciellt när jag bara kan se att han testat 2 olika spel.

Ghost Recon Breakpoint har nog mycket besläktigat med Assassins Creed Valhalla och det liret älskar RX 6800 också
Flöt på tillräckligt på mitt 3080 dock och blygsam i7 7700K

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Medlem
Skrivet av ramlösa:

[...] är inte specifikt för 3090 utan för hela 3000 serien.[...]

Det är inte begränsat till 3000-serien, utan verkar vara mer av ett generellt problem med Nvidias drivrutiner. De såg samma sak när de testade med ett 2080 Ti. Skillnaden blir ju dock mer tydlig med 3000-serien, särskilt nu när AMD har ett grafikkort i toppsegmentet som vi kan jämföra med.

Visa signatur

Antec P280 | Corsair RM750x | ASUS ROG Crosshair VIII Dark Hero | Ryzen 9 5900X | G.Skill Trident Z RGB 3200MHz CL14 @3600MHz CL16 2x16GB | ASUS RTX 3080 TUF OC | WD SN850 1TB | Samsung 970 Pro 1TB | Samsung 860 Pro 1TB | Samsung 850 Pro 1TB | Samsung PM863a 3.84TB | Sound Blaster Z | 2x ASUS PG279Q

Permalänk
Medlem
Skrivet av CubaCola:

Eftersom det är Hardware Unboxed så får man ju vara lite försiktig med att dra några slutsatser av det här testet, och speciellt när jag bara kan se att han testat 2 olika spel.

Det är en fortsättning på upptäckter gjorda i en tidigare video: https://www.youtube.com/watch?v=AlfwXqODqp4
Där testade han Cyperpunk 2077, Rainbow 6 Siege, Horizon Zero Dawn, Shadow of the Tomb Raider, Watch Dogs Legion och Assassin's Creed Valhalla. För denna videon testade han även med totalt 7 GPUer och 5 CPUer där han inte inkluderat RX 6800, RTX 2080Ti och Ryzen 5 3600X i alla grafer för överskådlighetens skull.

Tycker personligen att HU är en av de bästa recensenterna, verkar seriösa och gedigna i sina tester jämfört med många andra tech-kanaler. Skulle denna video vara något som framkallar förbättring/förklaring gällande de upptäckter som gjorts, så vore ju det bara bra. Så klart kan man avvakta med slutsatser innan andra testar, det skadar aldrig.

Permalänk
Viking

Då börjar det nog verkligen bli dags att uppgradera CPU:n för mig, om inte NVidia på något sätt löser det här.

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem
Skrivet av anon201296:

160fps med 3080 och 244fps med 6900xt kan inte stämma. Antar du har testat genom att ibland kolla vad du har för fps

Så ovetenskaplig skulle jag inte kunna vara.

Då kör jag allt på High/Ultra (Det högsta som finns att välja till och med Anti-aliasing), förutom raytracing givetvis.

Beträffande nVidia så har jag inte kvar min resultat, men det var också en average givetvis.
https://youtu.be/f7S97LVef0A?t=296

Går dock att se väldigt liknande FPS när man kollar på youtube.

Sedan är det givetvis olika för olika personer. Jag ville bara dela med mig av rutten prestanda med en 3700X och ett 3080. Märkte knappt någon skillnad mellan 3700X och ett 5700XT och när jag bytte till ett 3080.
När 5900Xen åkte in så blev det en väldigt stor skillnad.

Ännu större skillnad när jag tryckte in 6900XT.
Just Call of Duty verkar ju läcka som ett såll när det kommer till Vram, och Cyberpunk är inte heller kännt för att vara väloptimerat.

Däremot gick jag från 800 FPS i Starcraft 2 (5900X/3080) till runt 400 FPS med 5900X/6900XT de flesta andra spelen så skiljer prestandan bara runt ~15%.

Visa signatur

Ryzen 5800X3D | 64 GB Ram | 7900 XTX | Samsung 990 Pro 4 TB + Seagate FireCuda 520 2TB * 2
Laptop: Core 9 Ultra 185H | 24GB Ram | RTX 4060 | 3 TB NVME

Permalänk
Medlem

"there is zero overhead when no gpus are available"

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av npftd:

Jo det är ju inget vidare men investerar man i ett 3080 eller tillochmed ett 3090 och sitter på en budget-cpu så har man prioriterat fel. Och vilka titlar flaskhalsar CPU före GPU med en 5600x eller bättre t ex? Inga?

En 5600x flaskar de flesta spelen, är orsaken det var en kontrovers om Hardware Unboxed på forumet för att de testade med Ryzen istället för Intel och fick helt andra siffror där 6800xt spöade Nvidia.
Titta på videon..
Så med din logik ska man byta CPU varje generation för att Nvidia inte kan skriva drivrutiner eller har fel designad hårdvara?
Så enligt dig är alla som köpte en Ryzen för 6 månader sen en idiot och det är fullständigt självklart att de måste byta cpu igen?
Eller så köper man en 6800xt och sparar 7k på att inte köpa en 10900k, som en normalt tänkande människa.

Jag har investerat i en RTX 3080 och har en Intel prolle, det här har inget med det röd/blå/gröna-lagen.

Permalänk
Medlem
Skrivet av oz_054:

Det är en fortsättning på upptäckter gjorda i en tidigare video: https://www.youtube.com/watch?v=AlfwXqODqp4
Där testade han Cyperpunk 2077, Rainbow 6 Siege, Horizon Zero Dawn, Shadow of the Tomb Raider, Watch Dogs Legion och Assassin's Creed Valhalla. För denna videon testade han även med totalt 7 GPUer och 5 CPUer där han inte inkluderat RX 6800, RTX 2080Ti och Ryzen 5 3600X i alla grafer för överskådlighetens skull.

Tycker personligen att HU är en av de bästa recensenterna, verkar seriösa och gedigna i sina tester jämfört med många andra tech-kanaler. Skulle denna video vara något som framkallar förbättring/förklaring gällande de upptäckter som gjorts, så vore ju det bara bra. Så klart kan man avvakta med slutsatser innan andra testar, det skadar aldrig.

Kollade på denna:

https://gamegpu.com/action-/-fps-/-tps/assassin-s-creed-valha...

Där kan man välja Valhalla, 1080P och grafikkort så får man upp fps för samtliga testade cpu:er.

Kollar man på Valhalla med RTX2080 Super så når övre hälften av alla cpuer 77fps.
Byter vi till RTX3070 så når samma cpuer 76fps.

Verkar det här rimligt eller är det en bugg tror vi?
Så man får alltså sämre fps genom att gå från ett 2080 super till ett rtx3070 i Valhalla

I watchdogs legion samma sak, 2080 Super är snabbare än RTX3070
https://gamegpu.com/action-/-fps-/-tps/watch-dogs-legion-2020... (båda Ubisoft titlar)

med RX6900xt:
5600x, samt 5900x får 114fps.
7700k, 8700k, 9700k, 9900k, 3700x, 3800x, 3900x, 10900k, 10700k, 10600k, 9600k får samtliga 109fps med RX6900xt.
3600x får också 109fps men 1fps lägre lägsta fps än de tidigare nämna korten.
2600x får 101fps
1600x får 91fps

Sedan väljer vi ett RTX3090 istället och då får:
8700k, 9700k, 9900k, 3600x, 3700x, 3800x, 3900x, 10900k, 10600k, 10700k, 5600x, 5900x = 96fps
i7 7700K får 95fps, även 9600k får 95fps men 1 fps lägre minsta fps.
2600x får 99fps
1600x får 73fps

Enda det här testet visar mig är att RTX3090 inte är lika snabbt i detta spel som RX6900XT.

Testet HWU är ändå ganska meningslöst i verklighetne då inte många promille som har ett av toppkorten sitter med en 1600x och spelar i 1080P Medium settings.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av Alrik:

Hardware unboxed är väl en av dom bättre att kolla reviews på? Känns opartiska.

Opartiska nog att få founders kort rykta för att de inte springer nvidias ärenden...

Är annars inte förvånad, tycker nvidias software stack är skräp och det här är bara bevis för det även om den har mer features.

Visa signatur

7800X3D//4090
MINT XFCE // W11 🤮

Permalänk
Medlem

Hur kan det här ens vara ett ämne?
Grafikkortstillverkarna bollar funktioner mellan GPU och CPU i sina drivrutiner.
Så har det alltid varit.
Varför inte använda allt tillgängligt för att förbättra prestandan?

Sitter man på en gammal CPU är det mycket möjligt att en GPU uppgradering inte allt blir vad man tänkt sig.
Framförallt inte om man redan var CPU begränsad....
Det var inga nyheter för 20 år sedan, och är det fortfarande inte.

Permalänk
Medlem
Skrivet av ramlösa:

En 5600x flaskar de flesta spelen, är orsaken det var en kontrovers om Hardware Unboxed på forumet för att de testade med Ryzen istället för Intel och fick helt andra siffror där 6800xt spöade Nvidia.
Titta på videon..
Så med din logik ska man byta CPU varje generation för att Nvidia inte kan skriva drivrutiner eller har fel designad hårdvara?
Så enligt dig är alla som köpte en Ryzen för 6 månader sen en idiot och det är fullständigt självklart att de måste byta cpu igen?
Eller så köper man en 6800xt och sparar 7k på att inte köpa en 10900k, som en normalt tänkande människa.

Jag har investerat i en RTX 3080 och har en Intel prolle, det här har inget med det röd/blå/gröna-lagen.

Jag har inte sett att den processorn eller bättre skulle flaskhalsa i något med ett rtx 3080 vid 1440p. Spelar man i 1080p är det CPUn som flaskhalsar först, what's new? Logiken att köpa ett 3080 för 1080p och köpa en billig processor är ju det komiska här så dessa fynd är ju irrelevanta?

Att bygga en riktig budget-PC för 1080p och sen betalar man 10k för en GPU och köper en processcor för 3k? Vem gör det liksom? Varken budget eller någon en normal människa skulle göra.

Permalänk
Medlem
Skrivet av firstofmay:

Opartiska nog att få founders kort rykta för att de inte springer nvidias ärenden...

Är annars inte förvånad, tycker nvidias software stack är skräp och det här är bara bevis för det även om den har mer features.

För en massa år sedan vägrade nästan recensenter att testa med AA/AF påslaget.
Detta trots att vissa tillverkare i princip designat sina kort runt detta.
Vi fick typ se 20 olika grafer varav 1 i slutet var med AA påslaget.
Nu vet vi ju att AA/AF var framtiden, i princip ett måste för att få någon form av kvalitet på renderingen.

Hårdvarutillverkarna kommer -alltid- att försöka få till scenarion där deras produkter presterar bäst.
Konstigt vore väl annars.
Och om recensenter bara testar med "gamla" spel så kommer såklart ny hårdvara med nyare funktioner inte att se så bra ut.

Permalänk
Medlem

Sitter med datorn i sign. Väntar ännu på att 5900X ska dyka upp hos svenska ÅF. Trots att jag planerar uppgradera kan jag inte påstå att jag märkt av att jag skulle vara CPU-bottleneck:ad i 4k, men vem vet...

Visa signatur

| 12900k w/ Noctua NH-D15 | Gigabyte Z690 Aorus Pro | 32GB DDR5 Kingston 4800mhz | Corsair MP600 XT M.2 1TB | Gigabyte RTX 3090 Vision OC | Be Quiet! Dark Base 900 Pro | Seasonic Prime TX 1000w | 1x LG GN950 (27" 4k 144hz IPS) + 2x LG 27UK850 (27" 4k 60hz IPS)

Permalänk
Medlem
Skrivet av Svensktiger:

Hur kan det här ens vara ett ämne?
Grafikkortstillverkarna bollar funktioner mellan GPU och CPU i sina drivrutiner.
Så har det alltid varit.
Varför inte använda allt tillgängligt för att förbättra prestandan?

Sitter man på en gammal CPU är det mycket möjligt att en GPU uppgradering inte allt blir vad man tänkt sig.
Framförallt inte om man redan var CPU begränsad....
Det var inga nyheter för 20 år sedan, och är det fortfarande inte.

Läste att AMD har ganska mycket overhead i DX11, men det valde ju "opartiska" hardware unboxed bort att testa :=)

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Har svårt att förstå dom som går HW tillverkarnas ärenden och i princip gör deras PR jobb gratis.
s.k "White knighting" är ju bara jobbigt att se.

Men visst, recensenter har ett stort ansvar här.
Bäst vore ju om dom helt slutade att skriva på avtal om releaser med veckor av "unboxings" etc. och såklart handplockade benchmarks på releasedagen.
Det finns helt klart plats för siter som helt enkelt köper hårdvaran och testar ordentligt.

Permalänk
Medlem
Skrivet av Svensktiger:

Hur kan det här ens vara ett ämne?
Grafikkortstillverkarna bollar funktioner mellan GPU och CPU i sina drivrutiner.
Så har det alltid varit.
Varför inte använda allt tillgängligt för att förbättra prestandan?

Sitter man på en gammal CPU är det mycket möjligt att en GPU uppgradering inte allt blir vad man tänkt sig.
Framförallt inte om man redan var CPU begränsad....
Det var inga nyheter för 20 år sedan, och är det fortfarande inte.

Skillnaden är AMD och Nvidias overhead skiljer sig åt märkbart och då är det ett problem.

Permalänk
Medlem

Det känns ganska allvarligt. Det har varit mumlande i forumtrådar i år och dar nu med driver overhead men ingen riktig åtgärd. AMD hade nackdelen i DX11 generellt verkar det som medan det verkar vara Nvidia som har problemen i DX12. Mest störande är att en stor aktör inom konsumentrecensioner Linus Tech Tips inte tycker det är hans ansvar att börja testa sånt här med nya grafikkortsrecensioner ens när det uppdagats. Baserat på vad han sade på WAN show nyligen.

Vi började få recensioner med frametimes som ett viktigt kapitel efter AMDs blunder där 6000-korten gav bra FPS men usel spelupplevelse (ett tag), så varför inte börja testa driver overhead nu? Ligger inte trycket på tillverkarna så fixar dom inte problemen.

Visa signatur

i7-2700K 5 GHz | 16 GB DDR3-1600 | ASUS Maximus V Gene Z77 | GTX 980
i7-4790K 4.8 GHz | 32 GB DDR3-2133 | ASUS Maximus VII Gene Z97 | GTX 980

Permalänk
Medlem

Intressant!

Jag önskar att jag fortfarande brydde mig! Men den perioden är över.
Rockar mitt RX590 Fortfarande!

Dock spelar jag inget!

Visa signatur

[IT-Dept]
Ryzen 1700 OC - 32 - 1070

Permalänk
Medlem
Skrivet av Teddis:

Det känns ganska allvarligt. Det har varit mumlande i forumtrådar i år och dar nu med driver overhead men ingen riktig åtgärd. AMD hade nackdelen i DX11 generellt verkar det som medan det verkar vara Nvidia som har problemen i DX12. Mest störande är att en stor aktör inom konsumentrecensioner Linus Tech Tips inte tycker det är hans ansvar att börja testa sånt här med nya grafikkortsrecensioner ens när det uppdagats. Baserat på vad han sade på WAN show nyligen.

Vi började få recensioner med frametimes som ett viktigt kapitel efter AMDs blunder där 6000-korten gav bra FPS men usel spelupplevelse (ett tag), så varför inte börja testa driver overhead nu? Ligger inte trycket på tillverkarna så fixar dom inte problemen.

Linus är inte en "hårdvarukanal" utan är en ren underhållningskanal som innehåller hårdvara.
Skulle säga att Linus & Co är smått inkompetenta när det kommer till test av hårdvara, tråkigt nog.
Inget fel med den inriktningen, så det kanske är bäst att de lämnar det till ex gamers nexus som kan spendera en timme på hur de utförde testet.

Permalänk
Skrivet av CubaCola:

Testet HWU är ändå ganska meningslöst i verklighetne då inte många promille som har ett av toppkorten sitter med en 1600x och spelar i 1080P Medium settings.

Skippar man de häftiga rubrikerna och istället fokuserar på icke-toppkorten, så är drivrutinernas overhead ändå ett problem.
Är väl inte acceptabelt att nVidias drivrutiner använder så mycket mer CPU-prestanda? Är inte så mycket en fråga om hur man slår i CPU taket idag, utan mer hur lång livslängd man kan få ur sina delar. Om en CPU-uppgradering kan göras efter 4 år istället för 3år för att man kör Radeon så är det en stor inbesparning i längden.
Så testen de gjort är kanske inte realistiska nu och idag, men gjorda för att framhäva en poäng.