Vet inte vad du tittar på i de länkar jag ger, men slutsatsen i testet jag länkar till är denna
"We saw substantially smoother gaming across our suite of eight test scenarios out of the GeForce GTX 980 than we did from the Radeon R9 Fury. This outcome will be nothing new for those folks who have been paying attention. Nvidia has led in this department for some time now. I continue to believe this gap is probably not etched into the silicon of today's Radeons. "
Läser du vad man skriver (och liknande finns i AnandTech och Gamers Nexus tester) så är problemet inte genomsnittlig FPS, problemet är att AMDs kort får problem i scener där det händer mycket och i dessa fall droppar Fury X under referens 980 (notera 980, inte 980ti) även i 4k. Läser du längre ner i slutsatsen nämner man att deras subjektiva upplevelse stämmer överens med de uppmätta värdera, 980 upplevdes bättre än Fury X även i 4k och det trots att Fury X har bättre genomsnittlig FPS.
Huruvida just detta är något som löser sig i DX12 återstår att se, har för mig att bl.a. AnandTech (eller möjligen TomsHardware) skrev något om att de titlar som har stöd för Mantle fick något högre genomsnittlig FPS men problemet med den stora variansen kvarstod även där, något som eventuellt pekar på att problemet är HW-relaterat. En annan vink om att det kan var HW-problem är att Tahiti-kretsen inte har samma dippar, så är inte alls lika säker som TR om att detta inte är etsat i kretsen (men har inga bevis så säger inget med säkerhet).
Den andra länken visar ju rätt mycket att AMDs nuvarande (vem vet vad som händer i framtiden) drivare äter rejält mycket mer CPU jämfört med Nvidias nuvarande drivare i nuvarande titlar. I praktiken går detta problem att "lösa" genom att ha så pass kraftig CPU att GPU-delen ändå är flaskhals, vi har också sett att på en sådan konfiguration gav Mantle i stort sett ingenting så vet inte riktigt hur man kan förvänta sig stordåd från DX12.
Första länken visar också att 970 och 290X i stort sätt uppvisar identisk antal draw-calls, d.v.s. ingen fördel för någon. Star Swarm är en benchmark som togs fram specifikt som demo för hur bra Mantle är, så man kan inte hävda att den är designad för Nvidia/Maxwell. Runt februari i år fick även denna teknikdemo stöd för DX12 och då uppvisade 980 ~50% bättre prestanda än 290X.
Nu skulle jag säga att man absolut inte ska dra några växlar på vilket kort som kommer vara bättre i riktiga DX12 spel, men ser inget test som visar att AMD på något sätt gynnas mer av DX12 än Nvidia. Relativt sett ökar prestanda mer i 3D Mark testet då DX11 prestanda är bedrövligt för AMD och absolutvärdet i DX12 är att 970 och 290X är likvärdiga. Vi har sett i spel att "draw calls" inte är en flaskhals i dagens spel, inte ens på AMDs kort givet att man har en Intel i5 eller bättre.
Håller du inte med om att mätdata visar att idag har Nvidia bättre drivare för DX11, de hanterar "svåra" scener bättre (bättre lägstavärde för den procent med tyngsta scener i aktuella spel)? Mot den bakgrunden har jag svårt att se hur Nvidias övertag idag kan förklaras (enbart) med bättre PR.