Kan det vara en konspiration från Nvidias sida? de börjar sabotera för Maxwell i sina drivare för att kunna sälja mer Pascal.
Bra upptäckt Yoshman! detta borde Sweclockers undersöka.
För den som inte fattar det, jag skojar bara, de har antagligen helt enkelt byggt in någon förbättring i chippet.
Tror förklaringen är relativt enkel här: väldigt förenklat så fungerar en GPU så här:
en ström av jobb köas på en HW-kö (eller om man kör DX12/Vulkan på GCN eller Pascal, flera HW-köer)
någon form av schemaläggare bestämmer vilket jobb som ska köras härnäst
jobbet analyseras och delas upp i oberoende beståndsdelar, t.ex. så kan varje pixel och varje hörnpunkt (vertex) hanteras oberoende av alla andra, grafik är ett väldigt data-parallellt problem
fragment/vertex shaders körs på alla kärnor
Den största delen av tiden spenderas i 4., men notera 1-3 är en seriell process och Amdahls lag sätter därför en övre gräns för hur stor skalningen kan bli i delen där man använder alla kärnor.
Att denna del absolut inte är irrelevant kan man se i t.ex. 980 mot 980 Ti, 390 mot Fury X. I båda fallen här är prestanda per kärna helt klart högre i de mindre kretsarna (även skillnaden mellan 390 och 390X är fullt mätbar). Tror detta också är en stor del av förklaringen för 980 vs 1060, 1060 verkar ju ligga en bit efter 980 i t.ex. mining som nästan uteslutande spenderar tiden i den parallella delen (så prestanda är rätt linjärt mod shader-kapacitet).
Tänk nu vad som händer om man tar exakt samma design och klockar den X % högre; den seriella delen minskar proportionellt mot ökningen i frekvens. Om man nu använder den högre frekvensen till att kapa antal kärnor så att den parallella delen tar lika lång tid, vad har hänt då? Jo, enligt Amdahls lag ökar nu skalbarheten då den seriella delen har relativt sett blivit mindre.
Blev faktiskt förvånad över att Titan X skalade så pass bra jämfört med 1080, även i lägre upplösningar där den seriella delen blir än större framförallt fragment-shader kör kortare tid där (färre pixels som ska hanteras). Förklaringen är antagligen just att man minskat tiden som spenderas i den seriella delen tack vare högre frekvens.
Det får mig än mer att ställa den fråga jag ställt tidigare: varför har varken AMD eller Nvidia jobbat med att öka frekvensens tidigare? Är nästan tio år sedan dessa företag släppte GPUer som passerade 800 MHz, sedan har man under nästan ett decennium använt nod-krympningar till att göra bredare designer.
Kan ju vara så enkelt att den seriella delen inte varit ett problem innan nu. Men tror också att Nvidia lyckades förvåna sig själva med den effekt man fick i Maxwell där man ändå började dra upp frekvensen en bit över 1,0 GHz där man legat innan.
Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer