Ser väl bra ut? Eller förväntar sig folk att det ska vara gratis att göra effekter och att Gameworks misslyckas kapitalt för saker som PCSS och HBAO+ faktiskt kostar FPS?
I RoTR verkar de flesta vara överens om att HBAO+ ger märkbart bättre kvalité än "vanlig" AO, är det inte ganska rimligt att högre renderingskvalité också blir lite dyrare att utföra? I alla dagens titlar som kör Gameworks går det att slå av de tekniker som implementeras via Gameworks, så är ju upp till var och en att bedöma kostnad vs renderingskvalité. Liksom svårt att se hur det kan vara ett problem då.
Att PCSS råkar vara dyrare på Fury X jämfört med 980Ti går nog att förklara om man läser den korta beskrivningen av tekniken jag länkade till. PCSS är en kombination av shader och shadow-map, det senare steget kommer belasta ROPs och inte shaders. Fury-serien är ganska obalanserad, eller den skiljer sig i alla fall från alla andra av dagens GPUer, i att shader-kapaciteten relativt rastrering och triangel-kapacitet är extremt förskjuten mot shaders. Fury har samma rastrering och triangel-kapacitet som motsvarande klockade 390/390X (som i sin tur har lägre rastrering och framförallt triangel-kapacitet jämfört med 970/980 vilket t.ex. märks i spel som använder tesselering).
EDIT: Var tvungen att läsa på lite om Hybrid Frustum Traced Shadows (HFTS). Som jag förstår det är detta en teknik som mer kanske beror på triangel-kapacitet än shaders, att då Maxwell hanterar detta mer effektivt är ju självklart då Maxwell har betydligt högre triangel-kapacitet än motsvarande GCN-modell. D.v.s. det är inte så att Gameworks aktivt pajar för GCN, men Nvidia är mycket väl införstådda med styrkorna och svagheterna i sina GPUer så självklart väljer de i första hand tekniker som spelar på deras produkters styrkor.
Nu verkar det som om HFTS inte alls gick att köra på Fury, stod det någon kommentar till det i artikeln? Från texten i dokumentet jag länkade får jag lite känslan att "raster order view" skulle kunna hjälpa här, men detta är ju en DX11 titel och ROV kräver feature level 12.1 (som Maxwell har men GCN1.2 saknar). Nu kan detta vara en titel som använder DX11.3, där kan man använda alla feature-levels från DX12.
Problemet är det som bl.a. du länkade till tidigare: Maxwell och GCN är varandras inverser i vad som är styrkor och vad som är svagheter. Av allt att döma kommer Polaris främst stärka upp sig på det som är dagens GCN-modellers svagheter, d.v.s. triangel-kapacitet!
Var detta jag tänkte på
"It's a complete mess at first sight.
Best case scenario for AMD is the absolute worst case scenario for Nvidia.
And exactly the same vice versa as well, if you count in the use of CUDA."
DX12 kommer nog bli en rätt "bumpy-ride" initialt, gissar att flera titlar kommer vara extremt tiltade mot ena eller andra lägret. Lär rätta till sig när AMD/Nvidia fått mer erfarenhet med DX12 och därmed anpassat sina designer till vad spelen faktiskt använder.
Och du anser att WCCF-tech har bevisat att det verkligen är i HBAO+ som problemet ligger och inte i DX12 eller AMDs drivare? Vad jag läst om HBAO+ problemet så nämner man bara GCN1.2 i samband med detta (380 och Fury-serien), men kanske någon som har spelet på 390/390X samt på något GCN1.0 som kan kommentera om det är ett generellt problem.
Gears of War har ju också problem med mikropauser på GCN1.1 och GCN1.2, ett problem som inte finns på GCN1.0 eller Nvidia. Är det rimligt att då förutsätta att problem även här är Gameworks och inte t.ex. AMDs drivers?
Även Nvidia hade problem i denna titel om man använder G-synk, något som många också försökte hävda "Gamewrecks" men som visade sig vara ett problem i Windows UWP plattform och dess hantering av "fullscreen" (Microsoft har tagit på sig detta och har lovat ett fix).
Har köpt både Gears of War och Ashes of the Singularity, av dessa två skulle jag säga att det förra är en långt stabilare titel just nu. AoS problem verkar nästan uteslutande kretsa kring DX12, har inte kört DX11 speciellt mycket (köpte spelet mest för att testa DX12) men så här långt har i alla fall spelet aldrig kraschat när man kör DX11 vilket inte kan sägas om DX12.
En annan intressant aspekt med AoS är hur få som klagar på att t.ex. SweC snabbtestade detta spel i "Extreme" i stället för "High". Precis som Witcher 3 + Hairworks lägger på brutalt mycket jobb på GPU utan att ge någon större visuell förbättring så är skillnaden mellan "High" och "Extreme" (eller "Crazy") minimal. Däremot så gynnas Nvidias GPUer långt mer av Extreme->High än AMDs.
Angående detta test och kommentarer likt "970 is doomed!": läser vi samma snabbtest? Majoriteten av de som kör kort som 970/390 kör också 1920x1080 och för att vara med i PC Master Race så har jag förstått att det är 60 FPS+ som gäller. Hur kan man dra någon annan slutsats än att 970 > 390 i 1920x1080 i detta spel då (statistisk kör ingen med referensmodell av vare sig 970 eller 390)?
I 2560x1440 med samma 60 FPS+ krav så är 970 == 390, d.v.s. ungefär som det "alltid" har varit.