Doom får stöd för Vulkan

Permalänk
Medlem
Skrivet av dahippo:

Om detta stämmer är Fury X uppe på 1080 nivåer.
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-am...

Smått sjuka gains.

Skulle fler spel se samma typ av optimering med nya APIer så¨som Hitman och Doom så hade kartan för korten vad man ska köpa ritats om.

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem
Skrivet av Yoshman:

Det enda som används på PC är det DX12 kallar "async shaders" (gissar att Vulkan kallar det något liknade). Här utför man flera grafiska operationer parallellt och väljer man "rätt" uppsättning beräkningar som kör parallellt, rätt här är att de ska stressa olika delar av GPUn, så får man samma vinst som SMT (Intel Hyperthreading) ger för CPUer. I praktiken har man sett <10 % prestandaboost så här långt. Async shaders var ett hett debatterat område på senaste Games Developer Conference, man hoppas kunna få en större boost i framtiden men man var lite bekymrad över att det krävs väldigt mycket tid (och därmed dyrt) för att optimera spel att fungera väl med detta.

https://www.youtube.com/watch?v=GlzKPBIjZPo&t=52s

I hans fall så verkar det ju vara upp till 13% (ibland 30%, men det kanske är osynk eller nån topp). Vilket är ganska mycket i min mening.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

100% gain på ett 260x? :
"FX 6300/ r7 260x with W10 in low settings. Went from 25-35 fps to 76-86 fps. I was waiting for Vulkan since the demo, Doom is now worth for me at 60 fps minimum , nice job Id Software!!"

Skickades från m.sweclockers.com

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem

Sweclockers! Test it nao plz!

Visa signatur

“Problems that remain persistently insoluble should always be suspected as questions asked in the wrong way.” ― Alan W. Watts

Permalänk
Medlem
Skrivet av PalmiNio:

Nu tar vi det lugnt!

Får inte bli för mycket av nya APIer för då blir helt plötsligt RX480 bättre än GTX980 och det kan man inte acceptera!

RX480 vs GTX980 med Vulkan AC:
https://www.youtube.com/watch?v=d8OLk2y6Acoit

På Youtube "Det här videoklippet har tagits bort av användaren."

Hmm...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av Yoshman:

Gissar att de "experter" du refererar till är fullt införstådda med att den absolut viktigaste vinsten att gå från OpenGL till Vulkan är väsentligt lägre "draw-call" kostnad (vilket hela tiden varit huvudsyftet med Metal, DX12 och Vulkan), något som överhuvudtaget inte har något med "async compute" att göra...

AMDs OpenGL drivare har aldrig varit speciellt bra, vilket också visar sig i hur AMD vs Nvidia ser ut med OpenGL drivare (Nvidias kort presterar bättre relativt hur det ser ut med DX11).

Async compute är en lysande teknik, för konsoler. Där ser man prestandavinster på 30-40 % enligt utvecklare och är främst två orsaker bakom detta.

  • största flaskhalsen för denna generations konsoler är CPU-delen, "async compute" göre det möjligt att flytta vissa generella beräkningar som är dyra till GPU-delen. De som någonsin fick bukt med PS3:ans Cell lär även förstå hur man kan utnyttja "async compute" till allt från fysikberäkningar, till kollisionsdetektering och liknande. Föga oväntat är Uncharted 4 (naughty dog, de som var överlägset bäst att hantera Cell) den titel som så här långt utnyttjat denna teknik mest effektivt så här långt. På PC är nästan alltid GPU-delen flaskhals, här finns det folk som tittar på hur man kan göra det omvända, d.v.s. flytta jobb från GPU till CPU för att kunna dra vettig nytta av de kraftigaste CPU-modellerna

  • konsoler har endast en enda HW-specifikation som utvecklare behöver bry sig om. Går därför att pressa ut betydligt mer ur även den andra varianten som "async compute" möjliggör, d.v.s. "async shaders".

"Async compute" i bemärkelsen utföra generella beräkningar på GPU-delen i stället för CPU-delen är därför totalt meningslöst och används inte heller.

Det enda som används på PC är det DX12 kallar "async shaders" (gissar att Vulkan kallar det något liknade). Här utför man flera grafiska operationer parallellt och väljer man "rätt" uppsättning beräkningar som kör parallellt, rätt här är att de ska stressa olika delar av GPUn, så får man samma vinst som SMT (Intel Hyperthreading) ger för CPUer. I praktiken har man sett <10 % prestandaboost så här långt. Async shaders var ett hett debatterat område på senaste Games Developer Conference, man hoppas kunna få en större boost i framtiden men man var lite bekymrad över att det krävs väldigt mycket tid (och därmed dyrt) för att optimera spel att fungera väl med detta.

Men anta att jag tagit allt detta från en plats där solen aldrig skiner, hur förklarar man då att med Vulkan är relativ prestanda mellan 970 och 480 ungefär det vi sett i andra titlar. Stödjer 970 "async compute" trots allt (svaret där är rent tekniskt ja, men då det krävs statisk partitionering av SMM blir effekten nästan alltid negativ om man använder tekniken på Maxwell)
http://media.gamersnexus.net/images/media/2016/game-bench/doom/vulkan/vulkan-doom-1440p.png

Nu finns det ju dock tester som visar en rejäl vinst med async compute i Doom både med och utan Vulkan vs ingen async compute så att du försöker förklara bort det även denna gång blir lite märkligt. Vi börjar ju se fler och fler tecken på en reell vinst med async compute, inte enbart overhead som du försöker hävda. Så det blir nog svårare och svårare för dig att förklara bort en till synes så trevlig "funktion".

Länkarna finns i den här tråden om du inte redan ögnat igenom dem.

Sedan tycker jag att det är rejält ledsamt att varje gång en tråd handlar om AMD, Nvidia eller båda så verkar du ha någon form av behov att bagatellisera det som är bra för AMD och tvärt om gällande Nvidia. Mycket sällan frångår du detta och jag begriper personligen inte hur andra än Nvidia-fantaster kan uppskatta dina inlägg. Personligen använder jag mer än gärna vilket märke som, och just idag är det Nvidia-kort. Men det är som sagt beklämmande och rejält tydligt vad det är du håller på med, rik på kunskap eller inte.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av Bengt-Arne:

På Youtube "Det här videoklippet har tagits bort av användaren."

Hmm...

We are working with NVIDIA to enable asynchronous compute in Vulkan on NVIDIA GPUs. We hope to have an update soon.

Därför han tog bort klippet för att det inte vart enable på nvidia korten.

Permalänk
Medlem
Skrivet av xorce:

We are working with NVIDIA to enable asynchronous compute in Vulkan on NVIDIA GPUs. We hope to have an update soon.

Därför han tog bort klippet för att det inte vart enable på nvidia korten.

OK! Tack...

Spännande, får se om det blir plus eller minus med AC

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Inaktiv

Här är en superb recension till varför Doom 4 är ett fiasko som Doom!

Permalänk
Medlem
Skrivet av awe m:

Länge leve ID och de öppnare utvecklings-APIerna. Man undrar dock om det blir någon märkbar prestandaförbättring och om Sweclockers kommer att undersöka detta.

Jag saknar personligen DOOM i samtliga grafiska prestandatester som görs idag. Jag skulle personligen vara väldigt intresserad av att veta hur Nvidia och AMD kort förhåller sig till det.

ID är sedan länge bara ett skitföretag av många. Igen av linux devsen är kvar, var helt andra bullar för när du kunder köra ID spel under linux eller på Alpha maskiner som körde Alpha Versionen av Windows NT med CPU'er som krossade X86.

Nu är dom så Linux allergiska och ovänliga mot sina users att dom tom måste ha värsta piratskydden som gör att det inte ens går att köra under wine i linux med lagal kopia från steam trots att Alpha/Beta utan skyddet fungerade felfritt.

ID blir bara värre och värre för varje ny motor och spel.

ID kan rotera på mitt mellanfinger.

Permalänk
Medlem
Skrivet av pa1983:

Nu är dom så Linux allergiska och ovänliga mot sina users att dom tom måste ha värsta piratskydden som gör att det inte ens går att köra under wine i linux med lagal kopia från steam trots att Alpha/Beta utan skyddet fungerade felfritt.

Skulle dock tro att valet av kopieringsskydd ligger hos utgivaren, Bethesda, och inte hos Id.
Borde Id försökt övertala dom att inte köra på Denuvo? Absolut

Skickades från m.sweclockers.com

Visa signatur

Stationär: Fractal Design Meshify 2 Compact, Ryzen 7 5700x, MSI MAG B550 Tomahawk, Kingston HyperX Fury 32GB 3600Mhz CL18, Sapphire Radeon RX 5700 Pulse, Kingston KC3000 1TB, Kingston A2000 1TB, Seasonic Focus GX 650W, Noctua NH-U14S

NAS: Fractal Design Define R5, Ryzen 3 1200AF, Asus Prime B450M-A, 32GB ECC DDR4 @ 2133Mhz, 5x WD Red 4TB (Raidz2), WD Red 2TB (stripe), TrueNAS 12.0

Permalänk
Medlem

ID's porblem oavset då det är deras image dom förstört och att alla Linuxutvecklare lämnat suger ännu mer. Vitt jag vet fick dom inte ens pröjs utan det var "hobby" verksamhet.

Vet att Icculus portat flera doom och quake spel och även gjort porter av unreal, bland annat UT2004. Fick äran att testa UT2004 64bit demot före officiell release av demot på gamla goda tiden då utvecklare brydde sig om minoriteten av hardcore fans.
Och ja det var en stor deal med 64bit då, tror nästan UT2004 var först med 64bit binär på den tiden, vet att Linux var först just pga AMD K8 arkitekturen så som AThlon64 eller Opteron som jag körde och Linux som var tidigt ute med 64bits stöd medans windows allt dröjde och intel fortfarande försökte få ut en 64bit x86 CPU.

Han laddade upp UT2004 64bit demot på min server efter vi pratade på IRC i gentoo Linux 64 bit kanalen så jag och några andra kunde testa det. Polaren och jag spelade skiten ur demot, SÅ man gör bra PR, I dag vill dom bara ha din plånbok.
Blev en kopia av UT2004 och polaren och jag körde skiten ur det också, inga piratkopieringskydd och skit, körde det på två burkar samtidigt i Lan under linux.
Faktum är att 90% av mina polare på den tiden körde Unreal, Quake och Doom spelen under linux då det var populära så användarbasen var ändå rätt märkbar på lan mm.

Tyvärr portas få Unreal spel till linux med, saknar gamla goda tiden man kunde gå och köpa sig senaste ID eller UE spelen och bara installera i Linux och köra.

Synd att folk nästan glömmer att för kunde du ha val av OS, du kunde tom köra spelen på annat än X86, Quake 3 fans till Digital Alpha och windows fans upp till 2000 Beta innan MS la ner stödet för 64bit Alpha arkitekturen.

Har faktiskt en sådan burk med fugnerande Quake 1, Quake 2 och Duke nukem 3D mm dock Linux på den med modernare portar av klienterna patchade för Alpha arkitekturen.

Utvecklingen går allt mer bakåt vad det gäller plattformstöd och öppenhet så som always online DRM och annat som gör att man inte har någon kontroll över mjukvaran eller vad den kan köras på.

Vulkan är AWSOME men ett steg fram hjälper inte två steg bakåt, jag kan köpa DOOM och titta på den fina lådan typ...

Permalänk
Medlem

Jag möter mycket konstigt med vulkan av / på. 980ti G1 Gaming

Open GL: hela tiden ligger jag runt 122-144fps
Vulkan: 92FPS *pretty much all time*

Men för mig så är animationer segare, vapen rör sig långsammare osv. Bara jag som känner så? Eller lagt märke till det?
DVS ogl 4.5 vs vulkan så väljer jag bort vulkan pga det blir som att köra på konsoll. väldigt mjukt i rörelser och långsamt.

Tror dock inte Nvidias drivare är mogen för vulkan fullt ut eller så gör Nvidia en DX12 fail på detta -_-

Permalänk
Medlem
Skrivet av anon114264:

Här är en superb recension till varför Doom 4 är ett fiasko som Doom!

Är du seriöst? Detta måste vara den sämsta recensionen av ett spel jag har sett på länge. Killen börjar sin video med "Jag har spelat spel i 20 år så jag vet hur ett Doom spel borde vara". Killen säger emot sig själv många av punkterna tex. Tex när han börjar klaga på hur man storyn. Minns han inte att man var tvungen att läsa då och då mellan uppdragen i Doom 1 och 2. Riktig jävla rant video från någon som inte fick precis som han ville.

Permalänk
Datavetare
Skrivet av Stoff3th3m4n:

Nu finns det ju dock tester som visar en rejäl vinst med async compute i Doom både med och utan Vulkan vs ingen async compute så att du försöker förklara bort det även denna gång blir lite märkligt. Vi börjar ju se fler och fler tecken på en reell vinst med async compute, inte enbart overhead som du försöker hävda. Så det blir nog svårare och svårare för dig att förklara bort en till synes så trevlig "funktion".

Länkarna finns i den här tråden om du inte redan ögnat igenom dem.

Sedan tycker jag att det är rejält ledsamt att varje gång en tråd handlar om AMD, Nvidia eller båda så verkar du ha någon form av behov att bagatellisera det som är bra för AMD och tvärt om gällande Nvidia. Mycket sällan frångår du detta och jag begriper personligen inte hur andra än Nvidia-fantaster kan uppskatta dina inlägg. Personligen använder jag mer än gärna vilket märke som, och just idag är det Nvidia-kort. Men det är som sagt beklämmande och rejält tydligt vad det är du håller på med, rik på kunskap eller inte.

Gissar att det är denna länk du refererar till där de jämför OpenGL, Vulkan och Vulkan+async

Vad visar den? Det är ju exakt det jag skriver!

Den stora vinsten får man när man går från OpenGL till Vulkan utan async. Lägger man sedan på async får man en lite extra boost, men precis som i alla andra lägen är den boosten <10 %.

Har inte på något sätt gjort "async compute" till en bagatell, det är en ruggigt bra finess på system där CPU-delen är flaskhals. För tillfället är det i praktiken bara konsolerna där CPU-delen är flaskhals och där ser man 30-40 % boost av "async compute" i de titlar som bäst använder tekniken!

Min invändning är bara att i detta fall är inte "async compute" den stora delen av prestandavinsten, utan den kommer från det som var huvudpunkten för Vulkan, DX12 och Metal d.v.s. "low overhead". Anledningen är att man i praktiken bara kan använda "halva" funktionen av "async compute" medan konsoler kan använda hela. Den del som PC kan använda är saker som att köra vissa 3D-beräkningar ihop med t.ex. post-processing, men där kan man inte räkna med några 30 % i prestandavinst. Även Oxide (Ashes of the Singularity) beskriver detta precis som jag gjort, d.v.s. jämför det med hyperthreading

"In can vaguely be thought of as the GPU equivalent of hyper threading. Like hyper threading, it really depends on the workload and GPU architecture for as to how important this is."

Vet inte vad som är beklämmande med detta. Bryr mig absolut noll om t.ex. AMD eller Nvidia skulle gå i putten och är överhuvudtaget inte intresserad av den finansiella statusen av börsnoterade multinationella företag vare sig de heter AMD, Nvidia eller något annat. Det enda som intresserar mig är tekniken i sig och är bara tekniken jag vill diskutera. Av någon anledning spårar alltid dessa diskussioner ur, själv vill jag bara belysa det faktum att det främst inte är "async compute" som ger vinsten, "async compute" ger absolut en vinst men <10% är i nivå med vad kort med eftermarknadskylare får i boost och det verkar få gå igång på.

Är snarare alla som skriker "async compute" i alla dessa artiklar som förringar vad Microsoft gjort med DX12, vad Apple gjort med Metal och vad Khronos gjort med Vulkan då den stora nyheten i alla dessa är möjligheten att programmera grafikkort på ett sätt som belastar CPU-delen mycket mindre och kanske främst möjliggör att använda moderna CPU-delar fullt ut. Den delen är inte lika uppenbart viktig på PC som har Intel CPUer med brutal enkeltrådprestanda, men det är absolut kritiskt för konsoler och kanske än mer för ARM-tillverkarna som har relativt svaga CPU-delen fast där den enklaste telefon idag har många kärnor.

"Async compute" en funktion bland många som dessa APIer möjliggör. Just på PC är detta ungefär lika viktigt som SMT på mult-core CPUer, d.v.s. knappast kritiskt men det är absolut en trevlig finess.

Vad det gäller att köpa kort: spelar faktiskt mest på konsol så kör bara AMD där. På PC har jag mest ett kort för att kunna testa/programmera DX12 och Vulkan, då datorer är min hobby och arbete är budgeten för detta i praktiken obegränsad. D.v.s. idag skulle jag köpa ett 1080 då det är snabbast och har en rimlig strömförbrukning (vill inte ha något >200 W). Men rent principiellt bryr jag mig inte om det är Nvidia eller AMD, har genom åren haft långt fler AMD kort än Nvidia kort (har då helt enkelt ansett att AMD varit bättre i fler lägen).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman:
Shader Intrinsic Functions är ett väldigt intressant spekulationskapitel för prestandavinsten vill jag påstå (läste om det nyss på ett annat forum), vad tror du? Lite så där lagom så släppte AMD det nu i slutet på maj för Vulkan och DirectX 12, undrar om man jobbat med Bethesda för få Doom att vara den första titeln som utnytjar just Shader Intrinsic Functions och Async Compute. OpenGL stödjer väl inte detta i 4.5?
http://www.forbes.com/sites/patrickmoorhead/2016/05/24/amd-br...

Permalänk
Medlem
Skrivet av Stoff3th3m4n:

Nu finns det ju dock tester som visar en rejäl vinst med async compute i Doom både med och utan Vulkan vs ingen async compute så att du försöker förklara bort det även denna gång blir lite märkligt. Vi börjar ju se fler och fler tecken på en reell vinst med async compute, inte enbart overhead som du försöker hävda. Så det blir nog svårare och svårare för dig att förklara bort en till synes så trevlig "funktion".

Länkarna finns i den här tråden om du inte redan ögnat igenom dem.

Sedan tycker jag att det är rejält ledsamt att varje gång en tråd handlar om AMD, Nvidia eller båda så verkar du ha någon form av behov att bagatellisera det som är bra för AMD och tvärt om gällande Nvidia. Mycket sällan frångår du detta och jag begriper personligen inte hur andra än Nvidia-fantaster kan uppskatta dina inlägg. Personligen använder jag mer än gärna vilket märke som, och just idag är det Nvidia-kort. Men det är som sagt beklämmande och rejält tydligt vad det är du håller på med, rik på kunskap eller inte.

Tänkte i dom banorna men du uttryckte det bättre.

Skickades från m.sweclockers.com

Visa signatur

SpelDator: | Asus ROG Strix XG438Q 4K 120hz| AMD Ryzen 5 5600X 3.7 GHz 35MB| B450 I AORUS PRO WIFI| MSI Radeon RX 6800 16GB | Corsair Force MP510 1920GB M.2 NVMe | Samsung EVO 860 2TB | Seagate Guardian BarraCuda 2.5 5TB| Corsair 32GB (2x16GB) DDR4 3600MHz CL18 Vengeance LPX Svart| Ghost S1 MK2| Corsair SF750 750W 80+ Platinum| Logitech MX Sound| WD My Passport V2 USB 3.0 4TB| Buffalo Mediastation Ultra-Thin Portable Blu-Ray writer| Logitech Logitech G604 Lightspeed

Permalänk
Avstängd
Skrivet av Ekorrism:

Jag möter mycket konstigt med vulkan av / på. 980ti G1 Gaming

Open GL: hela tiden ligger jag runt 122-144fps
Vulkan: 92FPS *pretty much all time*

Men för mig så är animationer segare, vapen rör sig långsammare osv. Bara jag som känner så? Eller lagt märke till det?
DVS ogl 4.5 vs vulkan så väljer jag bort vulkan pga det blir som att köra på konsoll. väldigt mjukt i rörelser och långsamt.

Tror dock inte Nvidias drivare är mogen för vulkan fullt ut eller så gör Nvidia en DX12 fail på detta -_-

Fungerade bra för mig igår kväll. Fick 150-200 FPS med Vulcan. Hade ju redan 120+ konstant så för mig blev det ingen jätteskillnad i upplevelsen.

Skickades från m.sweclockers.com

Visa signatur

http://iogt.se/
du blir ful och dum av sprit
flow är lek

Permalänk
Medlem
Skrivet av anon5930:

Fast... på dator så är spelet inlåst på Steams DRM-plattform. Den är rätt låst med egentligen.

Stämmer bra att Steam är inlåsning, dock finns det tillgängligt för de största plattformarna. I detta fall var syftet att diskutera tillgängligheten av ett spel på olika plattformar och egentligen inte kring DRM -som jag för övrigt inte förstår syftet med i modern tid-

Om man skall se till historien kommer DOOM aldrig släppas för andra plattformar än Windows (med undantag för konsoler) även om det körs på en cross-platform renderer.
Så det känns som lite slöseri med resurser då det bör vara relativt lätt att anpassa spelet till även Mac och Linux.
Ironin kring att Windows är den enda PC-plattformen som spelet släppts på men där man har minst 3 olika renderers att välja mellan (OpenGL, DirectX samt Vulkan). Ska man nu blanda in konsoler så lär väl DOOM även vara anpassat för DirectX med tanke på att det finns för Xbox? Men som jag skrev tidigare, man kan alltid hoppas på ett trendbrott. Men det faktum att det står Zenimax talar alltid emot ett sådant.

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Medlem
Skrivet av Pudeln:

Hawaii åldras som ett bra vin. Inte ofta det händer I datorvärlden.

Som sagts flera gånger, det är fördelen med AMD's kort, mitt 7970 blev också klart bättre med tiden

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem
Skrivet av chipw00t:

Fungerade bra för mig igår kväll. Fick 150-200 FPS med Vulcan. Hade ju redan 120+ konstant så för mig blev det ingen jätteskillnad i upplevelsen.

Skickades från m.sweclockers.com

hmms, jag upplevde ingen uppgrade i FPS snarare downgrade och slowmotion i animationer.
Dock vet jag inte vad det är för vissa som dig säger att det ger boost som fan, och andra nerf.. Hur allt nu kan vara så som :/
Vad har du för drivare idag?

Upplever samma fenomen som denna video:
https://www.youtube.com/watch?v=d16FlJxp-sw

Permalänk
Datavetare
Skrivet av Kraeshok:

@Yoshman:
Shader Intrinsic Functions är ett väldigt intressant spekulationskapitel för prestandavinsten vill jag påstå (läste om det nyss på ett annat forum), vad tror du? Lite så där lagom så släppte AMD det nu i slutet på maj för Vulkan och DirectX 12, undrar om man jobbat med Bethesda för få Doom att vara den första titeln som utnytjar just Shader Intrinsic Functions och Async Compute. OpenGL stödjer väl inte detta i 4.5?
http://www.forbes.com/sites/patrickmoorhead/2016/05/24/amd-br...

Det kan absolut förklara en del i vinsten. Men det faktum att även 1080 ser en boost, fast bara i 1920x1080 där CPU-delen är långt sannolikare en flaskhals än i högre upplösning p.g.a. högre FPS i lägre upplösning, pekar på att enkeltrådprestanda är en flaskhals. Med tanke på storleken, ~20%, på den boost som 1080 ser i 1920x1080

medan vinsten är noll i 4k (som har betydligt lägre absolut FPS så CPU-delen är inte alls lika stressad)

och med tanke på att Pascal just nu varken har "async shader" stöd eller använder "shader intrinsic functions" så finns det uppenbarligen andra vinster med Vulkan över OpenGL än "async shaders".

Frågan man kan ställa sig är varför det är så lite kritik mot "shader intrinsic functions" givet hur mycket liv det brukar vara kring Gameworks. Personligen tycker jag det är fullt logiskt att AMD försöker pusha för "shader intrinsic functions" givet att man just nu levererar GPUerna till alla aktuella konsoler. Det man kan vara kritiskt mot är att hela poängen med "shader intrinsic functions" är att det möjliggör att gå ifrån DX12/Vulkan standarden och skapa något som är helt bunden till en viss GPU ISA.

AMDs tanke är naturligtvis att konsolutvecklarna sitter på ett växande bibliotek av GPU-funktioner som är hårdoptimerade för ISA i GCN1.0, "shader intrinsic functions" gör det möjligt att köra denna kod på PC trots att den inte är kompatibel med DX/OpenGL/Vulkan-standarden.

Självklart tweakar Nvidia sina Gamework bibliotek för att fungera så optimalt som möjligt med deras senaste GPUer, men Gameworks är fortfarande helt byggt på standardfunktioner i DX11/12 och kan därför köras på alla GPUer som implementerar dessa APIer. De "shader intrinsic functions" som t.ex. DOOM använder går överhuvudtaget inte att köra på andra GPUer än GCN1.0 och senare GCN.

Vad kommer rimligen Nvidias svar bli? Erbjuda samma funktioner via standardfunktioner i DX/Vulkan, antagligen om det inte finns någon prestandanackdel. Men om det inte fanns någon prestandanackdel, varför pushar då AMD "shader intrinsic functions" så hårt? Risken är att Nvidias svar blir något som på samma sätt är bundna till deras kort, med ett Gameworks eller liknande som verkligen är helt bundet till en viss tillverkare. Glide FX var ju väldigt effektivt på Voodo-korten, men vill man tillbaka till den tiden?

Är som sagt främst konsolspelare så påverkar inte mig som gamer. Men blir spännande att följa utvecklingen kring detta. Av alla saker AMD hittat på de senaste åren kring 3D så har "shader intrinsic functions" långt större möjligheter att lyckas än allt övrigt just då man är leverantör för alla konsoler och konsoler står för en klar majoritet av omsättningen på spelmarknaden, d.v.s. finns all anledning för spelutvecklarna att lägga väldigt mycket krut på att hårdoptimera för GPU i konsoler.

@PalmiNio: ser nu varför prestandadelta mellan 480 och 970 i OpenGL blev fel. Länkade grafen för 2560x1440, där är relativa skillnaden precis som du påpekar ~20 %. Det jag slog in på miniräknaren och skrev i min förra post var från 1920x1080, där är relativa skillnaden ~30 %.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Gissar att det är denna länk du refererar till där de jämför OpenGL, Vulkan och Vulkan+async
https://www.youtube.com/watch?v=GlzKPBIjZPo&t=52s

Vad visar den? Det är ju exakt det jag skriver!

Den stora vinsten får man när man går från OpenGL till Vulkan utan async. Lägger man sedan på async får man en lite extra boost, men precis som i alla andra lägen är den boosten <10 %.

Har inte på något sätt gjort "async compute" till en bagatell, det är en ruggigt bra finess på system där CPU-delen är flaskhals. För tillfället är det i praktiken bara konsolerna där CPU-delen är flaskhals och där ser man 30-40 % boost av "async compute" i de titlar som bäst använder tekniken!

Min invändning är bara att i detta fall är inte "async compute" den stora delen av prestandavinsten, utan den kommer från det som var huvudpunkten för Vulkan, DX12 och Metal d.v.s. "low overhead". Anledningen är att man i praktiken bara kan använda "halva" funktionen av "async compute" medan konsoler kan använda hela. Den del som PC kan använda är saker som att köra vissa 3D-beräkningar ihop med t.ex. post-processing, men där kan man inte räkna med några 30 % i prestandavinst. Även Oxide (Ashes of the Singularity) beskriver detta precis som jag gjort, d.v.s. jämför det med hyperthreading

"In can vaguely be thought of as the GPU equivalent of hyper threading. Like hyper threading, it really depends on the workload and GPU architecture for as to how important this is."

Vet inte vad som är beklämmande med detta. Bryr mig absolut noll om t.ex. AMD eller Nvidia skulle gå i putten och är överhuvudtaget inte intresserad av den finansiella statusen av börsnoterade multinationella företag vare sig de heter AMD, Nvidia eller något annat. Det enda som intresserar mig är tekniken i sig och är bara tekniken jag vill diskutera. Av någon anledning spårar alltid dessa diskussioner ur, själv vill jag bara belysa det faktum att det främst inte är "async compute" som ger vinsten, "async compute" ger absolut en vinst men <10% är i nivå med vad kort med eftermarknadskylare får i boost och det verkar få gå igång på.

Är snarare alla som skriker "async compute" i alla dessa artiklar som förringar vad Microsoft gjort med DX12, vad Apple gjort med Metal och vad Khronos gjort med Vulkan då den stora nyheten i alla dessa är möjligheten att programmera grafikkort på ett sätt som belastar CPU-delen mycket mindre och kanske främst möjliggör att använda moderna CPU-delar fullt ut. Den delen är inte lika uppenbart viktig på PC som har Intel CPUer med brutal enkeltrådprestanda, men det är absolut kritiskt för konsoler och kanske än mer för ARM-tillverkarna som har relativt svaga CPU-delen fast där den enklaste telefon idag har många kärnor.

"Async compute" en funktion bland många som dessa APIer möjliggör. Just på PC är detta ungefär lika viktigt som SMT på mult-core CPUer, d.v.s. knappast kritiskt men det är absolut en trevlig finess.

Vad det gäller att köpa kort: spelar faktiskt mest på konsol så kör bara AMD där. På PC har jag mest ett kort för att kunna testa/programmera DX12 och Vulkan, då datorer är min hobby och arbete är budgeten för detta i praktiken obegränsad. D.v.s. idag skulle jag köpa ett 1080 då det är snabbast och har en rimlig strömförbrukning (vill inte ha något >200 W). Men rent principiellt bryr jag mig inte om det är Nvidia eller AMD, har genom åren haft långt fler AMD kort än Nvidia kort (har då helt enkelt ansett att AMD varit bättre i fler lägen).

Då kommer enkelt följdfrågorna:
1. Om det nu är bara low overhead som ger boosten, vad stoppar nVidia kort från att se den boosten?

Din syn på att det bara gynnar konsol blir ganska fel när verkligheten är att det gynnar antalet Kärnor i första hand. Visst det är 8 kärnor i en konsol idag vilket ger bra med vinst men samtidigt är 4-6 kärnor det man bygger gaming PC idag på.

En av de största fördelarna är att fler trådar på CPUn kan jobba samtidigt mot GPUn vilket troligen är största anledningen till att AMD ser stor vinster medan nVidia ser små, fast testerna är på samma CPU.

Tycker det är du som förringar AMDs jobb genom att hela tiden falla tillbaka till på att det bara är "Low Overhead". Det är just AMDs ACE som gör att Low Overhead principen i DX12 och Vulkan fungerar så bra medan det är värdelöst på GTX korten.

Maxwell klarar inte att få parallell draw calls från olika kärnor/trådar i CPUn utan CPUn måste först ordna dem seriellt vilket blir en tråd skickar till en tråd. på AMD kan flera CPU kärnor jobba samtidigt mot CGN via ACE.

Så ja: det belastar CPUn mindre men med rätt GPU så jobbar dem två tillsammans effektivare.

Vad gäller AC i övrigt vad gäller "vissa 3D-beräkningar ihop med t.ex. post-processing" så vet jag inte hur du riktigt får det att bli en limit till upp till 10%, baserar du det på nuvarande implementationer av AC på PC eller vet du att gränsen ligger kring 10%? Frågan är mer hur aktivt AC används i nuvarande spel (RotTR, Doom) jämfört med vad det kan samt vilka andra jobb redan är Async utan att man tickar i AC? T ex så skulle Async körning av Copy för att streama Texturer. Kanske förklarar varför Fury med HBM och GTX 1080 med GDDRX skalar så bra då de kan jobba mer aktiv med streaming av texturer (spekulation).

Troligen så är det samma sak vi ser idag som vi ser när CPUerna gick från 1 kärna till flera, ingen större gain tills man började lära sig att jobba mer parallellt. Så om man idag klämmer ut 10% extra genom AC så är jag ganska övertygad om att denna siffra kommer växa med tiden.

Men den som lever få sen, oavsett vad så verkar inte dina teorier om small gain på lägre CGN kort stämma, heller inte stora gains på små Maxwell kort heller.

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Datavetare
Skrivet av PalmiNio:

Då kommer enkelt följdfrågorna:
1. Om det nu är bara low overhead som ger boosten, vad stoppar nVidia kort från att se den boosten?

Din syn på att det bara gynnar konsol blir ganska fel när verkligheten är att det gynnar antalet Kärnor i första hand. Visst det är 8 kärnor i en konsol idag vilket ger bra med vinst men samtidigt är 4-6 kärnor det man bygger gaming PC idag på.

En av de största fördelarna är att fler trådar på CPUn kan jobba samtidigt mot GPUn vilket troligen är största anledningen till att AMD ser stor vinster medan nVidia ser små, fast testerna är på samma CPU.

Tycker det är du som förringar AMDs jobb genom att hela tiden falla tillbaka till på att det bara är "Low Overhead". Det är just AMDs ACE som gör att Low Overhead principen i DX12 och Vulkan fungerar så bra medan det är värdelöst på GTX korten.

Maxwell klarar inte att få parallell draw calls från olika kärnor/trådar i CPUn utan CPUn måste först ordna dem seriellt vilket blir en tråd skickar till en tråd. på AMD kan flera CPU kärnor jobba samtidigt mot CGN via ACE.

Så ja: det belastar CPUn mindre men med rätt GPU så jobbar dem två tillsammans effektivare.

Vad gäller AC i övrigt vad gäller "vissa 3D-beräkningar ihop med t.ex. post-processing" så vet jag inte hur du riktigt får det att bli en limit till upp till 10%, baserar du det på nuvarande implementationer av AC på PC eller vet du att gränsen ligger kring 10%? Frågan är mer hur aktivt AC används i nuvarande spel (RotTR, Doom) jämfört med vad det kan samt vilka andra jobb redan är Async utan att man tickar i AC? T ex så skulle Async körning av Copy för att streama Texturer. Kanske förklarar varför Fury med HBM och GTX 1080 med GDDRX skalar så bra då de kan jobba mer aktiv med streaming av texturer (spekulation).

Troligen så är det samma sak vi ser idag som vi ser när CPUerna gick från 1 kärna till flera, ingen större gain tills man började lära sig att jobba mer parallellt. Så om man idag klämmer ut 10% extra genom AC så är jag ganska övertygad om att denna siffra kommer växa med tiden.

Men den som lever få sen, oavsett vad så verkar inte dina teorier om small gain på lägre CGN kort stämma, heller inte stora gains på små Maxwell kort heller.

Testa att att köra denna titel med Atom eller Jaguar, du kommer då se rejäla vinster även på Maxwell och Kepler när man går från OpenGL till Vulkan (samma vinst kommer man se på spel som stödjer DX11 och DX12).

<10 % har jag fått från att läsa game-developer bloggar, det togs också upp på senaste Games Developer Conference (har försökt att hitta den presentation jag refererar till men undrar om det var så att den inte var tänkt att läggas ut publikt för hittar den verkligen inte längre). Det man diskuterat är just att konsoler ser en betydligt större vinst och man tycker det är lite svårt att motivera utvecklingskostnaden på PC om man kommer på sätt att få större vinster än man ser så här långt.

PS4 och XBO har 8 kärnor varav 6 st är tillgängliga för spel. I faktiskt beräkningskraft så är till och med desktop i3 ungefär dubbelt så kraftig. D.v.s. det är en ocean mellan CPU-kraft i konsoler och även de mest mediokra gaming-PCs. Konsolerna får den största delen av sin vinst med "async compute" från att flytta över beräkningar som traditionellt har legat på CPU-delen till GPU-delen, detta är precis det både AMD och Nvidia pratat om med GPGPU men det har aldrig tagit fart på PC då CPU-delen extremt sällan är flaskhals där.

1080 ser boost i låga upplösningar där CPU-delen är sannolikast att vara flaskhals. Där är boosten ~20 %, det trots att varken "async compute" eller "shader intrinsic functions" används där. Motfråga: vad finns det då för förklaring kvar?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Vad kommer rimligen Nvidias svar bli? Erbjuda samma funktioner via standardfunktioner i DX/Vulkan, antagligen om det inte finns någon prestandanackdel. Men om det inte fanns någon prestandanackdel, varför pushar då AMD "shader intrinsic functions" så hårt? Risken är att Nvidias svar blir något som på samma sätt är bundna till deras kort, med ett Gameworks eller liknande som verkligen är helt bundet till en viss tillverkare. Glide FX var ju väldigt effektivt på Voodo-korten, men vill man tillbaka till den tiden?

Detta är ju inte särskillt konstigt. När man tar bort fler lager av abstraktion och kommer närmare hårdvaran så öppnas nya möjligheter. Då kan man komma åt funktioner på korten som man tidigare inte kunde komma åt. Det är ju helt naturligt. Eftersom AMD dominerar konsolvärlden, för att de har överlägsna GPU:er under de förutsättningarna, så är det inte konstigt att de tar med sig sina bästa koncept över till PC. Det kallar jag för utveckling. Abstraktionslager ger standarder, men kan också förhindra innovation.

Det skulle kanske bli så att vissa spel blir mycket slöare på en viss sorts kort, men det är väl inte något nytt? GameWorks är exakt det, i annan förpackning, på en annan nivå. Och om AMD kan kontra genom att göra något liknande mot Nvidia så säger jag: Gör det! GameWorks påverkar inte AMD lika mycket längre, det var framför allt tesseleringen som kissade på AMDs kort. Om AMD kan få ett försprång genom att göra detta så tycker jag att de ska göra det. Nvidia försöker utrota AMD och de behöver göra det som de behöver för att hålla sig kvar. Viva la kapitalism. Nvidia kommer definitivt fortsätta att göra så som de gör, så jag tycker inte att det skulle vara "ett svar" som du säger. Bara en fortsättning...

Edit: Det är ju knappast så att det redan inte finns olika renderpaths baserade på vilken leverantör och i många fall t.o.m beroende på vilket kort som sitter i maskinen. Ett exempel är 970, 3.5GB-versionen.

Visa signatur

Hur många datorer är för många?

Permalänk
Avstängd
Skrivet av Ekorrism:

hmms, jag upplevde ingen uppgrade i FPS snarare downgrade och slowmotion i animationer.
Dock vet jag inte vad det är för vissa som dig säger att det ger boost som fan, och andra nerf.. Hur allt nu kan vara så som :/
Vad har du för drivare idag?

Upplever samma fenomen som denna video:
https://www.youtube.com/watch?v=d16FlJxp-sw

Drog ner nvidias senaste igår kväll. Rullade på fint för mig. Borde kanske sänka svårighetsgraden från ultra violence bara. Vill ha en mer casual upplevelse.

Skickades från m.sweclockers.com

Visa signatur

http://iogt.se/
du blir ful och dum av sprit
flow är lek

Permalänk
Inaktiv
Skrivet av krigelkorren:

Stämmer bra att Steam är inlåsning, dock finns det tillgängligt för de största plattformarna. I detta fall var syftet att diskutera tillgängligheten av ett spel på olika plattformar och egentligen inte kring DRM -som jag för övrigt inte förstår syftet med i modern tid-

Om man skall se till historien kommer DOOM aldrig släppas för andra plattformar än Windows (med undantag för konsoler) även om det körs på en cross-platform renderer.
Så det känns som lite slöseri med resurser då det bör vara relativt lätt att anpassa spelet till även Mac och Linux.
Ironin kring att Windows är den enda PC-plattformen som spelet släppts på men där man har minst 3 olika renderers att välja mellan (OpenGL, DirectX samt Vulkan). Ska man nu blanda in konsoler så lär väl DOOM även vara anpassat för DirectX med tanke på att det finns för Xbox? Men som jag skrev tidigare, man kan alltid hoppas på ett trendbrott. Men det faktum att det står Zenimax talar alltid emot ett sådant.

Jag håller mer eller mindre helt med dig här. Bra punkter och syn på saken.

Jag blir alltid oroad när det talas om att Zenimax/Bethesda ska köpa upp studior. Köpet av ID är på många vis tragiskt även om en hel del bra spel kommit ut sedan dess. Även om Svenska MachineGames ska ha äran över de riktigt härliga nya Wolfenstein-titlarna.

Med tanke på hur bra GOGs DRM-fria spelbutik ändå fungerar så känns DRM förlegat. Dåligt med stortitlar/AAA vilket är vad som håller mig kvar på Steam/Origin och Uplay. Gillas att det emellanåt kommer lite större titlar och se matchar Steam rätt bra i övrigt idag.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Yoshman:

Testa att att köra denna titel med Atom eller Jaguar, du kommer då se rejäla vinster även på Maxwell och Kepler när man går från OpenGL till Vulkan (samma vinst kommer man se på spel som stödjer DX11 och DX12).

<10 % har jag fått från att läsa game-developer bloggar, det togs också upp på senaste Games Developer Conference (har försökt att hitta den presentation jag refererar till men undrar om det var så att den inte var tänkt att läggas ut publikt för hittar den verkligen inte längre). Det man diskuterat är just att konsoler ser en betydligt större vinst och man tycker det är lite svårt att motivera utvecklingskostnaden på PC om man kommer på sätt att få större vinster än man ser så här långt.

PS4 och XBO har 8 kärnor varav 6 st är tillgängliga för spel. I faktiskt beräkningskraft så är till och med desktop i3 ungefär dubbelt så kraftig. D.v.s. det är en ocean mellan CPU-kraft i konsoler och även de mest mediokra gaming-PCs. Konsolerna får den största delen av sin vinst med "async compute" från att flytta över beräkningar som traditionellt har legat på CPU-delen till GPU-delen, detta är precis det både AMD och Nvidia pratat om med GPGPU men det har aldrig tagit fart på PC då CPU-delen extremt sällan är flaskhals där.

1080 ser boost i låga upplösningar där CPU-delen är sannolikast att vara flaskhals. Där är boosten ~20 %, det trots att varken "async compute" eller "shader intrinsic functions" används där. Motfråga: vad finns det då för förklaring kvar?

Det jag läst från GDC är bara att man på konsol kommit längre på konsol med använding av Async Compute, vilket inte bör mixas med att det "bara" fungerar på konsol.

Att man kommit längre där är såklart ganska givet då Sony och MS troligen jobbat aktivt med en del utvalda studios redan innan maskinerna släpptes 2013/2014 vilket är år före APIer på PC har kunnat prestera detta.

Så om man lyckas klämma ut 30% på konsol (quoted från Oxide devs) så finns det såklart möjligheter att nå bra bit över 10% på PC när välk verktyg och utvecklare har mognat med standarden.

Du har såklart rätt att med svåra verktyg och liten kunskap så är det såklart en fråga om hur mycket tid man ska lägga på det. Men ett sådant faktum kan man inte räkna som en konstant utan får ta det som ett faktum just här och nu, inget som kommer stå sig med tiden.

Sen är det såklart ett dilemma för en del utvecklare att den tillverkare som har mest kort på marknaden, nVidia, inte rimmar bra med DX12 vilket gör att man kanske inte kan lägga fullt fokus på det då Maxwell serien är så populär.

Hade jag haft en Jaguar/Atom hemma hade jag gärna testat men som sagt, med CPU lika så vi ändå en större vinst på AMD mot nVidia vad gäller flytten till Vulkan eller DX12, så uppenbarligen klarar AMD korten med sin ACE struktur av att jobba effektivare med en flerkärnig CPU.

Du har rätt i ditt påstående att nVidia korten ser mest vinst i låga upplösningar med Vulkan (i alla fall Pascal och 1080 korten), så där ser man uppenbarligen CPU avlatsningen.

Men det förklarar inte varför (utan AC) AMD kort ser sån boost över hela plan. Både på 1080p och 1440p så ser vi 30% ökning, Maxwell ser vi 0% och på Pascal är det 15% vs 5,5%.

Så uppenbarligen kan man inte lägga allt till att bara CPUn blir mindre belastad utan även att med rätt arkitektur på grafikkortet så blir det bättre samspel överlag.

Oavsett vad, time will tell - sooner or later, time will tell.

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem

@Yoshman:
Har du läst computerbase.de artikel om Doom och Vulkan?
Att RX 480 inte ser någon ändring i 4k är ganska enkelt förklarat med antal ROP:s 32st och peak pixel fill rate, Fury X som annars ser 66% förbättring i 1080p och 52% i 1440p ser endast 11% förbätting i 4k. RX 480 kan helt enkelt inte pusha mera pixels och samma händer för Fury X i 4k - ROP antalet och pixels per clock gör att det inte når högre FPS, finns inte flera pixlar att pusha genom till CU's?

https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-am...

Gamersnexus siffror är med async off då de kör med FXAA. Osäker på om Computerbase och Gamersnexus använder ungefär samma område för benchmarking, om så är fallet är utslaget påslaget async ca 10 fps/9% ökning. TSSAA kontra FXAA är inget jag har koll på idag angående belastningsgrad. Async kanske ger lite mer men som äts upp lite av TSSAA? Lite trist bara att Computerbase inte har ett Nv 1080 med i sitt test och att Nvidia inte fått sin version av Async Compute redo till Vulkan patchen. Men, vi ser nog den jämförelsen inom några månader får vi hoppas...

Permalänk
Medlem

Angående Shader Instrinsic Functions bekräftas nu av AMD:
https://twitter.com/SasaMarinkovic/status/753055630756159488

Tydligen twittrade han om det redan 11 juli men det plockades inte upp av pressen:
https://twitter.com/SasaMarinkovic/status/752535816346361857