DirectX 11 mot DirectX 12 – Radeon RX Vega 64 och Geforce GTX 1080

Permalänk
Medlem
Skrivet av Thekogo:

Skönt o höra! Själv preordrade jag aldrig men är riktigt stoked för spelet så att säga Då ska jag nog lyckas få ut hyfsade framerates på ultra med mitt 1060 o 7600k i 1080p.

Skickades från m.sweclockers.com

Ja det verkar vara riktigt bra optimerat på PC iaf ! sjukt snyggt spel! över förväntningarna än så länge!

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem
Skrivet av Radolov:

Om de någon gång gör en nerbantad version av DirectX så borde de kalla den för DietX.

Åh <3

Om de vill göra en ännu mer slimmad version kan de kalla den AnorectX

Skickades från m.sweclockers.com

Visa signatur

Fractal Design R2 | BeQuiet Dark Power Pro 550 | Asus Rampage Formula | 2x Corsair XMS2 DDR2-8500 2048MB | Intel E8600 @ 3,72GHz | Noctua NH-U12P | Palit GTX 1080 Super Jetstream | Samsung EVO 840 Series SSD 250 GB | Intel X25-M 80GB | Hitachi Deskstar P7K500 500GB SATA | WD Red 3TB SATA III | WD10EACS 1TB | NEC ND35-40A | Scythe Ultra Kaze | Noctua NF-P12

Permalänk
Datavetare
Skrivet av Ratatosk:

Eftersom strålspårning inte fungerar under DX11, bör Nvidia skärpt till sig ordentligt vad gäller DX12.
Är de under NDA kan Sweclockers inte svara på den frågor om datum, men ryktet säger 19/9.

Problemet är väl lite att med DX12 är det mindre Nvidia kan göra då en större del av kakan hamnar i knät på spelutvecklarna.

Vad vi ser med DX11 vs DX12 på Nvidia är väl att än så länge förstår Nvidias driver-team deras HW så pass mycket bättre än spelutvecklarna att de fördelar DX12 överskuggas av de extra optimeringar som är möjligt i drivers hos DX11.

Men precis som du skriver, strålföljning kommer ge Nvidia ett rätt stort incitament att pusha för DX12 (och Vulkan) då det är ett krav. Då det är mindre man kan göra i drivers är det nog en lågoddsare att denna push primärt kommer att göras via mer Gameworks finesser.

Vidare jobbar ju redan AMD och Nvidia med de som tillverkar spelmotorer, även här får man lägga större fokus i stället för att jobba med "speloptimerade" drivers.

Angående om DX12 ska ses som en besvikelse. På forum var ju förväntningarna total uppåt väggarna, det kan man ändå har förståelse för då rätt få jobbar med programmering och få av de som ändå jobbat mer programmering har tillräckliga kunskaper i spelprogrammering och utveckling av prestandakritisk programvara.

Vad man däremot ändå kan klaga lite på är att även många spelprogrammerare eldade på hypen, det är garanterat bara ännu en indikation på hur extremt usla människor tenderar vara på att bedöma var flaskhalsarna ligger i en modern dator.

Att göra en sådan bedömning är verkligen att likställa med kvantmekanik, saker är väldigt ofta inte alls som man intuitivt kan känna de borde. Enda sättet att hantera sådant är att göra en kvalificerad gissning och sedan verkligen mäta om gissningen var vettig eller ej. (Det är i alla fall min bild, har jobbat med kvantmekanik/kvantkemi för många år sedan samt jobbar med multicore programmering de senaste 15 åren).

På PC är CPU-delen extremt sällan en flaskhals -> att minska trycken på den komponenten kommer inte göra någon relevant skillnad. Vidare så kan DX12/Vulkan ge en viss förbättring när det kommer till sprida jobbet över flera CPU-kärnor, men en förkrossande majoritet av något sådant kommer från hur spelet/spelmotorn är designat och skillnaden mellan DX11 och DX12 är långt mindre än vad man förleds tro om man följt diskussionen på forum kring detta.

Spel är i grunden något som är väldigt svårt att effektivt sprida över många CPU-kärnor, DX12 ändrar rätt minimalt på detta.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av jacozz:

Testa gärna det nya Tomb Raider, verkar vara rejäla skillnader mellan 11 och 12. Intressanta siffror: https://translate.google.com/translate?sl=de&tl=en&js=y&prev=...

Kul också att AMD 2700x får bättre resultat än i 8700k i DX 12, i Vegas fall rör det sig om nästan 10% i fördel för 2700x.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Det här kanske är en dum fråga, men handlar skillnaden mellan DX11 och DX12 enbart om prestanda? Jag antog att det fanns nya funktioner i DX12 som kan göra grafiken "snyggare". Om DX11 och DX12 presterar ungefär lika så borde man ju i så fall även väga in att spelen faktiskt blir snyggare med DX12, men inget av detta nämns i artikeln.

Permalänk
Medlem
Skrivet av Ratatosk:

Kul också att AMD 2700x får bättre resultat än i 8700k i DX 12, i Vegas fall rör det sig om nästan 10% i fördel för 2700x.

Mycket märkligt att Vega 64 presterar så mycket sämre på 8700k än 2700X när det uppenbarligen inte är processorn som flaskhalsar i de andra scenariona.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Hjälpsam
Skrivet av Yoshman:

Problemet är väl lite att med DX12 är det mindre Nvidia kan göra då en större del av kakan hamnar i knät på spelutvecklarna.

Vad vi ser med DX11 vs DX12 på Nvidia är väl att än så länge förstår Nvidias driver-team deras HW så pass mycket bättre än spelutvecklarna att de fördelar DX12 överskuggas av de extra optimeringar som är möjligt i drivers hos DX11.

Men precis som du skriver, strålföljning kommer ge Nvidia ett rätt stort incitament att pusha för DX12 (och Vulkan) då det är ett krav. Då det är mindre man kan göra i drivers är det nog en lågoddsare att denna push primärt kommer att göras via mer Gameworks finesser.

Vidare jobbar ju redan AMD och Nvidia med de som tillverkar spelmotorer, även här får man lägga större fokus i stället för att jobba med "speloptimerade" drivers.

Angående om DX12 ska ses som en besvikelse. På forum var ju förväntningarna total uppåt väggarna, det kan man ändå har förståelse för då rätt få jobbar med programmering och få av de som ändå jobbat mer programmering har tillräckliga kunskaper i spelprogrammering och utveckling av prestandakritisk programvara.

Vad man däremot ändå kan klaga lite på är att även många spelprogrammerare eldade på hypen, det är garanterat bara ännu en indikation på hur extremt usla människor tenderar vara på att bedöma var flaskhalsarna ligger i en modern dator.

Att göra en sådan bedömning är verkligen att likställa med kvantmekanik, saker är väldigt ofta inte alls som man intuitivt kan känna de borde. Enda sättet att hantera sådant är att göra en kvalificerad gissning och sedan verkligen mäta om gissningen var vettig eller ej. (Det är i alla fall min bild, har jobbat med kvantmekanik/kvantkemi för många år sedan samt jobbar med multicore programmering de senaste 15 åren).

På PC är CPU-delen extremt sällan en flaskhals -> att minska trycken på den komponenten kommer inte göra någon relevant skillnad. Vidare så kan DX12/Vulkan ge en viss förbättring när det kommer till sprida jobbet över flera CPU-kärnor, men en förkrossande majoritet av något sådant kommer från hur spelet/spelmotorn är designat och skillnaden mellan DX11 och DX12 är långt mindre än vad man förleds tro om man följt diskussionen på forum kring detta.

Spel är i grunden något som är väldigt svårt att effektivt sprida över många CPU-kärnor, DX12 ändrar rätt minimalt på detta.

Jag själv själv skyldig till för höga förväntningar, trodde att DX12 skull slå mycket snabbare än det gjort.

Men i viss mån är kritiken obefogad, att man ofta inte ser någon nytta med en överklockad 8700k är inte så märkligt.
Saken bli en helt annan redan med en 1700 som jag har, och vi har många här på forumet som ligger kvar med ganska ålderdomliga i7:r, liksom en och annan FX8350, där kan skillnaden bli stor, till DX12s fördel.

Själv brukar jag välja DX12 i de fall jag kan (AMD 1700 och Vega 64), i mitt fall brukar flytet bli bättre och lägsta fps högre.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Relik 📜
Skrivet av CrazyDriver:

Det här kanske är en dum fråga, men handlar skillnaden mellan DX11 och DX12 enbart om prestanda? Jag antog att det fanns nya funktioner i DX12 som kan göra grafiken "snyggare". Om DX11 och DX12 presterar ungefär lika så borde man ju i så fall även väga in att spelen faktiskt blir snyggare med DX12, men inget av detta nämns i artikeln.

I korthet innebär DX12 få eller inga (typ @Yoshman kan säkert det mer i detalj än mig) nya funktioner som direkt gör grafiken snyggare, i alla fall inte som läget ser ut just precis nu. Det var aldrig fokus för det nya gränssnittet. Ser du till inställningar i spel är det vad jag vet samma grafik som ritas upp för samtliga titlar vi testar.

Dock är ju som diskuterat till exempel raytracing på gång, där det blir en del av DX12 (DXR). Men, där kommer också intåget på markanden ske långsamt och gradvis där det säkerligen kommer dröja åratal innan funktionerna ses som självklara. Den här artiklen om ett eller två år kanske ser annorlunda ut, däremot.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem

Jag har alltid hållt mig kvar på DX11 för jag aldrig märkt någon som helst skillnad i bildkvalitet. prestandan har kännts hackig även fast fps pendlat omkring samma ställe.

Däremot i World Of Warcraft har jag gått över till DX12 för jag fick bättre prestanda och vart av med groteskt mycket visuella buggar när det kom till rökeffekter och vädereffekter som uppstod när 8.0 släpptes.

Generellt tycker jag att Direct X känts mer som ett säljargument än något av betydelse sen dom släppte DX10.
Tyckter även det såg ut att vara rätt stor prestandaförlust hos nVidia korten i detta test. Nästan chockerande stora skillnader

Visa signatur

|| AMD 5900x || ASUS ROG Formula VIII || 2x ASUS GTX 980 SLI || 32GB G-Skill || Vattenkylt || HDD : SSD’er || Skärm : LG42" SL8500 / Acer G24 ||

Permalänk
Medlem
Skrivet av Yoshman:

Problemet är väl lite att med DX12 är det mindre Nvidia kan göra då en större del av kakan hamnar i knät på spelutvecklarna.

Vad vi ser med DX11 vs DX12 på Nvidia är väl att än så länge förstår Nvidias driver-team deras HW så pass mycket bättre än spelutvecklarna att de fördelar DX12 överskuggas av de extra optimeringar som är möjligt i drivers hos DX11.

Men precis som du skriver, strålföljning kommer ge Nvidia ett rätt stort incitament att pusha för DX12 (och Vulkan) då det är ett krav. Då det är mindre man kan göra i drivers är det nog en lågoddsare att denna push primärt kommer att göras via mer Gameworks finesser.

Vidare jobbar ju redan AMD och Nvidia med de som tillverkar spelmotorer, även här får man lägga större fokus i stället för att jobba med "speloptimerade" drivers.

Tid, pengar, ork, kunskap och tidigare optimeringar av NVIDIA i DX11 kommer vara faktorer som håller kvar DX11 på marknaden.
Både AMD och NVIDIA har tid, pengar, ork och kunskap och verkar för en gångs skull vara på samma blad när det kommer till övergången till lågnivå API:er. Men jag tror att en stor del av NVIDIA:s incitament kommer från async compute (något som NVIDIA har sagt själva). Några har redan nämnt att DX12 i det nya tomb raider presterar bättre än DX11, och det med NVIDIA som en exklusiv samarbetspartner.

Det kommer ta många år innan DX11 faller bort, då AMD och NVIDIA har begränsade resurser. Ett logisk val för dem är att börja från toppsegmentet (där alla benchmarkar spel och således får störst PR) och röra sig neråt. Men även små studios verkar vara intresserade. Jag tror att vi kommer se ett större antal titlar som NVIDIA och AMD kommer ha sitt namn på när de släpps.

Skrivet av Yoshman:

Spel är i grunden något som är väldigt svårt att effektivt sprida över många CPU-kärnor, DX12 ändrar rätt minimalt på detta.

Skulle en formell minnesmodell (som introducerades i Vulkan igår) hjälpa till ?

Permalänk
Medlem
Skrivet av Oneone:

D12 I nya Tomb Raider verkar vara riktigt bra iaf ,

Spelade igår ca två timmar och är riktigt imponerad sjukt bra grafik och flyter på som smööör!

DX12 Fullscreen 1080TI och en 6700K 3440x1440 allt på Ultra im impressed.

https://www.youtube.com/watch?v=KvN0w51xYdY

Sjukt sugen på detta! Men har inte ens tvåan än xD.

Får bli i vinter kanske, då finns nog tid, lira igenom ettan igen och sen köpa 2an och 3an och avnjuta dem i lugn och ro

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Hjälpsam

I många tester har som sagt DX12 presterat sämre relativt DX11, än vad de faktiskt gör i verkligheten.
https://www.techpowerup.com/forums/threads/rise-of-the-tomb-r...

Tycker att det är tråkigt att så många testar enbart efter samma mall.
1. Kraftfullaste CPU när man testar grafik för att inte CPU:n skall bromsa, men då missar man att testa GPU:ns overhead, liksom just DX11 vs DX12.
2. Kraftullaste GPU:n när man testar CPU, men då kan man missa att tex AMD skalar bättre på flera kärnor, ett exempel var TR 2990WX där Nvidias driver satte stop över 16 kärnor, det gjorde inte Vegas driver.

Kan vara bra med kompletterande tester också.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Radolov:

Skulle en formell minnesmodell (som introducerades i Vulkan igår) hjälpa till ?

En formell minnesmodell är definitivt till hjälp för att skriva mer effektiva program som kör på GPUn.

Däremot hjälper det ju inte på CPU-sidan över vad som redan finns. Nämns ju i det du länkar att man fått rätt mycket inspiration för det jobb som presenteras där från motsvarande specifikation i C++ (som kom med C++11, d.v.s 2011 års ISO C++11 standard).

För existerande CPU-arkitekturer fanns ju redan regler kring minneskonsistens, "enda" jobbet där var att lura ut hur det man redan hade skulle pusslas in i den modell som C++11 definierade.

Här finns ju en (av flera) fördelar i 64-bitars ARM (Aarch64) samt RISC-V arkitekturerna. Dessa satt ju sina HW-specifikationer utifrån C++11 standarden, så man har en "perfekt match" på HW-nivå. x86 fick ju ta de pusselbitar man redan hade och gör en bästa anpassning, resultatet är att x86 (precis som alla andra CPU-arkitekturer minus Aarch64 och RISC-V) skjuter över målet i vissa lägen och lämnar därmed potentiell prestanda på bordet.

För GPUer borde man kunna undvika att fastna i en punkt där man för all framtid skjuter över målet, man har inte samma krav på bakåtkompatibilitet där som CPU-arkitekturer har. Så en formell minnesmodell är absolut bra, men kommer inte hjälpa skalningen över CPU-kärnor.

För CPUer är den långsiktigt bästa lösning att skrota x86 och gå över till något mer modernt, men inte heller där ska man förvänta sig att det helt plötsligt blir enkelt att skala spel över kärnor. Det blir _lite_ enklare, men alla fundamentala problem kvarstår.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Relik 📜
Skrivet av Ratatosk:

I många tester har som sagt DX12 presterat sämre relativt DX11, än vad de faktiskt gör i verkligheten.
https://www.techpowerup.com/forums/threads/rise-of-the-tomb-r...

Tycker att det är tråkigt att så många testar enbart efter samma mall.
1. Kraftfullaste CPU när man testar grafik för att inte CPU:n skall bromsa, men då missar man att testa GPU:ns overhead, liksom just DX11 vs DX12.
2. Kraftullaste GPU:n när man testar CPU, men då kan man missa att tex AMD skalar bättre på flera kärnor, ett exempel var TR 2990WX där Nvidias driver satte stop över 16 kärnor, det gjorde inte Vegas driver.

Kan vara bra med kompleterande tester också.

Det är ett jättebra uppslag för en specialartikel! Lägger det på högen.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem
Skrivet av Yoshman:

Spel är i grunden något som är väldigt svårt att effektivt sprida över många CPU-kärnor, DX12 ändrar rätt minimalt på detta.

Detta är sant om man pratar om att konvertera nuvarande eller tidigare svagt trådade spel till multicore. Det är bara se på Amdahls lag, det finns en tydlig gräns för hur mycket multitrådning som är möjligt för en given applikation.

Men det folk måste samtidigt förstå är att nyttan i fler kärnor är inte att du ska kunna köra dina 10 år gamla spel i 5 miljarder fps. Det är att utvecklarna får extra kärnor att lägga till nytt arbete på. Till exempel så kanske du nu kan köra 500 samtidiga AI istället för 5st då du kan avlasta nya beräkningarfler kärnor.

Men som du nämner så tror många människor som aldrig har rört ett programmeringsspråk i hela sitt liv att fler kärnor kommer magiskt boosta deras FPS upp till månen. När närmare sanningen är snarare att du kan få ett mycket mer komplext spel i samma FPS som du hade i tidigare "simpla" spel.

Permalänk
Medlem
Skrivet av Zemlan:

Sjukt sugen på detta! Men har inte ens tvåan än xD.

Får bli i vinter kanske, då finns nog tid, lira igenom ettan igen och sen köpa 2an och 3an och avnjuta dem i lugn och ro

Skickades från m.sweclockers.com

tvåan är ju sjuukt bra ! spelade igenom det igenför ett par månader sedan helt klart värt! billigt också nu

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem
Skrivet av Jackbob:

Detta är sant om man pratar om att konvertera nuvarande eller tidigare svagt trådade spel till multicore. Det är bara se på Amdahls lag, det finns en tydlig gräns för hur mycket multitrådning som är möjligt för en given applikation.

Men det folk måste samtidigt förstå är att nyttan i fler kärnor är inte att du ska kunna köra dina 10 år gamla spel i 5 miljarder fps. Det är att utvecklarna får extra kärnor att lägga till nytt arbete på. Till exempel så kanske du nu kan köra 500 samtidiga AI istället för 5st då du kan avlasta nya beräkningarfler kärnor.

Men som du nämner så tror många människor som aldrig har rört ett programmeringsspråk i hela sitt liv att fler kärnor kommer magiskt boosta deras FPS upp till månen. När närmare sanningen är snarare att du kan få ett mycket mer komplext spel i samma FPS som du hade i tidigare "simpla" spel.

Du har helt rätt där.

De flesta beräkningar som görs i spel är beroende av beräkningarna som gjordes innan. Det gör att de måste vänta på varandra och varför processorer med hög Single Core-prestanda ofta kommer ut i toppen.

Spelutvecklarna har givetvis blivit bättre på att fördela arbetet men en hel del är omöjligt att sprida ut och måste ske efter vartannat. Varför utvecklingen också är så trög som den är på detta område.

Däremot kan fler kärnor och oanvänd processorkraft öppna upp för andra funktioner och finesser i spel som du var inne på. En mycket bättre AI är ett exempel och som jag hoppas blir aktuellt i framtiden. Tar man spel som Skyrim/Fallout som exempel skulle oanvända processorkärna kunna arbeta med att hantera NPC som inte är i din direkta närhet och få ett mycket mer naturliga konsekvenser över världen.

Fysiska beräkningar kan man också slänga över på fler kärnor även om jag misstänker att de i sin tur är beroende av varandra.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av Oneone:

tvåan är ju sjuukt bra ! spelade igenom det igenför ett par månader sedan helt klart värt! billigt också nu

Låter trevlans det där! Sånt man vill höra!

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Hjälpsam
Skrivet av emilakered:

Det är ett jättebra uppslag för en specialartikel! Lägger det på högen.

Tack Emil.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Gammal men bra genomgång om lågnivå-API:s fördelar.
https://www.pcper.com/reviews/Editorial/What-Exactly-Draw-Cal...

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

Väldigt bra och tydlig genomgång av Emil

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Hjälpsam
Skrivet av Jackbob:

Detta är sant om man pratar om att konvertera nuvarande eller tidigare svagt trådade spel till multicore. Det är bara se på Amdahls lag, det finns en tydlig gräns för hur mycket multitrådning som är möjligt för en given applikation.

Men det folk måste samtidigt förstå är att nyttan i fler kärnor är inte att du ska kunna köra dina 10 år gamla spel i 5 miljarder fps. Det är att utvecklarna får extra kärnor att lägga till nytt arbete på. Till exempel så kanske du nu kan köra 500 samtidiga AI istället för 5st då du kan avlasta nya beräkningarfler kärnor.

Men som du nämner så tror många människor som aldrig har rört ett programmeringsspråk i hela sitt liv att fler kärnor kommer magiskt boosta deras FPS upp till månen. När närmare sanningen är snarare att du kan få ett mycket mer komplext spel i samma FPS som du hade i tidigare "simpla" spel.

Påminner lite om Gustafsons law.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av jacozz:

Gammal men bra genomgång om lågnivå-API:s fördelar.
https://www.pcper.com/reviews/Editorial/What-Exactly-Draw-Cal...

HardOCP körde några tester när DX12 var ganska ungt.
https://www.hardocp.com/article/2016/04/19/dx11_vs_dx12_intel...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Påminner lite om Gustafsons law.

Jupp, Gustafssons law är oftast ett bättre mått för framtida program också. Man strävar oftast efter mer komplexitet, mer funktioner och mer möjligheter i nyare iterationer av program som inte Amdahls lag tar hänsyn till.

Permalänk
Moderator
Testpilot
Skrivet av jacozz:

Testa gärna det nya Tomb Raider, verkar vara rejäla skillnader mellan 11 och 12. Intressanta siffror: https://translate.google.com/translate?sl=de&tl=en&js=y&prev=...

Herrejävlar, 2700x ökar med 100% och matchar 8700k. Det var mycket intressant.

Som sagt, kanske mer handlar om kass Dx11 implementering.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av CrazyDriver:

Det här kanske är en dum fråga, men handlar skillnaden mellan DX11 och DX12 enbart om prestanda? Jag antog att det fanns nya funktioner i DX12 som kan göra grafiken "snyggare". Om DX11 och DX12 presterar ungefär lika så borde man ju i så fall även väga in att spelen faktiskt blir snyggare med DX12, men inget av detta nämns i artikeln.

Skrivet av emilakered:

I korthet innebär DX12 få eller inga (typ @Yoshman kan säkert det mer i detalj än mig) nya funktioner som direkt gör grafiken snyggare, i alla fall inte som läget ser ut just precis nu. Det var aldrig fokus för det nya gränssnittet. Ser du till inställningar i spel är det vad jag vet samma grafik som ritas upp för samtliga titlar vi testar.

Dock är ju som diskuterat till exempel raytracing på gång, där det blir en del av DX12 (DXR). Men, där kommer också intåget på markanden ske långsamt och gradvis där det säkerligen kommer dröja åratal innan funktionerna ses som självklara. Den här artiklen om ett eller två år kanske ser annorlunda ut, däremot.

Inne på lite samma spår hade varit trevligt och få lära sig lite mer kring V-sync och ifall det gjorts några förbättringar på mjukvaru området. Enda jag själv känner till är att Microsoft erbjuder trippel buffrad V-sync via DWM i Windows om man använder Borderless istället för spela i helskärm, men det är ju också en förbättring som hängt med rätt länge och som finns t.o.m i Windows 7.

Har själv upplevt en del hyggliga resultat med detta påslaget där de är möjligt, bl.a nu senast i Shadow of Mordor.

Permalänk

Frågar man mig så är det Vulkan och Proton som gäller. Helt ointressant med låsta DirectX.

Skickades från m.sweclockers.com

Permalänk
Datavetare

Computerbase.de har kört lite jämförelser mellan DX11 och DX12 på Shadow of the Tomb Raider.

I 1920x1080 med GTX1080Ti ser man faktiskt de fördelar med DX12 som folk borde förvänta sig: när CPU-delen börjar bli flaskhals så är DX12 en bonus tack vare sitt fokus på lägre "overhead"

DX12 kan komma till sin rätt om CPU-delen är flaskhals

Går man till 4k är prestandaskillnaden mellan DX11 och DX12 försumbar, oavsett CPU. Lite lustigt att DX11 konsekvent presterar bättre. för varje enskilt CPU måste man ju säga att det är inom felmarginalen men sett över alla testade CPU-modeller är ändå DX11 konsekvent lite bättre.

4k är inte så spännande sett ur CPU-ögon

Vad däremot däremot INTE ska vänta sig från DX12 är att det magiskt ska göra så att saker skalar bättre med kärnor. Allt för lite data för att dra några slutsatser. Men är i just detta fall visar ju att i3-8100 ser ju mer eller mindre exakt samma vinst mellan DX11 -> DX12 som i7-8700K samt R5-2400G ser samma vinst som R7-2700X. Dock svårt att veta om i7-8700K/R7-2700X är GPU-bundna...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Computerbase.de har kört lite jämförelser mellan DX11 och DX12 på Shadow of the Tomb Raider.

I 1920x1080 med GTX1080Ti ser man faktiskt de fördelar med DX12 som folk borde förvänta sig: när CPU-delen börjar bli flaskhals så är DX12 en bonus tack vare sitt fokus på lägre "overhead"

DX12 kan komma till sin rätt om CPU-delen är flaskhals

Går man till 4k är prestandaskillnaden mellan DX11 och DX12 försumbar, oavsett CPU. Lite lustigt att DX11 konsekvent presterar bättre. för varje enskilt CPU måste man ju säga att det är inom felmarginalen men sett över alla testade CPU-modeller är ändå DX11 konsekvent lite bättre.

4k är inte så spännande sett ur CPU-ögon

Vad däremot däremot INTE ska vänta sig från DX12 är att det magiskt ska göra så att saker skalar bättre med kärnor. Allt för lite data för att dra några slutsatser. Men är i just detta fall visar ju att i3-8100 ser ju mer eller mindre exakt samma vinst mellan DX11 -> DX12 som i7-8700K samt R5-2400G ser samma vinst som R7-2700X. Dock svårt att veta om i7-8700K/R7-2700X är GPU-bundna...

Visst. Håller med dig. Men angående hurvida Gpu:n är en flaskhals i detta testet vore det helt klart bättre att istället använda ett Vega-kort. Dels för att GCN till skillnad från Pascal har hårdvarustöd för "Async compute" och generellt presterar bättre med lågnivå-API:er än med DX11. Men också för att inte slå i maxtaket som man ju gör i testet som du länkar till.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

Bra artikel. Trodde faktiskt att DX12 mognat mer men får troligen ändra tillbaka till DX11 på ett par titlar då DX12 troligen inte ger mig någon "mer" prestanda.

(Nvidia GTX1080)

Visa signatur

AMD Ryzen 5600X, 4x8GB@3600MHz Crucial DDR4,MSI MAG X570 TOMAHAWK-WIFI & Asus RTX 3070 8GB