Permalänk
Moderator
Testpilot

GameWorks

Alltså GameWorks.

Idéen är ju egentligen rätt bra, om det inte hade handlat om stängd mjukvara som artificiellt är bundet till en tillverkare. Att det finns ett bibliotek av effekt som utvecklarna kan ta del för att slippa koda om allting själva är ju rätt smart. Lite som Havoks fysikmotor.

Och det går ju inte att komma ifrån att vissa av effekterna märkbart förbättrar det visuella intrycket. HBAO+ är ju ett sådant exempel. Problemet just nu som jag ser det är ju att det fullständigt massakrerar FPS:en, även för Geforce. Är ju ägare av ett Nvidia-kort så jag kan ju åtnjuta alla dessa GameWorks-tekniker men i princip 95% av fallen blir jag tvungen att stänga av alla GameWorks-effekter eftersom det äter upp prestandan och jag dyker under 60fps. Visserligen sitter jag på 3440x1440 (~3K) vilket såklart gör att spelen bara i ren upplösning blir dubbelt så krävande kontra 1080p.

Det ironiska är att Batman: Arkham Knight är det spelet där jag kan köra mest GameWorks-funktioner utan att trilla under 60FPS.

Vad är eran upplevelse och är det funktioner som ni faktiskt använder eller mest stänger av för att få bättre prestanda?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

@Dinoman:

Gameworks är Nvidias sätt att gå in i tillverkningen av spel och handikappa AMD och Samt fasa ut sina äldre kort 7xxx mm. Det handikappar även Nvidias egna kort med bla Extrem tessellation (långt över vad du kan se skillnad på) men det straffar AMD värre vilket troligen är anledning till att dom gör det.

Googla lite på Gameworks så märker du snart hur hatat det är, både för Gröna och Röda användare.
DX12 titlarna som rullar ut nu utan Gameworks visar hur starka AMDs kort faktiskt är när Nvidia inte har "stackat" kortleken innan release.

Sevärt:

EDIT:
Kan tillägga att jag har ägt 4x 290, 1x 290x, 3x 970, 1x 980 och kör idag 390 nitro så Någon fanboy för något av lagen vet jag knappast om jag är.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Moderator
Testpilot
Skrivet av hakd:

@Dinoman:

Gameworks är Nvidias sätt att gå in i tillverkningen av spel och handikappa AMD och Samt fasa ut sina äldre kort 7xxx mm. Det handikappar även Nvidias egna kort med bla Extrem tessellation (långt över vad du kan se skillnad på) men det straffar AMD värre vilket troligen är anledning till att dom gör det.

Googla lite på Gameworks så märker du snart hur hatat det är, både för Gröna och Röda användare.
DX12 titlarna som rullar ut nu utan Gameworks visar hur starka AMDs kort faktiskt är när Nvidia inte har "stackat" kortleken innan release.

Sevärt:
https://www.youtube.com/watch?v=O7fA_JC_R5s

EDIT:
Kan tillägga att jag har ägt 4x 290, 1x 290x, 3x 970, 1x 980 och kör idag 390 nitro så Någon fanboy för något av lagen vet jag knappast om jag är.

Jo det är ju en populär konspiratorisk teori att Nvidia enbart och nu säger jag enbart har skapat GameWorks för att rigga spelfältet i fördel för deras produkter.

Det mer troliga scenariot är ju att Nvidia har skapat GameWorks, dels för att skapa effekter som är optimerade för deras hårdvara, så klart, men även för att legitimt erbjuda en mellanvara som faktiskt tillför häftiga grafik och fysikeffekter. Jag tror även att konsolmarkanden har spelat in i detta beslutet. Då fler och fler spel inte skilde sig från konsolreleasen så försvinner ju också argumenten för att spela på PC. Med GameWorks kan man få effekter som konsolspelen inte kan och det höjer ribban för PC och ger ett incitament för att spela på PC.

Sen kvarstår det faktum som du nämner att GameWorks fullständigt förstör för AMD och gör det rätt svettigt för Geforce också. HBAO+ fungerar mycket bättre än Hairworks t.ex.

OpenGPU är ju ett bra alternativ som man kan hoppas kommer växa.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Jo det är ju en populär konspiratorisk teori att Nvidia enbart och nu säger jag enbart har skapat GameWorks för att rigga spelfältet i fördel för deras produkter.

Det mer troliga scenariot är ju att Nvidia har skapat GameWorks, dels för att skapa effekter som är optimerade för deras hårdvara, så klart, men även för att legitimt erbjuda en mellanvara som faktiskt tillför häftiga grafik och fysikeffekter. Jag tror även att konsolmarkanden har spelat in i detta beslutet. Då fler och fler spel inte skilde sig från konsolreleasen så försvinner ju också argumenten för att spela på PC. Med GameWorks kan man få effekter som konsolspelen inte kan och det höjer ribban för PC och ger ett incitament för att spela på PC.

Sen kvarstår det faktum som du nämner att GameWorks fullständigt förstör för AMD och gör det rätt svettigt för Geforce också. HBAO+ fungerar mycket bättre än Hairworks t.ex.

OpenGPU är ju ett bra alternativ som man kan hoppas kommer växa.

OpenGPU kan bli stort ja, Men hela grejen att Gameworks är stängd källkod och ger dig enbart möjligheter att stänga av vissa saker (hairworks mm) är bara otroligt fail enligt mig.

Nvidia går apples väg, stängd källkod och bara deras grejer funkar (Gsync, Gameworks mm)
AMD kör googles väg med öppen källkod och öppna standarder (Freesync, Opengpu mm)

Återstår att se vilket konsumenterna föredrar.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Moderator
Testpilot

Förvånansvärt många som sitter på AMD-kort.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Hedersmedlem
Skrivet av Dinoman:

Jo det är ju en populär konspiratorisk teori att Nvidia enbart och nu säger jag enbart har skapat GameWorks för att rigga spelfältet i fördel för deras produkter.

Sen kvarstår det faktum som du nämner att GameWorks fullständigt förstör för AMD och gör det rätt svettigt för Geforce också. HBAO+ fungerar mycket bättre än Hairworks t.ex.

OpenGPU är ju ett bra alternativ som man kan hoppas kommer växa.

Vilket ju är motsägelsefullt då det även ger deras äldre generationer "kicken" med usla FPS som följd.

Visa signatur

Stalin var så gammal att de fick Len´in. ;)

Permalänk
Medlem
Skrivet av hakd:

OpenGPU kan bli stort ja, Men hela grejen att Gameworks är stängd källkod och ger dig enbart möjligheter att stänga av vissa saker (hairworks mm) är bara otroligt fail enligt mig.

Nvidia går apples väg, stängd källkod och bara deras grejer funkar (Gsync, Gameworks mm)
AMD kör googles väg med öppen källkod och öppna standarder (Freesync, Opengpu mm)

Återstår att se vilket konsumenterna föredrar.

Skrivet av Dinoman:

Förvånansvärt många som sitter på AMD-kort.

AMD all the way!
ska bli roligt att se om AMD kan vinna lite på polaris korten, hoppas på en AMD comeback

Visa signatur

I7 6700k - Palit gtx 1070 jetstream - Noctua nh-d15s - asus z170 pro gaming - evga supernova g2 750w - samsung 850 evo 500gb -fractal design define r5 - 3x noctua nf-a14

Permalänk
Medlem
Skrivet av hakd:

OpenGPU kan bli stort ja, Men hela grejen att Gameworks är stängd källkod och ger dig enbart möjligheter att stänga av vissa saker (hairworks mm) är bara otroligt fail enligt mig.

Nvidia går apples väg, stängd källkod och bara deras grejer funkar (Gsync, Gameworks mm)
AMD kör googles väg med öppen källkod och öppna standarder (Freesync, Opengpu mm)

Återstår att se vilket konsumenterna föredrar.

AMD ligger ju efter, de har inte möjlighet att köra på mer låsta lösningar.
Sen är det ju också skillnad på t.ex Gsync och Freesync. Den stängda varianten har visat bra resultat medans den öppna är random och kan fungera skit på vissa enheter.

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem
Skrivet av BergEr:

AMD ligger ju efter, de har inte möjlighet att köra på mer låsta lösningar.
Sen är det ju också skillnad på t.ex Gsync och Freesync. Den stängda varianten har visat bra resultat medans den öppna är random och kan fungera skit på vissa enheter.

Gsync och Freesync fungerar identiskt, Enda fördelen just nu är att Gsync kan används i windowed vilket inte freesync tillåter.

"är random och kan fungera skit på vissa enheter"
Har du någon som helst backning för vad du påstår ? Senaste titeln som rullade ut (gear of wars) var det ju Gsync som inte fungerade till så inget av sätten med variabel uppdateringsfrekvens är ju perfekt.

Peka gärna ut någon som visar att Gsync skulle vara bättre, Du kommer få otroligt svårt då dom fungerar lika och enda skillnaden är att Nvidia har en modul i skärmarna och AMD låter drivrutinerna styra Hz och Frames dubblering när du trillar under minimum hz skärmen klarar för variabel sync.

När det gäller input lagg så verkar AMD vinna utan Vsync och Nvidia vinna med Vsync:
https://www.youtube.com/watch?v=MzHxhjcE0eQ

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av hakd:

Gsync och Freesync fungerar identiskt, Enda fördelen just nu är att Gsync kan används i windowed vilket inte freesync tillåter.

"är random och kan fungera skit på vissa enheter"
Har du någon som helst backning för vad du påstår ? Senaste titeln som rullade ut (gear of wars) var det ju Gsync som inte fungerade till så inget av sätten med variabel uppdateringsfrekvens är ju perfekt.

Peka gärna ut någon som visar att Gsync skulle vara bättre, Du kommer få otroligt svårt då dom fungerar lika och enda skillnaden är att Nvidia har en modul i skärmarna och AMD låter drivrutinerna styra Hz och Frames dubblering när du trillar under minimum hz skärmen klarar för variabel sync.

När det gäller input lagg så verkar AMD vinna utan Vsync och Nvidia vinna med Vsync:
https://www.youtube.com/watch?v=MzHxhjcE0eQ

Tester på t.ex denna sida som visar att Freesync slutar fungera om FPSn blir för låg (och som du nämner). Ganska stor brist, sen att det inte går i window är en till stor brist imo.
Jag och alla jag känner lirar spel i windowfullscreen eller bara window.

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem
Skrivet av BergEr:

Tester på t.ex denna sida som visar att Freesync slutar fungera om FPSn blir för låg (och som du nämner). Ganska stor brist, sen att det inte går i window är en till stor brist imo.
Jag och alla jag känner lirar spel i windowfullscreen eller bara window.

Att Freesync hade problem när man gick utanför "range" var nog ett halvår sedan, detta problemet är fixat och agerar precis som Gsync när du går under skärmen lägsta HZ nu för tiden.

Gsync skärmar kostar i snitt tusen kronor mera, är du redo att lägga det för att lira i windowed så är det upp till dig.
Det är troligen dock en tidsfråga innan AMD implementerar windowed med gissar jag.

EDIT:
kan tillägga att nedre gränsen brukar vara 30hz, vem sitter och lirar under 30fps ?
När du når under så dubblar båda tillverkarna din HZ och sätter in frames för ett jämnare flöde.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av hakd:

Att Freesync hade problem när man gick utanför "range" var nog ett halvår sedan, detta problemet är fixat och agerar precis som Gsync när du går under skärmen lägsta HZ nu för tiden.

Gsync skärmar kostar i snitt tusen kronor mera, är du redo att lägga det för att lira i windowed så är det upp till dig.
Det är troligen dock en tidsfråga innan AMD implementerar windowed med gissar jag.

Måste ha missat nyheter om det, fint om det fungerar nu.
Har inte läst något om Freesync på någon månad. Speciellt eftersom AMD kort är lika intressanta som Melodifestivalen (dvs inte alls).

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Moderator
Testpilot
Skrivet av Jalle64:

Vilket ju är motsägelsefullt då det även ger deras äldre generationer "kicken" med usla FPS som följd.

Det jag menade var att det är en populär konspiratorisk teori att Nvidia skapade GameWorks enbart ur det syftet att rigga spelfältet och göra så att AMD presterar kasst och Nvidia ok. Jag tror inte så är fallet men det är i allra högsta grad så effekten har blivit i många fall. Medvetet eller omedvetet, lite av båda kanske.

Skrivet av BergEr:

Tester på t.ex denna sida som visar att Freesync slutar fungera om FPSn blir för låg (och som du nämner). Ganska stor brist, sen att det inte går i window är en till stor brist imo.
Jag och alla jag känner lirar spel i windowfullscreen eller bara window.

Skrivet av hakd:

Att Freesync hade problem när man gick utanför "range" var nog ett halvår sedan, detta problemet är fixat och agerar precis som Gsync när du går under skärmen lägsta HZ nu för tiden.

Gsync skärmar kostar i snitt tusen kronor mera, är du redo att lägga det för att lira i windowed så är det upp till dig.
Det är troligen dock en tidsfråga innan AMD implementerar windowed med gissar jag.

Ok, G-Sync och Freesync i all ära men nu tänkte jag att vi främst skulle diskutera Gameworks.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Moderator
Testpilot
Skrivet av BergEr:

Måste ha missat nyheter om det, fint om det fungerar nu.
Har inte läst något om Freesync på någon månad. Speciellt eftersom AMD kort är lika intressanta som Melodifestivalen (dvs inte alls).

Jag kan tänka mig att AMD's kort är lika intressanta för dig som din åsikt i ämnet är för oss.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av hakd:

Att Freesync hade problem när man gick utanför "range" var nog ett halvår sedan, detta problemet är fixat och agerar precis som Gsync när du går under skärmen lägsta HZ nu för tiden.

Gsync skärmar kostar i snitt tusen kronor mera, är du redo att lägga det för att lira i windowed så är det upp till dig.
Det är troligen dock en tidsfråga innan AMD implementerar windowed med gissar jag.

EDIT:
kan tillägga att nedre gränsen brukar vara 30hz, vem sitter och lirar under 30fps ?
När du når under så dubblar båda tillverkarna din HZ och sätter in frames för ett jämnare flöde.

30hz vet jag inte, mg279q har 35-90hz ur lådan vad jag kommer ihåg och de med 144hz har väl lite högre än så. jag har ändrat i CRU så det är 53-144 på min mg279q dock, mycket bättre.

när man kommer under gränsen så dubblerar skärmen grafikkortets fps, t.ex. om man har 32 fps så kör skärmen i 64hz. vad jag förstår är detta endast för att skärmen inte fungerar korrekt i för låg uppdateringsfrekvens.

windowed freesync skulle vara fantastiskt, ja.

vad gäller gameworks tycker jag inte att det är något bra. det var väl i witcher 3 som hairworks satte på 64x tesselering trots att man inte ser någon skillnad mot 8x? drog ju ner fps väldigt mycket på alla kort, men speciellt kepler- och amd-kort. blir intressant att se om det blir några andra trevliga "förbättringar" när pascal är ute och 980 presterar som 1060 precis som att 780 presterade som 960.

Permalänk
Avstängd
Skrivet av Dinoman:

Och det går ju inte att komma ifrån att vissa av effekterna märkbart förbättrar det visuella intrycket. HBAO+ är ju ett sådant exempel. Problemet just nu som jag ser det är ju att det fullständigt massakrerar FPS:en, även för Geforce.

Detta stämmer dock inte, det är dåliga implementationer av det som sabbar prestandan. Nylanserade Gears of War är ju typexemplet.

Rise of the Tomb Raider är ett bra exempel där man bara tappar någon enstaka FPS med det igång jämfört med AO helt avstängt.

Gameworks är ju ett utvecklarverktyg, Nvidias involverande blir mer support än något annat. I fallet med Witcher 3 undrar jag lite var beslutet ligger, för som sagt är det ju utvecklarna som väljer parametrarna samtidigt som tesseleringsnivån är skjuten i taket.

Är det för Nvidia ska medvetet strypa konkurrensen eller är det CD Projekt Red som vill nå ett prestandamål/nivå som med Witcher 2 och dess ubersampling?

Finns det fler spel där GameWorks-funktioner varit orsaken till liknande kontroverser? (GoW är ju en tragik från MS-sida.)

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av SeF.Typh00n:

Detta stämmer dock inte, det är dåliga implementationer av det som sabbar prestandan. Nylanserade Gears of War är ju typexemplet.

Rise of the Tomb Raider är ett bra exempel där man bara tappar någon enstaka FPS med det igång jämfört med AO helt avstängt.

Gameworks är ju ett utvecklarverktyg, Nvidias involverande blir mer support än något annat. I fallet med Witcher 3 undrar jag lite var beslutet ligger, för som sagt är det ju utvecklarna som väljer parametrarna samtidigt som tesseleringsnivån är skjuten i taket.

Är det för Nvidia ska medvetet strypa konkurrensen eller är det CD Projekt Red som vill nå ett prestandamål/nivå som med Witcher 2 och dess ubersampling?

du menar att det är ett försök att bli nästa crysis från utvecklarens sida? jag tror nog att det är mest amd och nvidia som har att vinna på tungdrivna spel och när det är helt onödiga inställningar som skadar deras egna kepler-kort och konkurrentens kort klart mer än det skadar deras nya generation så blir man väldigt misstänksam.

"oj, mitt gtx 780 presterar ju som ett gtx 960! dags att köpa ett gtx 980 då antar jag."

Permalänk
Datavetare

Det ironiska med Gameworks är att detta är exakt vad AMD (och redan ATi innan det) borde skapat för länge sedan.

Varför? Jo, hela poängen för Nvidia med att lägga resurser på Gameworks för att sedan låta speltillverkare använda detta arbete gratis är att man nu har ett verktyg att väldigt snabbt få ut tekniker som använder funktioner man nyligen stoppat in kislet.

AMD/ATi har i princip konsekvent varit snabbare än Nvidia att stödja nya DX-tekniker, stöd som i 100% av fallen varit meningslöst i första generation kort med stöd då man lagt ansvaret att utveckla teknik som använder finesserna i knät på speltillverkarna.

Om man slänger in en teknik i kisel och väntar till stödet för tekniken växer till "organiskt" så tar det typiskt 5-10 år innan det blir någon större användning. Nvidia har med Gameworks kortat den tiden till ~1 år, så som köpare av t.ex.

Man får vara bra konspiratoriskt lagd för att tro att Gameworks är skapat främst för att djävlas med AMD, en sådan sak obönhörligen skulle läcka ut då det är ett ganska stort flöde av folk mellan AMD, Nvidias och Intels GPU-divisioner. Däremot har speltillverkare allt mer börjar upptäcka hur inkompatibla GCN och Maxwell är nu när man börjar jobba med DX12, slutsatsen är att många saker som är "best-case" för CGN är "worst-case" för Maxwell och vice versa... Rimligen optimerar Nvidia för sitt kisel, som det ser ut nu betyder det ofta en mindre optimal lösning för GCN. Att optimera för sin egen produkt är inte att aktivt sabba för konkurrenten utan det är något som kunderna i högsta grad ska förvänta sig (de ska också förvänta sig att AMD försöker göra detsamma för sina produkter).

Som tur är verkar mycket av förbättringarna i Polaris vara på områden där nuvarande GCN är svag i förhållande till Maxwell. Det trista är de som sitter på dagens GCN kanske allt mer kommer få illa optimerade titlar då de mest avancerade spelen lär vara designade mot de nyaste GPU-familjerna.

Sist, men absolut inte minst: varför kommer alltid tessellation upp när man diskuterar Gameworks? Tessellation är en standardfunktion i DX11, inte något som Gameworks drömt ihop. Sedan är tessellation-nivå i Hairworks och Waveworks något som speltillverkaren kontrollerar, inte Nvidia/Gameworks. Att Witcher 3 gjorde total fuckup med Hairworks är ju något som CD Project RED får bära hundhuvudet för.

Just Cause 3 använder Waveworks och det kan kombineras med tessellation som ger ett fantastisk resultat, bästa renderingen av vågor jag sett och även om det kostar FPS på GCN än Maxwell (vilket är fullt rimligt då Maxwell har typ dubbla kapaciteten på detta) så är det en rimlig kostnad givet hur pass mycket bättre det ser ut.

Raise of the Tomb Raider använder tessellation helt utanför Gameworks (man använder även Gameworks men inte ihop med tessellation).

Det ironiska med GCN och tessellation är att det var AMD som först introducerade tekniken för nästan 10 år sedan, men den tog aldrig fart då det blev en standardfunktion först i DX11. Nu när tekniken väl tar fart har AMD negligerat att hålla kapaciteten på en nivå som är balanserad med resten av kretsen (något man tydligen ska fixa i Polaris!).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av versions:

du menar att det är ett försök att bli nästa crysis från utvecklarens sida? jag tror nog att det är mest amd och nvidia som har att vinna på tungdrivna spel och när det är helt onödiga inställningar som skadar deras egna kepler-kort och konkurrentens kort klart mer än det skadar deras nya generation så blir man väldigt misstänksam.

"oj, mitt gtx 780 presterar ju som ett gtx 960! dags att köpa ett gtx 980 då antar jag."

Ja, att försöka bibehålla tronen som ett spel som är "denna generationens benchmark". Nu säger jag inte att det är så, men det är ju en annan synvinkel på saken. Alla vill bli "But can it run Crysis"?

Problemet mellan generationerna där är ju att Maxwell är ett tesseleringsmonster (triangelspottare i allmänhet), vilket varken Kepler eller GCN är i jämförelse. Så i alla spel som drar upp tesseleringsnivåerna vid maximerade inställningar kommer drabba äldre grafikkort direkt.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Datavetare

@SeF.Typh00n: grejen är att det är ännu större fördel för Maxwell när man direkt pushar trianglar i stället för att generera dem dynamiskt på GPUn (tesselation).

Detta kan bli ett problem för GCN i DX12 då DX11 sätter ganska hård gräns för hur många "draw-calls" som är rimligt och därmed hur många trianglar man kan ha i sin scen.

Å andra sidan kan man också använda "draw-calls" till fler ljuskällor och liknande, vilket Ashes of the Singularity gör, i det läget gynnas GCN och det blir ett problem för Maxwell

I just AotS är lösningen enkel om man kör Maxwell, kör "high" då det grafisk är extremt nära "crazy" men man hamnar då på ett "shader-pressure" som inte är ett problem för 970/980.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer