Snabbtest: Grafikprestanda i Tom Clancy's The Division

Permalänk
Hedersmedlem
Skrivet av Oneone:

yes det är jag medventen om, men som sagt det var problem med 100 % cpu usage för endel i betan, jag hade INTE detta problem då men nu i releasen har jag problem. Hade även bättre prestanda med ETT 780 i betan än vad jag har nu med SLI i releasen . Käns ju sådär...

Jaha! Ja det var jag inte insatt i alls. I see your point.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Hjälpsam
Skrivet av Oneone:

Hur ser det ut för er med CPU usage ? jag ligger på 100 % konstant när jag är inne i spelet, spelar ingen roll om jag kör låg upplösning min CPU får jobba riiiktigt hårt... Och FPSen skiljer sig knappt mellan 1440p och lägre än 1080p... Hur är det för er andra?

käns inte riktigt rätt, vet att folk hade problem med detta i betan... trode de skulle fixat detta.

Det verkar ganska bra.
http://www.computerbase.de/2016-03/the-division-benchmark/3/
Men om du kör med 144 Hz får den ju jobbare hårdare, sedan verkar det vara knas med CF och SLI.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Viceroy:

Du missade att läsa ALL text i testet va?

Då var vi här igen, jo jag hoppade direkt till komentars fälltet och läste inte ett ord och la en komentar utan grunder.........
eller kanske inte. Du ser inte längre en näsan va ?

Och för att göra det ännu tydligare så handlade det inte om att siffrorna var låga till över lag pga fraps.
utan att den gröna sidan fick otroligt låga ressultat tillskillnad från dem röda där båda borde fått låga pga fraps.
Så fort någon lite större sida en sweclockers och där man tagit lite mer tid en 12 timmar efter release att släppa ett test så kommer det vara som det ska igen där titan X trampar fury på näsan i 4k med 10+fps i skillnad till exempel

Visa signatur

NZXT Phantom | 4790k 4.8Ghz | GA-Z97X-Gaming 7 | 16GB | ASUS 1080 TI Strix | 3 x 525GB SSD | XFX P1-1050-BEFX Full custom watercooling loop.
Acer 28" Predator XB281HK G-Sync 4K

Permalänk
Medlem

Är jag ensam på att reagera över att väldigt många objekt "försvinner" ibland. T.ex reflektionen i fönstren ibörjan, objektet på piren i slutet etc.? Känns väldigt B

Visa signatur

"Trust Me, I'm an Engineer"

Permalänk
Medlem
Skrivet av Imaculent:

Vad menar du med att de är sossar?

Det var infekterande av mig att skriva så men framförallt offtopic. Det är inget som är unikt för Ubisoft så mycket kan vi säga.

Permalänk
Medlem
Skrivet av Pudeln:

Det var infekterande av mig att skriva så men framförallt offtopic. Det är inget som är unikt för Ubisoft så mycket kan vi säga.

Förstår ändå inte vad du menar eller försöker få fram.
Sett uttrycket allt oftare så undrade...

Permalänk
Medlem
Skrivet av Yoshman:

Som vanligt gnäll kring Gameworks. Är det aldrig någon som funderar varför så många spel använder Gameworks? Hur mycket tid och pengar tror ni spelutvecklarna har möjlighet att lägga på relativt subtila effekter som ljussättning/skuggor?

Specifikt använder detta spel Horizon Based Ambien Occlusion (HBAO+), en teknik som främst lastar shader-delen och en teknik som därför passar GCN. HBAO+ har fungerat mycket bra på GCN i de titlar jag sett det användas.

Vidare använder spelet också Percentage-Closer Soft Shadows (PCSS), en annan teknik som främst laster shader-delen och därmed en perfekt match för GCN.

Spel som är shader-tunga tenderar att skala i princip linjärt med frekvensen hos GPUn i Maxwell/Kepler, något som också visar sig här där EVGA 970 är 11 % snabbare än 970 referens och det med en turbo-klocka som är 13 % högre än referens. Samma sak gäller andra kort, något man får tänka på när man jämför t.ex. 980Ti med Fury X, i princip får man lägga på ~10 % på 980Ti resultaten för att få en bild av hur de 980Ti folk faktiskt använder presterar.

Sedan måste jag invända mot detta påstående i artikeln:

"Vid maxade 3 840 x 2 160 pixlar är det AMD som drar det längsta strået och lägger sig på en generellt högre nivå än Nvidia-kortet. Den som inte är finkänslig med bildfrekvensen kan här gå upp till "Medium" och få konsolliknande prestanda."

En PC som ligger runt 30 FPS är inte jämförbar med en konsol. Har kört en del Rise of the Tomb Raider och Just Cause 3 både på XboxOne och PC, XBO siktar på 30 FPS i båda fallen och det är en riktigt behaglig upplevelse medan samma absolut inte kan sägas om PC om man snittar runt 30 FPS, där man vill lägga sig runt 60 FPS.

Förklaringen är rätt enkel, konsoler har betydligt bättre kontroll på sin render-pipeline så variansen i latensen mellan spelmotorn och resultatet på skärmen kan hållas klart läger på en konsol jämfört med PC. En PC behöver högre högre FPS för att ge samma upplevd prestanda (något som inte är så svårt givet HW i XBO/PS4...).

Är du inte ute och cyklar lite nu? Latensen känner jag inte någon skillnad på över huvud taget, utan snarare att känsligheten i musen gör skillnad i upplevelsen, dvs. "man" uppfattar spelet som bra mycket hackigare/ryckigare vid musanvändande där känsligheten (sensitivity) vanligtvis är mycket högre än vid användandet av en Xbox-kontroll. När jag kopplar in min Xbox-kontroll till spelet på PC som är låst till 30 fps, så skulle jag vilja påstå att det är minimal om någon skillnad.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av Yoshman:

Ser väl bra ut? Eller förväntar sig folk att det ska vara gratis att göra effekter och att Gameworks misslyckas kapitalt för saker som PCSS och HBAO+ faktiskt kostar FPS?

I RoTR verkar de flesta vara överens om att HBAO+ ger märkbart bättre kvalité än "vanlig" AO, är det inte ganska rimligt att högre renderingskvalité också blir lite dyrare att utföra? I alla dagens titlar som kör Gameworks går det att slå av de tekniker som implementeras via Gameworks, så är ju upp till var och en att bedöma kostnad vs renderingskvalité. Liksom svårt att se hur det kan vara ett problem då.

Att PCSS råkar vara dyrare på Fury X jämfört med 980Ti går nog att förklara om man läser den korta beskrivningen av tekniken jag länkade till. PCSS är en kombination av shader och shadow-map, det senare steget kommer belasta ROPs och inte shaders. Fury-serien är ganska obalanserad, eller den skiljer sig i alla fall från alla andra av dagens GPUer, i att shader-kapaciteten relativt rastrering och triangel-kapacitet är extremt förskjuten mot shaders. Fury har samma rastrering och triangel-kapacitet som motsvarande klockade 390/390X (som i sin tur har lägre rastrering och framförallt triangel-kapacitet jämfört med 970/980 vilket t.ex. märks i spel som använder tesselering).

EDIT: Var tvungen att läsa på lite om Hybrid Frustum Traced Shadows (HFTS). Som jag förstår det är detta en teknik som mer kanske beror på triangel-kapacitet än shaders, att då Maxwell hanterar detta mer effektivt är ju självklart då Maxwell har betydligt högre triangel-kapacitet än motsvarande GCN-modell. D.v.s. det är inte så att Gameworks aktivt pajar för GCN, men Nvidia är mycket väl införstådda med styrkorna och svagheterna i sina GPUer så självklart väljer de i första hand tekniker som spelar på deras produkters styrkor.

Nu verkar det som om HFTS inte alls gick att köra på Fury, stod det någon kommentar till det i artikeln? Från texten i dokumentet jag länkade får jag lite känslan att "raster order view" skulle kunna hjälpa här, men detta är ju en DX11 titel och ROV kräver feature level 12.1 (som Maxwell har men GCN1.2 saknar). Nu kan detta vara en titel som använder DX11.3, där kan man använda alla feature-levels från DX12.

Problemet är det som bl.a. du länkade till tidigare: Maxwell och GCN är varandras inverser i vad som är styrkor och vad som är svagheter. Av allt att döma kommer Polaris främst stärka upp sig på det som är dagens GCN-modellers svagheter, d.v.s. triangel-kapacitet!

Var detta jag tänkte på

"It's a complete mess at first sight.
Best case scenario for AMD is the absolute worst case scenario for Nvidia.
And exactly the same vice versa as well, if you count in the use of CUDA."

DX12 kommer nog bli en rätt "bumpy-ride" initialt, gissar att flera titlar kommer vara extremt tiltade mot ena eller andra lägret. Lär rätta till sig när AMD/Nvidia fått mer erfarenhet med DX12 och därmed anpassat sina designer till vad spelen faktiskt använder.

Och du anser att WCCF-tech har bevisat att det verkligen är i HBAO+ som problemet ligger och inte i DX12 eller AMDs drivare? Vad jag läst om HBAO+ problemet så nämner man bara GCN1.2 i samband med detta (380 och Fury-serien), men kanske någon som har spelet på 390/390X samt på något GCN1.0 som kan kommentera om det är ett generellt problem.

Gears of War har ju också problem med mikropauser på GCN1.1 och GCN1.2, ett problem som inte finns på GCN1.0 eller Nvidia. Är det rimligt att då förutsätta att problem även här är Gameworks och inte t.ex. AMDs drivers?

Även Nvidia hade problem i denna titel om man använder G-synk, något som många också försökte hävda "Gamewrecks" men som visade sig vara ett problem i Windows UWP plattform och dess hantering av "fullscreen" (Microsoft har tagit på sig detta och har lovat ett fix).

Har köpt både Gears of War och Ashes of the Singularity, av dessa två skulle jag säga att det förra är en långt stabilare titel just nu. AoS problem verkar nästan uteslutande kretsa kring DX12, har inte kört DX11 speciellt mycket (köpte spelet mest för att testa DX12) men så här långt har i alla fall spelet aldrig kraschat när man kör DX11 vilket inte kan sägas om DX12.

En annan intressant aspekt med AoS är hur få som klagar på att t.ex. SweC snabbtestade detta spel i "Extreme" i stället för "High". Precis som Witcher 3 + Hairworks lägger på brutalt mycket jobb på GPU utan att ge någon större visuell förbättring så är skillnaden mellan "High" och "Extreme" (eller "Crazy") minimal. Däremot så gynnas Nvidias GPUer långt mer av Extreme->High än AMDs.

Angående detta test och kommentarer likt "970 is doomed!": läser vi samma snabbtest? Majoriteten av de som kör kort som 970/390 kör också 1920x1080 och för att vara med i PC Master Race så har jag förstått att det är 60 FPS+ som gäller. Hur kan man dra någon annan slutsats än att 970 > 390 i 1920x1080 i detta spel då (statistisk kör ingen med referensmodell av vare sig 970 eller 390)?

I 2560x1440 med samma 60 FPS+ krav så är 970 == 390, d.v.s. ungefär som det "alltid" har varit.

Bra inlägg som vanligt Yoshman, tack!

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Skrivet av Stoff3th3m4n:

Förmodligen för att det kan skilja ganska mycket i prestanda mellan olika kort från tredjepartstillverkare.

Absolut är det så, men det blir ju lite smålöjligt att köra med ett 980ti som är ca. 20% sämre än t.ex Asus variant.

Permalänk
Datavetare
Skrivet av elajt_1:

Är du inte ute och cyklar lite nu? Latensen känner jag inte någon skillnad på över huvud taget, utan snarare att känsligheten i musen gör skillnad i upplevelsen, dvs. "man" uppfattar spelet som bra mycket hackigare/ryckigare vid musanvändande där känsligheten (sensitivity) vanligtvis är mycket högre än vid användandet av en Xbox-kontroll. När jag kopplar in min Xbox-kontroll till spelet på PC som är låst till 30 fps, så skulle jag vilja påstå att det är minimal om någon skillnad.

Jag pratar inte om latens absolutbelopp, den är faktiskt relativt irrelevant (inom rimliga gränser). Jag pratar om variansen i latens, variansen går betydligt lättare att hålla konstant på en konsol.

PC lär i de flesta fall ha lägre genomsnittlig latens tack vare högre genomsnittlig FPS. Vår hjärna är däremot otroligt bra på att kompensera för latens under förutsättning att latensen är relativt konstant, därför tenderar konsolspel ge en långt bättre upplevd prestanda vid 30 FPS än vad PC vid 30 FPS.

Edit: Körde både RoTR och JC3 med XBO-kontrollen både på PC och Xbox, så den delen borde vara ute ur ekvationen. Tror att handkontroll är lite mer förlåtande mot latens än mus, ändå var det än sämre upplevelse på PC vid 30 FPS. Körde med 860M som klarar >30 FPS i genomsnitt men når inte i närheten av 60 FPS. Att låsa ett kraftigare kort på 30 FPS (t.ex. 390 eller 970) kommer ge en bättre upplevelse, men är mindre jämförbart med den upplevelse man får i 4k med 980Ti/Fury X då de helt enkelt ligger på sin absolut maxkapacitet precis som 860M gör i 1920x1080 och för kretsen rimliga inställningar.

Och på tal om att låsa FPS, spelet i denna artikel har ganska kraftiga FPS-dippar. Skulle vara intressant att se hur Maxwell uppför sig i detta spel med vsync på då den variant av "turbo-boost" som används i Maxwell gen 2 har två turbonivåer (GPU boost 2.0). Den som listas är "normalnivå", är typiskt den frekvens GPUn kör på så länge man kyler det tillräckligt och det är lastat 100%.

Om man däremot slår på vsync kommer GPUn lasten gå under 100% och då kör kortet på en högre "turbonivå" (nästan 100 MHz högre på 970 MSI Gaming) då det finns mer "thermal headroom". Detta är en stor fördel i titlar med stor variation i FPS då dipparna tenderar att bli mindre p.g.a. högre GPU-kapacitet i de lägena. Detta är alltså på icke-klockade modeller, d.v.s. de är endast "fabriksöverklockade". Vet inte vad som händer om man överklockar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Subjektivt så kan jag säga att det fungerar finfint för mig utan Crossfire (~40 FPS på Medium). Aktiverar jag CF däremot så fladdrar allt och jag får lägre prestanda än med ett kort.

Inväntar Crimson 16.3 med spänning.

Visa signatur

CPU: AMD Ryzen 7 7800X3D CO + 2133 MHz FCLK GPU: Sapphire RX 7900 XT Pulse OC
RAM: Corsair 2x16GB 6000 MT/s CL30 (Hynix) BZ subtimings
MB: ASUS ROG Strix B650E-F Gaming WIFI SSD: Kingston KC3000 2TB PSU: Corsair RM850x

Permalänk
Medlem
Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem
Skrivet av anon5930:

Med tanke på att OpenGL i väldigt många år varit i det närmaste irrelevant för spel på PC så är det ju heller inget som ATI och, de senaste tio åren ca, AMD prioriterat. Vilket ju gör resultatet minst sagt förvånande.

Nu har jag lite svårt att se att prestandan för Radeon-korten skulle sjunka till lanseringen men blir klart intressant att se prestandatesterna på färdigt spel.

Synd bara att spelet inte använder Vulkan, hade varit en bra titel att göra premiär med. Men Vulkan är fortfarande lite för tidig och utvecklingen av DOOM har pågått väldigt länge.

Skickades från m.sweclockers.com

Beror på. Talos Priciple fick vulkan wrapper ganska fort. Dock lär det ta ett tag innan den är helt färdig, men vulkan prestandan är bättre nu än opengl på linux vilket är ett bra tecken iaf.

Chris Roberts med Star Citizen är dock på vulkan spåret så det lär bli intressant hur fort det lär ske.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem

@Oneone: i5-3570k@3.9ghz

Permalänk

Hm. Jag rockar runt 35 fps med datorn i sig. Måste pilla lite inställningar tror jag

Visa signatur

Asus ROG Strix B550-F Gaming WIFI, AMD Ryzen 7 5700x, MSI Ventus 3080 OC

Permalänk

DISS DISS DISS ! Vilken besvikelse...

BF4 från 2013 ser i vissa fall bättre ut, men åtminstonde lika bra... OCH det presterar ett perfekt flyt med ULTRA settings@1440p på mitt överklockade 970. Att detta är en 3 år senare release finns det inget "ögongodis" som avslöjar. Dessutom ljög de i trailern med massa förrenderad grafik och effekter som tagits bort !!! BOJKOTTA DETTA LURENDREJARSPEL !

Visa signatur

Core i7 2600@4Ghz - 16GB Corsair Vengenace@1600Mhz - 90GB Corsair Force3 SSD - WD 1TB HDD - EVGA GTX970@1501Mhz - Corsair TX650 PSU - AcerXB270HU 144Hz/GSYNC/1440p - Biltema högtalare med subwoofer. MSI P67A G45 MB *-*-* 11000 poäng Firestrike, 3050 poäng Unigine Heaven, default 2560x1440 *-*-* Windows 7 64. Byggd 2011

Permalänk
Medlem
Skrivet av Underklockaren:

DISS DISS DISS ! Vilken besvikelse...

BF4 från 2013 ser i vissa fall bättre ut, men åtminstonde lika bra... OCH det presterar ett perfekt flyt med ULTRA settings@1440p på mitt överklockade 970. Att detta är en 3 år senare release finns det inget "ögongodis" som avslöjar. Dessutom ljög de i trailern med massa förrenderad grafik och effekter som tagits bort !!! BOJKOTTA DETTA LURENDREJARSPEL !

Nja. Ljuseffekterna och framförallt hur de samspelar med partikeleffekter är på en annan nivå i The Division än i Frostbite-spel. Ljugit har de heller aldrig gjort, de har hela tiden varit noga med att säga att det är en utvecklingsversion som visas och att saker kan komma att ändras innan release.

Håller med om att det är drygt när spel inte lever upp till förväntningarna, men man kan väl ändå tänka efter lite i sin kritik. Jag skulle snarare klaga på att spelvärlden är mycket mindre än vad vi förväntade oss, gameplayet tycker jag är grymt roligt.

Visa signatur

CPU: AMD Ryzen 7 7800X3D CO + 2133 MHz FCLK GPU: Sapphire RX 7900 XT Pulse OC
RAM: Corsair 2x16GB 6000 MT/s CL30 (Hynix) BZ subtimings
MB: ASUS ROG Strix B650E-F Gaming WIFI SSD: Kingston KC3000 2TB PSU: Corsair RM850x

Permalänk
Medlem
Skrivet av Kakann:

Intressant för diskussionen AMD vs Nvidia är ju att ett 980ti från partnertillverkare kan vara över 20% snabbare än referensmodellen här i testet. Samtidigt har även dessa kort från partnertillverkare fortfarande liknande överklockningsutrymme som ett Fury X.

Swec, varför kör ni inte med eftermarknadskort när det skiljer så pass mycket i prestanda och folk knappast köper referensmodeller längre?

Skickades från m.sweclockers.com

Det är en nedskalad skitkrets i 980ti och ett tu tre så blir korten instabila när du spelar något riktigt krävande spel.

Permalänk
Medlem
Skrivet av Commander:

Beror på. Talos Priciple fick vulkan wrapper ganska fort. Dock lär det ta ett tag innan den är helt färdig, men vulkan prestandan är bättre nu än opengl på linux vilket är ett bra tecken iaf.

Chris Roberts med Star Citizen är dock på vulkan spåret så det lär bli intressant hur fort det lär ske.

Unreal Engine 4 har nu stöd även för Vulkan. Steam anpassade sig så sent som igår:

Citat:

Steam Client Update Released
An update has been released for the Steam Client and will be automatically downloaded.

General
Added Steam Overlay support for games using the Vulkan graphics API
...
Windows
Added Steam Overlay support for DirectX 12 (requires the latest Windows 10 updates)
Reduced CPU usage and improved frame rates for some D3D9 and OpenGL games launched through Steam
...

http://store.steampowered.com/news/?feed=steam_client

Permalänk
Skrivet av EliteSweden:

Varför envisas speltillverkarna med att lägga på ett kromatisk aberrations filter?! Det ser ju hemskt ut! Som att gå runt med ett par gamla objektiv från 70-talet framför ögonen! Och som vanligt går det väl inte att stänga av skiten heller.

Det går att stänga av. Precis som alla andra effekter i spelet, till och med konsolspelarna har en optionsmeny för grafiken.

Om du inte vet om det går att stänga av eller inte, då säger man inte att det inte går att stänga av.

Permalänk
Hjälpsam
Skrivet av Yoshman:

Jag pratar inte om latens absolutbelopp, den är faktiskt relativt irrelevant (inom rimliga gränser). Jag pratar om variansen i latens, variansen går betydligt lättare att hålla konstant på en konsol.

PC lär i de flesta fall ha lägre genomsnittlig latens tack vare högre genomsnittlig FPS. Vår hjärna är däremot otroligt bra på att kompensera för latens under förutsättning att latensen är relativt konstant, därför tenderar konsolspel ge en långt bättre upplevd prestanda vid 30 FPS än vad PC vid 30 FPS.

Edit: Körde både RoTR och JC3 med XBO-kontrollen både på PC och Xbox, så den delen borde vara ute ur ekvationen. Tror att handkontroll är lite mer förlåtande mot latens än mus, ändå var det än sämre upplevelse på PC vid 30 FPS. Körde med 860M som klarar >30 FPS i genomsnitt men når inte i närheten av 60 FPS. Att låsa ett kraftigare kort på 30 FPS (t.ex. 390 eller 970) kommer ge en bättre upplevelse, men är mindre jämförbart med den upplevelse man får i 4k med 980Ti/Fury X då de helt enkelt ligger på sin absolut maxkapacitet precis som 860M gör i 1920x1080 och för kretsen rimliga inställningar.

Och på tal om att låsa FPS, spelet i denna artikel har ganska kraftiga FPS-dippar. Skulle vara intressant att se hur Maxwell uppför sig i detta spel med vsync på då den variant av "turbo-boost" som används i Maxwell gen 2 har två turbonivåer (GPU boost 2.0). Den som listas är "normalnivå", är typiskt den frekvens GPUn kör på så länge man kyler det tillräckligt och det är lastat 100%.

Om man däremot slår på vsync kommer GPUn lasten gå under 100% och då kör kortet på en högre "turbonivå" (nästan 100 MHz högre på 970 MSI Gaming) då det finns mer "thermal headroom". Detta är en stor fördel i titlar med stor variation i FPS då dipparna tenderar att bli mindre p.g.a. högre GPU-kapacitet i de lägena. Detta är alltså på icke-klockade modeller, d.v.s. de är endast "fabriksöverklockade". Vet inte vad som händer om man överklockar.

Detta med att låsa max fps för att ge kortet mer styrka i besvärligare partier är något jag också funderat över.
http://www.sweclockers.com/forum/trad/1411265-minimum-fps-gpu...
Vore kul att se någon form av test angående detta.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Har en snabb fråga som inte har med grafiken att göra, hoppas det är ok.

Går det att spela detta med mobilt bredband med låst data/månad

Jag spelar aldrig online, men det här kräver det även om man spelar ensam, så jag undrar om spelet sänder data hela tiden och på sådant sätt äter upp stora mängder av den pott man har (ex 20Gig/mån) (bor inte hemma ljust nu)

Eller är "always-online" bara DRM?

Visa signatur

XripperX

Permalänk
Medlem
Skrivet av XripperX:

Har en snabb fråga som inte har med grafiken att göra, hoppas det är ok.

Går det att spela detta med mobilt bredband med låst data/månad

Jag spelar aldrig online, men det här kräver det även om man spelar ensam, så jag undrar om spelet sänder data hela tiden och på sådant sätt äter upp stora mängder av den pott man har (ex 20Gig/mån) (bor inte hemma ljust nu)

Eller är "always-online" bara DRM?

Brukar vara ganska dålig ping på mobila bredband så jag undrar om den här sortens spel blir en trevlig upplevelse då.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Datavetare
Skrivet av Ratatosk:

Detta med att låsa max fps för att ge kortet mer styrka i besvärligare partier är något jag också funderat över.
http://www.sweclockers.com/forum/trad/1411265-minimum-fps-gpu...
Vore kul att se någon form av test angående detta.

Det vore väldigt intressant att just se om och i så fall hur mycket det påverkar lägsta FPS.

Noterade detta då jag själv avskyr tearing och kör därför alltid med vsync (och har 60 Hz TV just nu till speldatorn). Hade för mig att 970 MSI Gaming hade en turbofrekvens under 1300 MHz (den är 1279 MHz). I spel som Witcher 3 där man med maxade inställningar hamnar på ~55 FPS så visar MSI Gaming app overlay just 1279 MHz, men i andra spel och även i Witcher 3 med något lägre inställningar där man har kapacitet för >60 FPS och GPUn därmed ligger under 100% last så säger overlayen att man ligger på en en bra bit över 1300 MHz (har för mig att det är 1360-1370 MHz någonstans).

Detta är på ett kort som inte är klockat utöver att jag valt "OC" läget i MSI Gaming App (finns tre lägen, "silent", "gaming" och "OC").

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av Commander:

Beror på. Talos Priciple fick vulkan wrapper ganska fort. Dock lär det ta ett tag innan den är helt färdig, men vulkan prestandan är bättre nu än opengl på linux vilket är ett bra tecken iaf.

Chris Roberts med Star Citizen är dock på vulkan spåret så det lär bli intressant hur fort det lär ske.

Fast Talos använder inte Vulkan fult ut vilket är vad jag hade hoppats på att DOOM skulle ha kunnat göra. Ars testade spelet vid "lanseringen" och det var inget vidare då. Men bättre kommer det ju bli, speciellt i titlar som utvecklats redan från början för Vulkan.

http://arstechnica.com/gaming/2016/02/vulkan-benchmarks-a-boo...

Permalänk
Medlem
Skrivet av Stoff3th3m4n:

Brukar vara ganska dålig ping på mobila bredband så jag undrar om den här sortens spel blir en trevlig upplevelse då.

Lirade betan på Tele2 100gb 4g och märkte inga problem.

Visa signatur

Main. - Fractal Design Meshify C - Corsair AX860 - Asus Strix B550-E - AMD Ryzen 5 3600 - 32gb Corsair Vengeance 3200mhz - Asus Strix GTX 1080 - Samsung 970 Evo 250gb - Kingston A200 1tb - 1x 840 Pro 256GB - 2x 850 Pro 256GB - 2x 840 Evo 250GB RAID0 - 2x Samsung 850 Evo 500GB - Logitech G502 - Corsair K95 RGB - BenQ XL2420T - Sennheiser Game One
2018 Macbook Pro 13" 2018 iPad Pro 12,9"
Projekt 13 - Bygglogg WIP

Permalänk
Medlem
Skrivet av bopp:

Unreal Engine 4 har nu stöd även för Vulkan. Steam anpassade sig så sent som igår:
http://store.steampowered.com/news/?feed=steam_client

Fast har ut4 stödet också?

Skrivet av anon5930:

Fast Talos använder inte Vulkan fult ut vilket är vad jag hade hoppats på att DOOM skulle ha kunnat göra. Ars testade spelet vid "lanseringen" och det var inget vidare då. Men bättre kommer det ju bli, speciellt i titlar som utvecklats redan från början för Vulkan.

http://arstechnica.com/gaming/2016/02/vulkan-benchmarks-a-boo...

Du kan gå in på deras forum istället så får du se hur de lägger till. Just nu så är Vulkan inte trådat för talos utan använder 1 tråd, och tittar du på benchmarks från folk så vinner Vulkan över OpenGL på Linux men hamnar ca samma nivå som DX11. Deras nästa är att få det trådat samt optimisera för Vulkan med hur alla objekt skapas mm. Men de är redan glada över Vulkan som det ser ut och dess fördelar över D3D12.

DOOM använder OpenGL så Linux klienten lär vara snabbare än Windows, folk har redan rapporterat att DOOM funkar utmärkt på Wine och prestandan är grym tydligen.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem
Skrivet av LinusNeuman:

Det går att stänga av. Precis som alla andra effekter i spelet, till och med konsolspelarna har en optionsmeny för grafiken.

Om du inte vet om det går att stänga av eller inte, då säger man inte att det inte går att stänga av.

Jag sa inte att det inte går att stänga av, läs igen: "Och som vanligt går det VÄL inte att stänga av skiten heller." Då det vanligtvis inte går att stänga av CA:n i de flesta spel utan att gå igenom config-filer.

Permalänk
Medlem
Skrivet av Ratatosk:

Detta med att låsa max fps för att ge kortet mer styrka i besvärligare partier är något jag också funderat över.
http://www.sweclockers.com/forum/trad/1411265-minimum-fps-gpu...
Vore kul att se någon form av test angående detta.

Är en intressant tanke, men det är också något som är extremt svårt att få "resultat" från, då det kan räcka med att ha lite bättre kylning i lådan så du får ner temps mer så får du bättre prestanda.

Att det hjälper dock är jag i teorin övertygad om, men frågan är hf man ska kunna på ett konstant sätt visa det.

Personligen brukar jag försöka att inte max lasta korten om det går, just pga ljudnivå, värme och turbo hastigheter. Anser några fps mer som jag inte ser ändå är inte värt för att elda upp ett kort fortare. Men det kan vara ren placebo effekt...

Permalänk

Beta drivarna som släpptes den 8e bumpade fps från 35 till över 60 för mig. Var kvar på tombraider drivaren innan.

Visa signatur

Asus ROG Strix B550-F Gaming WIFI, AMD Ryzen 7 5700x, MSI Ventus 3080 OC