Snabbtest: Grafikprestanda i Tom Clancy's The Division

Permalänk
Inaktiv
Skrivet av Gustav.Henrik:

nvidia kort är inget vidare när det kommer till ren beräkningskraft. Nedskalade kretsar som därmed tillåter hög klockfrekvens och hjälps på traven av att utvecklare samarbetar med nvidia.

Inget snack om saken, nästa kort blir uppgraderingen av r9 fury x, ångrar verkligen att jag valde 980ti över r9 fury x.

Fast GTX 980 Ti är ju inget dåligt kort, det är ju fortfarande ett av de två bästa korten på marknaden (med en GPU). Men visst, verkar som att Fury X börjar dra ifrån i nyare titlar, om det så är DirectX 12, 11 eller OpenGL (om man kan lita på det ryska testet av nya DOOM då).

Uppfattade det först som att du tänkte byta ut 980 Ti mot Fury X (finns en del som gjort det nu på senare tid har jag noterat) så jag fick skriva om typ hela mitt inlägg hehe. Lite dumt att uppgradera så pass nära nya generationerna släpps från båda tillverkarna. Dessa kort kommer kännas gamla, även om de lär stå sig rätt bra inledningsvis.

Du gjorde ett bra val, speciellt tidigare då Fiji-baserade korten presterade sämre än de gör idag. Just nu blir det svårare att kora någon vinnare, 980 Ti kan klockas bra men återstår att se om ens det räddar den när speciellt Fury X kan användas optimalt.

Kollar man längre ner och ser just 4 år gamla HD7970 står sig bra i nya spel så inser man ju att vi ändå lever i en riktigt bra period just nu när så gamla kort fortfarande kan prestera så pass bra som de faktiskt gör. Nu hade nog även jag uppgraderat om jag fortfarande suttit på ett Haiti-baserat kort men för de som slog till på dessa kort då är faktiskt ena riktiga vinnare. Och jag tror nog att 980 Ti borde stå sig rätt bra med de kommande åren, värre med 980 och speciellt 970.

Permalänk
Medlem
Skrivet av philipborg:

Jag vet inte riktigt om jag fullt håller med. Vi har definitivt nått punkten då högre upplösning med lägre inställningar ger (iaf enligt mig) en subjektivt bättre bild än vice versa. (Speciellt upp till 2560x1440.)

Sitter idag på en 3840x2160 skärm (införskaffade den för arbetesutrymmet, inte för spel) och det flyter på riktigt bra. Har inga problem att driva det. Sitter däremot på ett rätt biffigt grafikkort (295x2) så det är ju inte något lättdrivet men verkligen långt ifrån omöjligt. (Märker däremot hur VRAM börjar strypa lite, men inget kritiskt problem ännu.)

Vad man ska tänka på är ju att sweclockers redaktionen kör samma inställningar i alla upplösningar medans i ett verkligt scenario brukar man kunna sänka AA rejält med högre upplösning. Sedan är det många inställningar som tar mer än dem ger som ofta finnes i presets. I ett verkligt scenario så konfigurerar man mer inställningarna. (Ett exempel är godrays i fallout4.)

Men visst, jag håller med om att det är lite löjligt hur Nvidia och AMD gapar om spelande i 3840x2160 med singelt mellanklass kort. Det krävs biffigare hårdvara, inget snack om saken.

Satsar man däremot på 144FPS så råder jag verkligen att man stannar kvar på 1920x1080 ett tag till samt överklockar sin CPU rejält.

Kan hålla med dig i att man kanske ställer in lite andra inställningar mot vad just Sweclockers gjort för att få några extra bilder per sekund eller för att bättre passa ens egna smak när det gäller bla effekter och ljus. Det kan mycket väl också finnas några inställningar som kanske inte gör så mycket på utseendet men ger desto fler bilder per sekund.
Sedan brukar olika speltyper också kräva lite olika flyt för att det skall ge bra och trevlig inlevelse.
Jag har dock den subjektiva uppfattningen om att dippar under 40fps inte skapar någon större inlevelse i något liknande spel som detta. Du behöver mer eller mindre en G-sync/Freesync skärm för att det skall bli okey.

Sweclockers inställningar passar självklart inte alla men det ger ändå en bra hint att inställning High i 1440p för närvarande inte riktigt är inom räckhåll för annat än riktigt rejäla system. Nu blir prestandan kanske ytterligare något högre med en snabbare cpu än den som sitter i deras rigg men ändå.
Ett 980Ti med standard övercklockning blir alltså ganska exakt minimum för vad som krävs för att spela i 1440p high. Det känns i mina ögon inte som standard segmentet direkt.
Jag skulle nog påstå att en en G-sync/freesync skärm skulle vara mer nödvändig än en 120/144hz skärm i det fallet om man var tvungen att välja endera.

Permalänk
Medlem
Skrivet av anon5930:

Fast GTX 980 Ti är ju inget dåligt kort, det är ju fortfarande ett av de två bästa korten på marknaden (med en GPU). Men visst, verkar som att Fury X börjar dra ifrån i nyare titlar, om det så är DirectX 12, 11 eller OpenGL (om man kan lita på det ryska testet av nya DOOM då).

Hm skulle vara lite tveksam till DOOM då AMD har varit hela tiden efter på OpenGL mot Nvidia. Men är så fallet så kanske det betyder att AMD faktiskt börjat att förbättra OpenGL prestandan.

Vem vet kanske deras kort blir användbara i Linux nån dag.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem

Alltid välkommet med ett test. Tackar

Visa signatur

[i7 6700k @4500|Asus Z170 Pro Gaming|Corsair Vengeance DDR4 3200MHz XMP |EVGA GQ 1000W Hybrid Modular 80+|MSI GeForce GTX 1080|Windows 10 Pro Swe|Aoc 28-4K|SSD Samsung 850 evo 250 Gb|

Permalänk
Medlem

känns så jävla fett att man har ett fury x i burken... och bättre lär de bli... hejja team red

Visa signatur

Fractal Design Define R5 , I7 4790K@4800mhz ,Corsair vengeance 2400Mhz@2600 CL 11 16GB ,Cooler master V850 , Fury X ,MSI Z97 Gaming 9 AC , Samsung 840 Evo 500GB +1tb hdd , Corsair H100i.
Asus vn247h

Permalänk
Medlem
Skrivet av lanbonden:

Ser ut som mitt gtx 580 får det jobbigt i 1440p i detta liret, börjar nog bli dags för en uppgradering snart

Kan tänka mig det, gick från 580 till 980 ifjol och ser att 980 inte duger heller.

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem

Varför envisas speltillverkarna med att lägga på ett kromatisk aberrations filter?! Det ser ju hemskt ut! Som att gå runt med ett par gamla objektiv från 70-talet framför ögonen! Och som vanligt går det väl inte att stänga av skiten heller.

Permalänk
Skrivet av Jonathanknet:

Varför var inte gtx 780 med? Det är väl en massa människor som fortfarande sitter med såna kort.
Är det bara jag eller blir testerna mer o mer avskalade? Vill minnas att man alltid testade dom nuvarande och föregående grafikkort från båda lagen o även hade med sli och crossfire.
Man gillar o testa högpresterande o dyra singelkort men inte flerkortslösningar?

Nja.. väldigt många som har övergått till 970. Skulle säga att det är väl inte mycket vanligare än ett 680 eller 690, men dessa ser man inte heller i tester. Men jag håller med, tycker fortfarande 660ti, 690, 750ti, 770, 780, 780ti ska alltid vara med i benchmarks, sen många fortfarande sitter på dessa kort.

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Skrivet av BergEr:

Kan tänka mig det, gick från 580 till 980 ifjol och ser att 980 inte duger heller.

Dual Titan X duger inte för Ubisoft heller tydligen.

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Medlem
Skrivet av Yoshman:

Sedan måste jag invända mot detta påstående i artikeln:

"Vid maxade 3 840 x 2 160 pixlar är det AMD som drar det längsta strået och lägger sig på en generellt högre nivå än Nvidia-kortet. Den som inte är finkänslig med bildfrekvensen kan här gå upp till "Medium" och få konsolliknande prestanda."

En PC som ligger runt 30 FPS är inte jämförbar med en konsol. Har kört en del Rise of the Tomb Raider och Just Cause 3 både på XboxOne och PC, XBO siktar på 30 FPS i båda fallen och det är en riktigt behaglig upplevelse medan samma absolut inte kan sägas om PC om man snittar runt 30 FPS, där man vill lägga sig runt 60 FPS.

Förklaringen är rätt enkel, konsoler har betydligt bättre kontroll på sin render-pipeline så variansen i latensen mellan spelmotorn och resultatet på skärmen kan hållas klart läger på en konsol jämfört med PC. En PC behöver högre högre FPS för att ge samma upplevd prestanda (något som inte är så svårt givet HW i XBO/PS4...).

Angående detta så är adaptive sync räddningen. Det gör en enorm skillnad när man är under 60fps.

Permalänk
Medlem
Skrivet av Sveklockarn:

Det kan inte bero på att detta är ännu ett ointressant skitspel från Ubisoft?

Att Ubisoft gör skitspel är sant men det är inte det som är nyhetsvärdet, utan det är att AMD presterar bättre än Nvidia i ett Gameworks spel.

Vilket är märkvärdigt. Man ser ju reklam med Division och Nvidia överallt.

Men det ska bli intressant att se dig kommentera övriga spel som släpps. I vilka AMD som det verkar även där kommer dominera Nvidia.

Permalänk
Avstängd

Högst intressant...

Permalänk
Medlem
Skrivet av EliteSweden:

Varför envisas speltillverkarna med att lägga på ett kromatisk aberrations filter?! Det ser ju hemskt ut! Som att gå runt med ett par gamla objektiv från 70-talet framför ögonen! Och som vanligt går det väl inte att stänga av skiten heller.

Finns av/på för det längst ner i listan över grafikinställningar.

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem

@Gustav.Henrik: Jag passade på att sälja båda mina TI nu medans man fortfarande kan få bra betalt för dom begagnat. Köpte 2st Fury för 4300/st på Misco så jag anser att det var ett riktigt bra byte.

Visa signatur

|Asrock X370 Pro Gaming| Ryzen 3800XT| 32GB Geil Super Luce 3400mhz ddr4| Hellhound 7900XT | Samsung 950 Pro 512gb & Seagate 600 480gb| Crosair RM1000| Deepcool Dukase| Siberia 840| Zowie EC1-A| Corsair RGB MX Blue| Samsung Odyssey G8 |

Permalänk
Datavetare
Skrivet av Ratatosk:

Detta är en titel som HBAO+ fungerar bra på.
HBAO verkar inte påverka mycket, PCSS och HFTS ganska rejält.
Kanske blir bättre med en ny drivare och/eller patch.
http://i.imgur.com/9e1aq6V.jpg
http://www.computerbase.de/2016-03/the-division-benchmark/#ab...

Min misstänksamhet mot Gameworks grundar sig helt enkelt på att så många GW-titlar misslyckats kapitalt.
Denna är ett glädjande undantag, RoTR fungerar också ganska bra vad jag förstått.

Ser väl bra ut? Eller förväntar sig folk att det ska vara gratis att göra effekter och att Gameworks misslyckas kapitalt för saker som PCSS och HBAO+ faktiskt kostar FPS?

I RoTR verkar de flesta vara överens om att HBAO+ ger märkbart bättre kvalité än "vanlig" AO, är det inte ganska rimligt att högre renderingskvalité också blir lite dyrare att utföra? I alla dagens titlar som kör Gameworks går det att slå av de tekniker som implementeras via Gameworks, så är ju upp till var och en att bedöma kostnad vs renderingskvalité. Liksom svårt att se hur det kan vara ett problem då.

Att PCSS råkar vara dyrare på Fury X jämfört med 980Ti går nog att förklara om man läser den korta beskrivningen av tekniken jag länkade till. PCSS är en kombination av shader och shadow-map, det senare steget kommer belasta ROPs och inte shaders. Fury-serien är ganska obalanserad, eller den skiljer sig i alla fall från alla andra av dagens GPUer, i att shader-kapaciteten relativt rastrering och triangel-kapacitet är extremt förskjuten mot shaders. Fury har samma rastrering och triangel-kapacitet som motsvarande klockade 390/390X (som i sin tur har lägre rastrering och framförallt triangel-kapacitet jämfört med 970/980 vilket t.ex. märks i spel som använder tesselering).

EDIT: Var tvungen att läsa på lite om Hybrid Frustum Traced Shadows (HFTS). Som jag förstår det är detta en teknik som mer kanske beror på triangel-kapacitet än shaders, att då Maxwell hanterar detta mer effektivt är ju självklart då Maxwell har betydligt högre triangel-kapacitet än motsvarande GCN-modell. D.v.s. det är inte så att Gameworks aktivt pajar för GCN, men Nvidia är mycket väl införstådda med styrkorna och svagheterna i sina GPUer så självklart väljer de i första hand tekniker som spelar på deras produkters styrkor.

Nu verkar det som om HFTS inte alls gick att köra på Fury, stod det någon kommentar till det i artikeln? Från texten i dokumentet jag länkade får jag lite känslan att "raster order view" skulle kunna hjälpa här, men detta är ju en DX11 titel och ROV kräver feature level 12.1 (som Maxwell har men GCN1.2 saknar). Nu kan detta vara en titel som använder DX11.3, där kan man använda alla feature-levels från DX12.

Problemet är det som bl.a. du länkade till tidigare: Maxwell och GCN är varandras inverser i vad som är styrkor och vad som är svagheter. Av allt att döma kommer Polaris främst stärka upp sig på det som är dagens GCN-modellers svagheter, d.v.s. triangel-kapacitet!

Var detta jag tänkte på

"It's a complete mess at first sight.
Best case scenario for AMD is the absolute worst case scenario for Nvidia.
And exactly the same vice versa as well, if you count in the use of CUDA."

DX12 kommer nog bli en rätt "bumpy-ride" initialt, gissar att flera titlar kommer vara extremt tiltade mot ena eller andra lägret. Lär rätta till sig när AMD/Nvidia fått mer erfarenhet med DX12 och därmed anpassat sina designer till vad spelen faktiskt använder.

Och du anser att WCCF-tech har bevisat att det verkligen är i HBAO+ som problemet ligger och inte i DX12 eller AMDs drivare? Vad jag läst om HBAO+ problemet så nämner man bara GCN1.2 i samband med detta (380 och Fury-serien), men kanske någon som har spelet på 390/390X samt på något GCN1.0 som kan kommentera om det är ett generellt problem.

Gears of War har ju också problem med mikropauser på GCN1.1 och GCN1.2, ett problem som inte finns på GCN1.0 eller Nvidia. Är det rimligt att då förutsätta att problem även här är Gameworks och inte t.ex. AMDs drivers?

Även Nvidia hade problem i denna titel om man använder G-synk, något som många också försökte hävda "Gamewrecks" men som visade sig vara ett problem i Windows UWP plattform och dess hantering av "fullscreen" (Microsoft har tagit på sig detta och har lovat ett fix).

Har köpt både Gears of War och Ashes of the Singularity, av dessa två skulle jag säga att det förra är en långt stabilare titel just nu. AoS problem verkar nästan uteslutande kretsa kring DX12, har inte kört DX11 speciellt mycket (köpte spelet mest för att testa DX12) men så här långt har i alla fall spelet aldrig kraschat när man kör DX11 vilket inte kan sägas om DX12.

En annan intressant aspekt med AoS är hur få som klagar på att t.ex. SweC snabbtestade detta spel i "Extreme" i stället för "High". Precis som Witcher 3 + Hairworks lägger på brutalt mycket jobb på GPU utan att ge någon större visuell förbättring så är skillnaden mellan "High" och "Extreme" (eller "Crazy") minimal. Däremot så gynnas Nvidias GPUer långt mer av Extreme->High än AMDs.

Angående detta test och kommentarer likt "970 is doomed!": läser vi samma snabbtest? Majoriteten av de som kör kort som 970/390 kör också 1920x1080 och för att vara med i PC Master Race så har jag förstått att det är 60 FPS+ som gäller. Hur kan man dra någon annan slutsats än att 970 > 390 i 1920x1080 i detta spel då (statistisk kör ingen med referensmodell av vare sig 970 eller 390)?

I 2560x1440 med samma 60 FPS+ krav så är 970 == 390, d.v.s. ungefär som det "alltid" har varit.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av sesese:

ett 7970 är 1bild/s efter Nvidias 970 i 4K ???? vad är det som händer??? 7970 kom år 2012

Det är dock så låg prestanda så det är stillbilder, så rätt irrelevant.
780Ti springer tom om 970 där, vilket också visar att det är mer 970s minne eller optimering som sätter käpparna i hjulen.
Oavsett så är det ett scenario som sällan sker i "RL"

Att 290X har sprungit om 780Ti och 7970 sprungit om 680 i 1440p är dock intressant. Men det krävs lite tweak i båda fallen för 60 fps.

Oavsett så är 970 ett 1080p kort i grunden, och där fungerar det än rätt bra
(något även gamla 290x gör )

Permalänk
Medlem

Hur ser det ut för er med CPU usage ? jag ligger på 100 % konstant när jag är inne i spelet, spelar ingen roll om jag kör låg upplösning min CPU får jobba riiiktigt hårt... Och FPSen skiljer sig knappt mellan 1440p och lägre än 1080p... Hur är det för er andra?

käns inte riktigt rätt, vet att folk hade problem med detta i betan... trode de skulle fixat detta.

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem

Som vanligt så känns sweclockers test som om dem testat den gröna sidan med en handuk över datorn.
detta test är inte ens i närheten av en rättvist resultat i min mening. amd presterar super bra och det är väldigt roligt att se, då dem inte varit aktuella på bra lännge i toppskicktet. men när jag ser reslutatet på 980ti i 1440p så kan jag inte låta bli att klia mig på huvudet. ser jag till mina egna fps när jag kör så är det som natt och dag. Siffrorna sweclocker fått fram är så låga till mina egna att det går att skratta åt. sitter du eller funderar du på ett 980ti så ska du inte titta på detta test som något svar XD

Visa signatur

NZXT Phantom | 4790k 4.8Ghz | GA-Z97X-Gaming 7 | 16GB | ASUS 1080 TI Strix | 3 x 525GB SSD | XFX P1-1050-BEFX Full custom watercooling loop.
Acer 28" Predator XB281HK G-Sync 4K

Permalänk
Medlem
Skrivet av Pudeln:

Att sossarna på Ubisoft gör skitspel är...

Vad menar du med att de är sossar?

Permalänk
Medlem

Vilka otrevliga dippar spelmotorn verkar ge :/ alla kort dippar långt under 60fps. Vad är det för grafikmotor i detta? Ser onekligen bekant ut...Watchdogs

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av Pudeln:

Det blir alltid en bedövande tystnad när det går bra för AMD

Jasså? Det har jag inte märkt? Tycker bara det är kul. Väloptimerade spel har aldrig något problem på något kort i motsvarande prisklass. några FPS hit och dit märker du ändå inte vid spelande. Detta spelet verkar ju dock hyffsat dåligt optimerat eller för krävande för current gen.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Intressant för diskussionen AMD vs Nvidia är ju att ett 980ti från partnertillverkare kan vara över 20% snabbare än referensmodellen här i testet. Samtidigt har även dessa kort från partnertillverkare fortfarande liknande överklockningsutrymme som ett Fury X.

Swec, varför kör ni inte med eftermarknadskort när det skiljer så pass mycket i prestanda och folk knappast köper referensmodeller längre?

Skickades från m.sweclockers.com

Permalänk
Hedersmedlem
Skrivet av Oneone:

Hur ser det ut för er med CPU usage ? jag ligger på 100 % konstant när jag är inne i spelet, spelar ingen roll om jag kör låg upplösning min CPU får jobba riiiktigt hårt... Och FPSen skiljer sig knappt mellan 1440p och lägre än 1080p... Hur är det för er andra?

käns inte riktigt rätt, vet att folk hade problem med detta i betan... trode de skulle fixat detta.

Lägre upplösning ger inte lägre belastning på processorn så det låter väl rätt vettigt att det inte blir mindre belastning på processorn när man gör jobbet lättare för grafikkortet men inte för processorn. Oddsen ökar ju då att flaskhalsen är just prollen.

Skrivet av Allihopa:

Som vanligt så känns sweclockers test som om dem testat den gröna sidan med en handuk över datorn.
detta test är inte ens i närheten av en rättvist resultat i min mening. amd presterar super bra och det är väldigt roligt att se, då dem inte varit aktuella på bra lännge i toppskicktet. men när jag ser reslutatet på 980ti i 1440p så kan jag inte låta bli att klia mig på huvudet. ser jag till mina egna fps när jag kör så är det som natt och dag. Siffrorna sweclocker fått fram är så låga till mina egna att det går att skratta åt. sitter du eller funderar du på ett 980ti så ska du inte titta på detta test som något svar XD

Jag vet inte om du mäter med fraps också men redaktionen har valt att inte titta på spelets egna siffror utan de använder fraps eftersom de verkar visa felaktiga värden. Kör lite tester med identiska inställningar som swec och se vad du får för min och medelvärde i fraps och posta de värdena vettja ;).

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Inaktiv
Skrivet av Commander:

Hm skulle vara lite tveksam till DOOM då AMD har varit hela tiden efter på OpenGL mot Nvidia. Men är så fallet så kanske det betyder att AMD faktiskt börjat att förbättra OpenGL prestandan.

Vem vet kanske deras kort blir användbara i Linux nån dag.

Med tanke på att OpenGL i väldigt många år varit i det närmaste irrelevant för spel på PC så är det ju heller inget som ATI och, de senaste tio åren ca, AMD prioriterat. Vilket ju gör resultatet minst sagt förvånande.

Nu har jag lite svårt att se att prestandan för Radeon-korten skulle sjunka till lanseringen men blir klart intressant att se prestandatesterna på färdigt spel.

Synd bara att spelet inte använder Vulkan, hade varit en bra titel att göra premiär med. Men Vulkan är fortfarande lite för tidig och utvecklingen av DOOM har pågått väldigt länge.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Söderbäck:

Lägre upplösning ger inte lägre belastning på processorn så det låter väl rätt vettigt att det inte blir mindre belastning på processorn när man gör jobbet lättare för grafikkortet men inte för processorn. Oddsen ökar ju då att flaskhalsen är just prollen.

Jag vet inte om du mäter med fraps också men redaktionen har valt att inte titta på spelets egna siffror utan de använder fraps eftersom de verkar visa felaktiga värden. Kör lite tester med identiska inställningar som swec och se vad du får för min och medelvärde i fraps och posta de värdena vettja ;).

yes det är jag medventen om, men som sagt det var problem med 100 % cpu usage för endel i betan, jag hade INTE detta problem då men nu i releasen har jag problem. Hade även bättre prestanda med ETT 780 i betan än vad jag har nu med SLI i releasen . Käns ju sådär...

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem

@Oneone: Jag hade problemet i båda beta versionerna och i release. Jag slänger igång affinity på en kärna på spelet så att jag i alla fall kan köra discord utan att den börjar lagga. Spelet flyter på fint men fan vad den drar cpu. Grafikinställningar gör 0 skillnad på cpun

Permalänk
Medlem
Skrivet av Allihopa:

Som vanligt så känns sweclockers test som om dem testat den gröna sidan med en handuk över datorn.
detta test är inte ens i närheten av en rättvist resultat i min mening. amd presterar super bra och det är väldigt roligt att se, då dem inte varit aktuella på bra lännge i toppskicktet. men när jag ser reslutatet på 980ti i 1440p så kan jag inte låta bli att klia mig på huvudet. ser jag till mina egna fps när jag kör så är det som natt och dag. Siffrorna sweclocker fått fram är så låga till mina egna att det går att skratta åt. sitter du eller funderar du på ett 980ti så ska du inte titta på detta test som något svar XD

Du missade att läsa ALL text i testet va?

Permalänk
Medlem
Skrivet av Khaduran:

@Oneone: Jag hade problemet i båda beta versionerna och i release. Jag slänger igång affinity på en kärna på spelet så att jag i alla fall kan köra discord utan att den börjar lagga. Spelet flyter på fint men fan vad den drar cpu. Grafikinställningar gör 0 skillnad på cpun

vad kör du för CPU ? och i vilken hastighet? kör en I52500K@ 4,3 . Det florerar misstankar om att det kan vara Denouv (?!) som gör detta för endel.

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem
Skrivet av Kakann:

Intressant för diskussionen AMD vs Nvidia är ju att ett 980ti från partnertillverkare kan vara över 20% snabbare än referensmodellen här i testet. Samtidigt har även dessa kort från partnertillverkare fortfarande liknande överklockningsutrymme som ett Fury X.

Swec, varför kör ni inte med eftermarknadskort när det skiljer så pass mycket i prestanda och folk knappast köper referensmodeller längre?

Skickades från m.sweclockers.com

Förmodligen för att det kan skilja ganska mycket i prestanda mellan olika kort från tredjepartstillverkare.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av Friterad:

Hur tänkte du nu? Uppenbarligen gav jag signaler om att spelet var bra redan i betan gällande prestanda och buggar men att själva gameplayen var dålig (åsikt).

Jag syftade på att även gameplay i betan var ofärdigt och nedtonat