SweClockers nya testsvit för grafikkort 2019

Skrivet av NutCracker:

Detta: https://www.techpowerup.com/260456/nvidia-influencing-youtube... berör inte SweC, men viktigt att ta i beaktande när det gäller andra reviewers.

Skickades från m.sweclockers.com

Något som är extremt viktigt att ta i beaktande är att inte allt man läser på internet är sant.

@JonasT: Jag har undersökt BF V en del mer på mitt RX480 och det finns en hel del frågetecken.

Först undersökte jag flera testscener i DX11 och DX12, DX11 fick ett högre AVG, men med mer variation än DX12. Samtidigt så fanns det extrema framedrops när future frame rendering var aktiverat (mellan 54FPS - 77 FPS i high , avg var 66), samtidigt så var DX11 utan feature frame rendering och DX12 så var allt mer smooth, men lägre FPS. Jag kontrollerade därför DX11, future frame rendering med vsync och visst blev allt smooth.

Detta ledde till att jag mätte klockfrekvenser och power i wattman för att kontrollera and den inte throttla. Fick resultatet att klockfrekvensen (orange) fluktuerade kraftigt tillsammans med power (lila) som aldrig översteg 135W och var oftast under det.

Så jag ökade powerlimit med 10% och helt plötsligt så hade jag stabilt 77 FPS i både DX12 och DX11. Nästa dag när jag startade det med powerlimit 0% så hade den även 77FPS stabilt. Problemet hade fixat sig... tydligen. Kanske någonting ändrades första gången jag ökade powerlimit? Svårt att veta...

Jag kunde tyvärr inte se om DX11 presterade bättre än DX12 eller vice versa. För mig var de nummer som kom upp i FPSmätaren i spelet (PerfOverlay.DrawFPS 1) identiska och kände inte för att göra några noggrannare mätningar.

De använder sig av async-compute i DX12 så det bör egentligen gynna AMD korten. Kan inte säga mer om varför ni får resultatet som ni får i DX12. ¯\_(ツ)_/¯

att döma av test resultatet kanske det är värt att sälja sitt 1080ti medans det finns något värde i det och köpa ett nytt 2070 super?
får en ny sväng med garanti, rtx och några fps extra för i stort sett samma pengar?

@JonasT Jag är ganska så nyfiken på hur ert Windowssystem är uppsatt, körs det med defaultvärden eller har ni gjort några särskilda åtgärder/inställningar för att minska belastningen på CPU & RAM? Om så är fallet (att ni gjort så utgår jag från), i stora drag vilka är de förändringarna? Möjligen skulle ni kunna komplettera info om detta i fliken "Testsystem, mjukvara och metod". Sådan info kan vara värdefull på flera sätt, både för de erfarna som vill jämföra egna testvärden med era, men också för de mindre erfarna som nu kan behöva lite tips om hur ett system bör konfigureras för "bästa resultat".

Skickades från m.sweclockers.com

Skrivet av Radolov:

@JonasT: Jag har undersökt BF V en del mer på mitt RX480 och det finns en hel del frågetecken.

Först undersökte jag flera testscener i DX11 och DX12, DX11 fick ett högre AVG, men med mer variation än DX12. Samtidigt så fanns det extrema framedrops när future frame rendering var aktiverat (mellan 54FPS - 77 FPS i high , avg var 66), samtidigt så var DX11 utan feature frame rendering och DX12 så var allt mer smooth, men lägre FPS. Jag kontrollerade därför DX11, future frame rendering med vsync och visst blev allt smooth.

Detta ledde till att jag mätte klockfrekvenser och power i wattman för att kontrollera and den inte throttla. Fick resultatet att klockfrekvensen (orange) fluktuerade kraftigt tillsammans med power (lila) som aldrig översteg 135W och var oftast under det.
https://i.gyazo.com/4f1a3f40ebb4a9f5d9ab6152f96afdcf.png

Så jag ökade powerlimit med 10% och helt plötsligt så hade jag stabilt 77 FPS i både DX12 och DX11. Nästa dag när jag startade det med powerlimit 0% så hade den även 77FPS stabilt. Problemet hade fixat sig... tydligen. Kanske någonting ändrades första gången jag ökade powerlimit? Svårt att veta...

Jag kunde tyvärr inte se om DX11 presterade bättre än DX12 eller vice versa. För mig var de nummer som kom upp i FPSmätaren i spelet (PerfOverlay.DrawFPS 1) identiska och kände inte för att göra några noggrannare mätningar.

De använder sig av async-compute i DX12 så det bör egentligen gynna AMD korten. Kan inte säga mer om varför ni får resultatet som ni får i DX12. ¯\_(ツ)_/¯

Testade flera andra scener utöver den vi använder i sviten och fick konsekvent sämre resultat i DX12 ställt mot DX11 med de AMD-baserade korten. Rullar vidare på den här konfigurationen nu så får vi utvärdera allt eftersom det kommer nya uppdateringar/drivrutiner/kort. Vi fick exempelvis sämre resultat mer Geforce-korten i DX12 ställt mot DX11 när Battlefield V lanserades förra året, så något har definitivt ändrats där.

Skrivet av NutCracker:

@JonasT Jag är ganska så nyfiken på hur ert Windowssystem är uppsatt, körs det med defaultvärden eller har ni gjort några särskilda åtgärder/inställningar för att minska belastningen på CPU & RAM? Om så är fallet (att ni gjort så utgår jag från), i stora drag vilka är de förändringarna? Möjligen skulle ni kunna komplettera info om detta i fliken "Testsystem, mjukvara och metod". Sådan info kan vara värdefull på flera sätt, både för de erfarna som vill jämföra egna testvärden med era, men också för de mindre erfarna som nu kan behöva lite tips om hur ett system bör konfigureras för "bästa resultat".

Skickades från m.sweclockers.com

Annat än att fimpa Microsofts Xbox Game Bar är det en helt vanlig installation av Windows som körs, så inga konstigheter.

Skrivet av JonasT:

Annat än att fimpa Microsofts Xbox Game Bar är det en helt vanlig installation av Windows som körs, så inga konstigheter.

Rätt eller fel, jag vill inte sätta mig till doms. Möjligen mer rätt än fel (eftersom det är så de flesta har det), risken är dock att det finns aktiva tjänster o/e bakgrundsappar som påverkar resultaten (startar/stoppar - systemet styr). Själv trimmar jag de speldatorer jag konfigurerar rejält, men det är inte riskfritt, man måste veta vad man kan stänga av för att inte få oönskat resultat - ett instabilt system. Om jag förstått rätt så gäller principen "hands off the settings" även GPU-mjukvaran?

Skickades från m.sweclockers.com

Skrivet av NutCracker:

Rätt eller fel, jag vill inte sätta mig till doms. Möjligen mer rätt än fel (eftersom det är så de flesta har det), risken är dock att det finns aktiva tjänster o/e bakgrundsappar som påverkar resultaten (startar/stoppar - systemet styr). Själv trimmar jag de speldatorer jag konfigurerar rejält, men det är inte riskfritt, man måste veta vad man kan stänga av för att inte få oönskat resultat - ett instabilt system. Om jag förstått rätt så gäller principen "hands off the settings" även GPU-mjukvaran?

Skickades från m.sweclockers.com

Precis, det är hands off som gäller för GPU-mjukvaran också, så inga särskilda optimeringar eller inställningar. Tanken är att hålla allt så enkelt som möjligt, vilket känns mest representativt för den typiska användaren. Det minimerar också risk för strul vid nya kortreleaser/drivrutiner.

Skrivet av JonasT:

Precis, det är hands off som gäller för GPU-mjukvaran också, så inga särskilda optimeringar eller inställningar. Tanken är att hålla allt så enkelt som möjligt, vilket känns mest representativt för den typiska användaren. Det minimerar också risk för strul vid nya kortreleaser/drivrutiner.

Tack för svar Jonas:) Utifrån detta borde tillverkarna ta lärdom och släppa en väloptimerad drivrutin innan eller samtidigt med att nytt kort släpps, men så verkar knepigt nog inte vara fallet.

Edit: De instruktioner som lämnas här:
https://m.youtube.com/watch?v=wkJBDEDDS5o
rekommenderas, det finns ytterligare men är en bra start. Kom bara ihåg att sätta en "Restore point" (instrueras) ifall det råkar bli något fel, med den kan systemet återställas till läget innan ändringar utfördes.
Skickades från m.sweclockers.com

Senast redigerat 2019-10-28 23:45

@JonasT: Efter att ha kontrollerat lite mer så hade minnet underklockat sig (jag har aldrig rört den inställningen!) och såg även att en manuell fläktkurva kunde påverka klockhastigheten väldigt mycket, trots att GPU temperaturen aldrig översteg 61 grader enligt den inbyggda sensorn. Extremt udda resultat, minst sagt. När fläktkurvan sätts på automatisk så dras RPM upp till 2400 och temperaturen åker ner till 56C, där FPS är stabil.

Jag får även samma resultat nu att DX11 presterar liiite bättre än DX12. Case closed, alltså fallet, inte chassit, även om chassit iofs också är stängt. Men ändå!

Synd inget 1070 kort med, det som var så sjukt populärt och många fortfarande sitter med.

Skrivet av Nivity:

Synd inget 1070 kort med, det som var så sjukt populärt och många fortfarande sitter med.

GTX 1070 ligger på priolistan att läggas till framöver.

Skickades från m.sweclockers.com

Mycket nöjd med mitt RTX 2070 Super 😁

Skickades från m.sweclockers.com

Skrivet av JonasT:

Precis, det är hands off som gäller för GPU-mjukvaran också, så inga särskilda optimeringar eller inställningar. Tanken är att hålla allt så enkelt som möjligt, vilket känns mest representativt för den typiska användaren. Det minimerar också risk för strul vid nya kortreleaser/drivrutiner.

Ni kör nVidia korten på optimal kraft istället för hög prestanda då? (nVidia kontrollpanel)
Ger detta någon skillnad i era resultat?
Kör ni balanserad / hög prestanda på Windows energialternativ?

Skrivet av JonasT:

Precis, det är hands off som gäller för GPU-mjukvaran också, så inga särskilda optimeringar eller inställningar. Tanken är att hålla allt så enkelt som möjligt, vilket känns mest representativt för den typiska användaren. Det minimerar också risk för strul vid nya kortreleaser/drivrutiner.

Så det är så här?

1. Installerar senaste windows före vart nytt grafikkort.
2. Installerar alla drivrutiner som behövs.
3. Installerar spel.
4. Testar spel.
5. Klart.

Något som inte stämmer här?

Är detta första versionen av 5700XT? Det hade kunnat förklara de avvikande siffror vi såg i testet av The Outer Worlds.

Trycket av kylaren var inte som det skulle där riktigt.
https://www.youtube.com/watch?v=Ud8Bco0dk6Q

De senare referenskorten som har samma PCB som används på "mer prisvärda" eftermarknadskort likt Pulse borde ha detta åtgärdat.

De instruktioner som lämnas här:
https://m.youtube.com/watch?v=wkJBDEDDS5o
rekommenderas, det finns ytterligare men är en bra start. Kom bara ihåg att sätta en "Restore point" (instrueras) ifall det råkar bli något fel, med den kan systemet återställas till läget innan ändringar utfördes.

Skickades från m.sweclockers.com

Jag vet att man inte kan få allt men saknar både lägre kvalitetsnivåer och fler äldre kort. Skulle personligen välja att gå hela vägen tillbaka till 900-serien för Nvidia och R9 200-serien för AMD eftersom där ännu finns kompetenta kort med gott om minne. Många underskattar hur mycket dessa äldre kort faktiskt räcker till.

Skickades från m.sweclockers.com

Skrivet av hakro807:

Jag vet att man inte kan få allt men saknar både lägre kvalitetsnivåer och fler äldre kort. Skulle personligen välja att gå hela vägen tillbaka till 900-serien för Nvidia och R9 200-serien för AMD eftersom där ännu finns kompetenta kort med gott om minne. Många underskattar hur mycket dessa äldre kort faktiskt räcker till.

Skickades från m.sweclockers.com

Jag håller med om att äldre och även billigare nya kort är intressanta att kunna jämföra inför köp av budgetbyggen. Jag vet att det inte går statistiskt att jämföra de olika prestandaindexen med varandra, men av nostalgiska skäl vore det kul att se utvecklingen sedan ni började mäta. 😀

Sedan @JonasT undrar jag om siffrorna från Assasins Creed. Det verkar ju som om testet flaskhalsar på processorsidan när det bara skiljer några enstaka bildrutor i toppskiktet? Känns som ett suboptimalt spel för jämförelser när 14k och 7k kort presterar lika bra.

Skrivet av str8forthakill:

5700XT är ett extremt energihungrigt kort, det drar extrema mängder ström jämfört med prestandan. Det är bara bättre än föregående AMD kort på den fronten, men inte mycket bättre.

Det som saknas i kylarna är det som kostar på, fysisk massa, det korten bestyckas med är tunna kylflänsar och tunn koppar eller ingen alls. För att tjäna pengar måste priset vara så högt om de vräker på en bra kyllösning då kortet drar så mycket, AMD säljer gpuerna dyrt till tredjepartstillverkare varav de ser billiga ut i jämförelse.

Skickades från m.sweclockers.com

Drar lika mkt som ett 2070 Super som det är lika bra som +5%.

Vet det är olika nanometer men iaf AMD = Nvidia nu med senaste Navi i strömförbrukning.

Skrivet av THB:

Mycket nöjd med mitt RTX 2070 Super 😁

Skickades från m.sweclockers.com

Vilken version har du?

Skrivet av SCORPIUS:

Så det är så här?

1. Installerar senaste windows före vart nytt grafikkort.
2. Installerar alla drivrutiner som behövs.
3. Installerar spel.
4. Testar spel.
5. Klart.

Något som inte stämmer här?

Det hoppas jag verkligen inte! Alla tester bör ju göras med samma windows och spel-version. Annars kan ju patcher i windows eller i spelet färga resultaten. Jag antar att de "låser" varje installation när de sjösätter en ny test suite, och kör sedan den i offline-läge. Dock så kör de nog med senaste grafikkorts-drivrutinerna för nya kort.

Senast redigerat 2019-10-29 09:04
Skrivet av sKRUVARN:

Det hoppas jag verkligen inte! Alla tester bör ju göras med samma windows och spel-version. Annars kan ju patcher i windows eller i spelet färga resultaten. Jag antar att de "låser" varje installation när de sjösätter en ny test suite, och kör sedan den i offline-läge. Dock så kör de nog med senaste grafikkorts-drivrutinerna för nya kort.

Drivrutinerna som använts anges alltid i testerna. Här är ett exempel om du scrollar ner
https://www.sweclockers.com/test/27832-amd-radeon-rx-5700-och...

Skrivet av sesese:

Gillar detta diagram då det endast finns ett grafikkort av varje modell. När ni hänger in 5st 2070 super med olika leverantörsnamn så blir helheten sämre. hoppas på att 980ti, 970 och fury X finns med framöver. Hur kan det komma sig att ni lägger ner så mycket bra jobb på ett nytt test men inte väljer att köra med en modern 8/16 CPU? Intels 9900K är en cpu som kan driva på grafikkorten betydligt mer än en trött gammal 6/12 8700k. 6/12 är en budget CPU idag.

6/12 kanske går att få på budget CPU, men 8700k med ett nypris på 4500 och dess fortfarande rätt starka spelprestanda är väl kanske inte budget precis

Mitt primära förbättringsförslag är att ranka korten efter "Lägsta värde" i stället för medelvärdet, eftersom lägsta värde säger mer om spelupplevelsen. (Gäller även prestandaindex.)

Skrivet av heatm:

... skilja på nVidia och AMD med färger, nVidias grafer skulle kunna göras gröna och AMD's röda (till alla färgblindas förtret), sen kommer Intel med blå.

Orange för AMD skulle nog fungera bättre även för färgblinda.

Skrivet av Chris_Kadaver:

Jag saknar däremot tester av preset under högsta möjliga inställningen. Skulle vilja se "medium" där "high" är högsta möjliga inställning osv. Men det kanske kommer?

Japp. Ett steg under max som primär jämförelsepunkt skulle fungera bättre. Oftast ger det mindre skillnad i bildkvalitet än i bildfrekvens.

Skrivet av ClintBeastwood:

Presterar alla AMD sämre i DX12 och alla Nvidia sämre i DX11? ... Tycker att det borde vara konsekvent genom alla spel i så fall att man använder gränssnittet som fungerar bäst med olika kort...

Instämmer!

Skrivet av JonasT:

Samtliga AMD-kort fick sämre i DX12 och vice versa för Nvidia.

Konstigt! Det var ju inte många år sedan förhållandet oftast var det omvända...

Skrivet av Chris_Kadaver:

... Nån som kan komma på en bra översättning av "blowerstyle" som fortfarande låter bra?

Bakblåskylning?

Vore roligt om ni kunde styra upp tabell med fps per krona.

@JonasT: Trevligt, då kan man ta en titt hur långt efter man ligger idag och om det är värt pengarna.

Skrivet av Dizzö:

Vilken version har du?

MSI RTX 2070 Super Ventus OC.

Skickades från m.sweclockers.com

Sweclockers resultat är minst sagt märkliga. De visar 5700XT som bättre än 1080Ti i 1080p och mindre än 2% efter i 1440p och 4k. De individuella resultaten visar på mycket bättre resultat än vad andra sajter får med 5700XT.

Kolla t.ex. techspots (HW Unboxed) resultat med 1080Ti vs 5700XT. Där är 1080Ti i genomsnitt 9% bättre. När man jämför de individuella resultaten så är skillnaden mellan detta och Sweclockers test enorma.
Hur kommer det sig? Varför är Sweclockers tester så mycket mer i 5700XT's favör? Är det någonting som spökar i den nya testsviten?

https://www.techspot.com/review/1907-geforce-1080-ti-vs-rtx-2...

@THB:

Aha budget tredjeparts.

Blir den varm? Låter mycket?

Skrivet av veckans:

Sweclockers resultat är minst sagt märkliga. De visar 5700XT som bättre än 1080Ti i 1080p och mindre än 2% efter i 1440p och 4k. De individuella resultaten visar på mycket bättre resultat än vad andra sajter får med 5700XT.

Kolla t.ex. techspots (HW Unboxed) resultat med 1080Ti vs 5700XT. Där är 1080Ti i genomsnitt 9% bättre. När man jämför de individuella resultaten så är skillnaden mellan detta och Sweclockers test enorma.
Hur kommer det sig? Varför är Sweclockers tester så mycket mer i 5700XT's favör? Är det någonting som spökar i den nya testsviten?

https://www.techspot.com/review/1907-geforce-1080-ti-vs-rtx-2...

Sweclockers testar med andra och nyare spel?