AMD Ryzen 7 2700X och Ryzen 5 2600X "Pinnacle Ridge"

Permalänk
Medlem
Skrivet av anon227198:

Sigh...vi har vært gjennom dette før. Dette argumentet er horribelt. Om noen år er GPUer også kraftige nok til at man spiller i enda høyere oppløsning. For eks. 4K. Da forsvinner flaskehalsen igjen. Dette nuller ut den flaskehalsen du mener vil dukke opp om noen år. Hva som er standard for 1440p er standard for 4K i fremtiden. CPUen vil aldri bli en flaskehals i fremtiden med kraftigere GPUer, så lenge folk fortsetter å spille i høyere og høyere oppløsninger. Er dette så vanskelig å forstå?

Spilltester skal representere virkeligheten. Det er hele meningen med disse anmeldelsene. Ingen spiller i 720p på en GTX 1080 i virkeligheten. Dermed ender testen opp med å vise tall som er viktig for absolutt ingen som helst. Selv 1080p er lavt med den GPUen; de kan for min del ha 1080p, men inkluder for Guds skyld en oppløsning folk flest med GTX 1080 bruker: 1440p!

Jeg sitter på en 1440p og et GTX 1080. Vet du hva Sweclockers informerer meg om hvilken CPU er best for meg? Ingenting? Jeg får ikke vite noe som helst. Det gjør heller ikke majoriteten av GTX 1080-eiere som tenker å kanskje kjøpe ny CPU.

Skickades från m.sweclockers.com

Det finns enkla förklaringar till varför man testar CPU:er i låga upplösningar. Man testar CPU:er och inte GPU:er. Varför fortsätter vissa med annat trams?

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem
Skrivet av anon227198:

Og den last er ikke realistisk, for folk med slike prosessorer og GPUer spiller i høyere oppløsning. Dermed ender testen med å produsere tall som ikke representerer folks bruksområde.

Herregud, når vil sånne som deg noensinne innse dette?

Skickades från m.sweclockers.com

Lasten kanske inte är realistisk för många, men det är inte det som är relevant, det som är relevant i detta fall är att det är ett sätt att mäta prestanda som under förutsättningar där programmet i fråga inte använder flera kärnor speciellt effektivt. Det är ungefär lika relevant som testerna där man kör syntetiska tester med perfekt parallellisering. Herregud, når vil sånne som deg noensinne innse dette?

Förövrigt finns det fler än man tror som faktiskt kör äldre spel och vill ha extremt hög fps, exempelvis cs go. Då är ju denna last realistisk.
Sen kan man ju tycka att det kanske inte bör läggas så stort fokus på detta i sammanfattningen av processorn, då de för de flesta kommer prestera exakt lika bra i spel som en processor från Intel. Men jag tycker att de bör vara med då det ger en bra fingervisning om processorns råprestanda i sämre trådade applikationer.

Permalänk
Datavetare

Angående grafikinställningar och dess påverkan på skalningen med CPU. Ja, det finns definitivt en sådan effekt men för spel är den i de flesta fall så pass svag att andra osäkerhetsfaktorer gör att denna effekt ändå drunknar.

Effekten att ett större och mer komplicerat problem kan skala bättre med kärnor (förutsatt att den del som ökas kan parallelliseras, vilket rimligen är fallet för spel) är känd som Gustafsons lag.

Finns långt större effekt som minska skalbarhet över CPU-kärnor: ju kortare tid spelmotorn har på sig att färdigställa varje scen, ju högre blir den relativa kostnaden för synkronisering.

Lite mellan tummen och pekfingret kan man säga

  • för jobb som mäts i hela sekunder är det fullt möjligt att få väldigt nära perfekt skalning

  • för jobb som mäts i millisekunder är det möjligt att få viss skalning med CPU-kärnor

  • för jobb som mäts i mikrosekunder (här har vi t.ex. pakethantering i en router och liknande) ger det en prestandaminskning att försöka blanda in flera kärnor i att hantera ett enskilt paket/enskild ström (finns HW stöd att sprida separata strömmar över kärnor)

Vid 30 FPS, som konsolerna idag siktar på, har man ju totalt 33 ms på sig att göra allt. Här går det numera rätt bra att sprida till de 6-7 CPU-kärnor som spel har tillgång till. För någon som absolut måste köra fullt ös i sin 240 Hz skärm har spelmotorn bara 4,2 ms på sig, vilket då betyder att de flesta del-jobb kliver in en bra bit i mikrosekundvärlden.

Denna effekt kommer av att ljusets hastighet och därmed hastigheten CPU-kärnor kan kommunicera med varandra är begränsad. Att synkronisera något är en seriell process och effekten att skalbarhet med kärnor klingar av när den seriella delen blir större blir relativt sett totala tiden är just vad Amdahls lag beskriver.

Så mer avancerade GPUer betyder bättre skalning med CPU-kärnor p.g.a att större jobb hanteras (Gustafsons lag) medan trenden mot allt högre frekvens på skärmarna tyvärr ger sämre skalning mer CPU-kärnor p.g.a. att synkronisering mellan kärnor relativt blir dyrare (Amdahls lag).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

$ LIBGL_ALWAYS_SOFTWARE=true quake2

Yamagi quake 2 7.10 1080p ~16 - ~22 fps

OpenGL vendor string: VMware, Inc.
OpenGL renderer string: llvmpipe (LLVM 6.0, 128 bits)
OpenGL core profile version string: 3.3 (Core Profile) Mesa 18.1.0-devel
OpenGL core profile shading language version string: 3.30

^^^^^^^^^^^^^^^^^^^^^^^^^^
Är väl ändå så man testar en cpu bäst

Permalänk
Inaktiv
Skrivet av tellus82:

Åter igen, att påvisa prestanda ohejdad av GPU limitering är inget fel, speciellt inte när det dessutom kombineras med 1080p,1440p och 4k upplösningar. Finns ingen anledning att inte ta med det i ett processor test.
Det handlar inte om vad folk i allmänhet spelar på eller ej utan det ska helt enkelt visa hur saker presterar när GPU "tas bort" ur ekvationen.

Og igjem, det argumentet bestrider helle motivet med spill-benchmarks. Som jo nettopp er å formulere real-world-resultater (ellers hadde de ikke testet spill i det hele tatt, og bare holdt seg til syntetiske tester). Disse benchmarksene danner grunnlaget for folks kjøp av produkter og. Derfor bør de gi en så reell representasjon som overhode mulig. GTX 1080 + i7 8700K i 720p er ikke en slik situasjon. Når jeg har en 1440p, hva skal jeg kunne leste ut av Sweclockers test egentlig? Kan du fortelle meg det?

Skrivet av emilakered:

Majoriteten av skärmar som säljs är fortfarande 1920x1080 pixlar, och de lär användas några år framåt.

T

Majoriteten av skjermkort og CPUer som brukes er også i mellom og lavsjiktet. Svært få eier GTX 1080/1080 Ti. Men det er like mange av disse få som også eier 1440p-skjermer. De samme menneskene faktisk.

Så når man tester med 1080/1080 Ti og med high-end CPU, så kan det kanskje være greit å vise benchmarksresultateter i forhold som brukere av slike produkter faktisk er i. Og det er ikke i 720p. I mindre grad i 1080p og. Det er i 1440p eller oppover. Jeg sier ikke å ikke ta med 1080p. Men det bør være et minimum å inkluderte instillinger som folk med GTX 1080/1080 Ti og 8700K/2700X faktisk spiller med. Det kan vel du ikke fornekte?

Du sier også at folk står over høy oppløsning for høyere frekvens. Jeg får allerede 140 FPS på BF1 med min GTX 1080 Ti...

Skrivet av cyprus:

Det finns enkla förklaringar till varför man testar CPU:er i låga upplösningar. Man testar CPU:er och inte GPU:er. Varför fortsätter vissa med annat trams?

Og det er en grunn til at man tester hardware og legger resultatene opp. For å gi et grunnlag folk kan se på for sine kjøp. Jeg leser en anmeldelse av en iPhone for å finne ut hvordan telefonen er hvis jeg skal kjøpe den. Jeg ser på en anmeldelse av en skjermkort for å se hvilken FPS jeg får når jeg kjøper det. Jeg ser også på en anmeldelse av en CPU for å se hvilken ytelser den gir meg når jeg kjøper meg. Men FPSene som Sweclocker viser er overhode ikke representativt med meg og mitt bruk, for jeg sitter med en 1440p-skjerm. Det samme gjør andre folk med high-end GPUer. De spiller som regel ikke på 1080p. I hvert fall ikke 720p.

Skrivet av skewgen:

Lasten kanske inte är realistisk för många, men det är inte det som är relevant, det som är relevant i detta fall är att det är ett sätt att mäta prestanda som under förutsättningar där programmet i fråga inte använder flera kärnor speciellt effektivt. Det är ungefär lika relevant som testerna där man kör syntetiska tester med perfekt parallellisering. Herregud, når vil sånne som deg noensinne innse dette?

Man skal teste CPUen på en realistisk måte og i realistiske betingelser. Når man setter de i overdrevent CPU-flaskehalser som 720p og 1080p, med hardware som ingen eiere av slik hardware gamer i 1080p, så produserer man i realiteten en test som ikke er representativ for noen. Kanskje 2700X er 20 FPS bak 8700K i Sweclockers tester. Men for de 1080 og 1080 Ti-brukere, vil FPS-forskjellen være noe helt annet. Den vil kanskje være 0-3. Så i realiteten lurer Sweclockers meg til å tro at forskjellen er større enn den er.

Hvis programmer ikke parallelliserer bra nok i vanlige betingelser, so be it. Da tester man det sånn og så konkluderer man deretter. Reviews skal tross alt gi en representasjon av virkeligheten; ikke endre på virkeligheten.

Skrivet av skewgen:

Förövrigt finns det fler än man tror som faktiskt kör äldre spel och vill ha extremt hög fps, exempelvis cs go. Då är ju denna last realistisk.

Hvis du skal bruke det argumentet, hvorfor er du likevel villig til å forkaste kravet om 1440p for en mye større brukergruppe av 1080 og 1080 Ti-eiere som har høyere oppløsninger enn 1080p? Denne gruppen er vitterlig større en CS:GO-gruppen som gamer i 1080p med 1080 Ti.

Permalänk
Relik 📜
Skrivet av anon227198:

Og igjem, det argumentet bestrider helle motivet med spill-benchmarks. Som jo nettopp er å formulere real-world-resultater (ellers hadde de ikke testet spill i det hele tatt, og bare holdt seg til syntetiske tester). Disse benchmarksene danner grunnlaget for folks kjøp av produkter og. Derfor bør de gi en så reell representasjon som overhode mulig. GTX 1080 + i7 8700K i 720p er ikke en slik situasjon. Når jeg har en 1440p, hva skal jeg kunne leste ut av Sweclockers test egentlig? Kan du fortelle meg det?

Majoriteten av skjermkort og CPUer som brukes er også i mellom og lavsjiktet. Svært få eier GTX 1080/1080 Ti. Men det er like mange av disse få som også eier 1440p-skjermer. De samme menneskene faktisk.

Så når man tester med 1080/1080 Ti og med high-end CPU, så kan det kanskje være greit å vise benchmarksresultateter i forhold som brukere av slike produkter faktisk er i. Og det er ikke i 720p. I mindre grad i 1080p og. Det er i 1440p eller oppover. Jeg sier ikke å ikke ta med 1080p. Men det bør være et minimum å inkluderte instillinger som folk med GTX 1080/1080 Ti og 8700K/2700X faktisk spiller med. Det kan vel du ikke fornekte?

Du sier også at folk står over høy oppløsning for høyere frekvens. Jeg får allerede 140 FPS på BF1 med min GTX 1080 Ti...

Du tycker inte det är relevant, och det får såklart stå för dig. Testerna i högre upplösning finns med för dig och andra som anser 720p vara skräp och icke intressanta. Har svårt att övertyga dig mer än jag och andra redan försökt, det är uppenbart vi står på olika sidor om det här staketet där vi gör bäst i att lägga ned diskussionen som oense vänner.

Förhoppningsvis hittar du fler tester som kan ge dig ytterligare vinklar. Det är oavsett alltid en bra idé för att få hela bilden av produkter.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Inaktiv
Skrivet av emilakered:

Du tycker inte det är intressant, och det får såklart stå för dig. T

Det har ingenting med at jeg ikke "tycker" at det ikke er interessant. Det er at jeg vil at også 1440p skal være inkludert. Jeg bare ber om en mer fyldig recension.

Og dette handler ikke om hva jeg tycker. Det er et faktum at GTX 1080 + 8700K i 1080p ignorerer den overveldende majoriteten av de som eier GTX 1080 (og forøvrig også 1080 Ti). Man tester altså hardware i tilstander som konsumenter med de samme produktene aldri har.

Skrivet av emilakered:

Förhoppningsvis hittar du fler tester som kan ge dig ytterligare vinklar. Det är oavsett alltid en bra idé för att få hela bilden av produkter.

Hele bildet. Som også 1440p for GTX 1080-oppsett. Du skaper et bilde av meg som en som vil fjerne 720p og 1080p. Slettes ikke. Om du så bastant vil ha de der, samme for min del. Jeg bare etterlyser også 1440p. Det er vel heller du, ikke jeg, som argumenterer mot å ha det fulle bildet.

Hvis Sweclockers ikke har nok med ressurser, syns jeg da at de bør gå for 1440p i stedet for 720p i hvert fall. 1440p er, uansett om du liker å tro annet, den meste representerende oppløsningen for GTX 1080.

Permalänk
Hjälpsam
Skrivet av emilakered:

Jag håller inte med. Redan idag är CPU en flaskhals för många, speciellt de som vill pressa upp högre bildfrekvenser än 60 FPS. Jag tror också du överskattar hur snabbt övergången till 4K UHD går eller kommer gå, dels eftersom många hellre söker hög frekvens, dels eftersom det ligger en bit in i framtiden innan priserna faller. Majoriteten av skärmar som säljs är fortfarande 1920x1080 pixlar, och de lär användas några år framåt.

Testerna i 720p är viktiga för att visa aspekten vad som händer i ett läge där användaren är CPU-bunden, må det vara på grund av hög bildfrekvens, låg upplösning, nytt saftigt grafikkort eller vad som. Många uppskattar siffrorna och tycker de är intressanta, inklusive jag själv.

För dig och andra som finner dessa irrelevanta finns ju tester i 1920x1080, 2560x1440 och 4K UHD också. De visar andra aspekter, till exempel att för den som lägger sig på den nivåerna spelar valet av CPU mindre roll i dagsläget.

Jag tror och hoppas de flesta kan få ut vad de vill ha av testerna som finns, givetvis kombinerat med andra recesioner på nätet.

Köper argumenten, förutom ett.
Varför inte testa i 1080p låg i stället för 720p medel?
Jag tror att de flesta väntar så länge som möjligt innan de skruvar ned på upplösningen, inställningarna ryker först.
Jo då, jag är överlag väldigt nöjd med testerna, 720p eller 1080p är ingen stor fråga för mig det skall sägas.

Är föresten inne på att att köpa en 21:9 skärm som spelskärm, tror att jag nöjer mig med 2560*1080, då kan jag köra med höga inställningar och ändå ha fint flyt.
Frågan är bara om skall jag nöja mig med 29" eller satsa på 34"? ett angenämnt i-landsproblem.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Relik 📜
Skrivet av anon227198:

Det har ingenting med at jeg ikke "tycker" at det ikke er interessant. Det er at jeg vil at også 1440p skal være inkludert. Jeg bare ber om en mer fyldig recension.

Og dette handler ikke om hva jeg tycker. Det er et faktum at GTX 1080 + 8700K i 1080p ignorerer den overveldende majoriteten av de som eier GTX 1080 (og forøvrig også 1080 Ti). Man tester altså hardware i tilstander som konsumenter med de samme produktene aldri har.

Hele bildet. Som også 1440p for GTX 1080-oppsett. Du skaper et bilde av meg som en som vil fjerne 720p og 1080p. Slettes ikke. Om du så bastant vil ha de der, samme for min del. Jeg bare etterlyser også 1440p. Det er vel heller du, ikke jeg, som argumenterer mot å ha det fulle bildet.

Hvis Sweclockers ikke har nok med ressurser, syns jeg da at de bør gå for 1440p i stedet for 720p i hvert fall. 1440p er, uansett om du liker å tro annet, den meste representerende oppløsningen for GTX 1080.

Nu lägger du ord och mening i min mun. Jag försöker inte måla ut dig på något sätt alls, utan argumenterar för varför jag tycker testerna i 720p är viktiga. Speciellt när vi har med en sektion tester i 1440p samt 4K UHD för att visa beteendet även vid högre upplösningar. Kan vi ha med alla tre upplösningarna i alla lägen? Rent tekniskt, absolut, men praktiskt bedömer vi att det inte är värt tiden för just CPU-tester. Där kan du såklart tycka och är välkommen att tycka annorlunda.

Men åter, den här diskussionen går på tomgång. Vi tycker olika, och ja - jag anser det vara "tycker".

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Relik 📜
Skrivet av Ratatosk:

Köper argumenten, förutom en ett.
Varför inte testa i 1080p låg i stället för 720p medel?
Jag tror att de flesta väntar så länge som möjligt innan de skruvar ned på upplösningen, inställningarna ryker först.

Är föresten inne på att att köpa en 21:9 skärm som spelskärm, tror att jag nöjer mig med 2560*1080, då kan jag köra med höga inställningar och ändå ha fint flyt.

Bland annat av anledningen @tellus82 tar upp, fast taget till extrem nivå. Det kompromissas med en hel del annat förutom pixlar när inställningarna sänks, speciellt om man går hela vägen till "Low" (GPU-fokuserade grejer har en tendens att sänkas först, CPU sist). När vi testade olika scenarion fick vi mer konsekventa och tydliga resultat genom att fokusera på sänkt upplösning. Men teoretiskt, det skulle ge liknande resultat såklart.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem
Skrivet av anon227198:

Hvis programmer ikke parallelliserer bra nok i vanlige betingelser, so be it. Da tester man det sånn og så konkluderer man deretter. Reviews skal tross alt gi en representasjon av virkeligheten; ikke endre på virkeligheten.

Hvis du skal bruke det argumentet, hvorfor er du likevel villig til å forkaste kravet om 1440p for en mye større brukergruppe av 1080 og 1080 Ti-eiere som har høyere oppløsninger enn 1080p? Denne gruppen er vitterlig større en CS:GO-gruppen som gamer i 1080p med 1080 Ti.

1. Spel lämpar sig ganska bra för dessa test, men jag håller med dig om att de testen kanske inte behöver få så stor uppmärksamhet i slutsatsen, speciellt inte som slutsats i hur processorn fungerar i spel. Men testen i sig är bra då det är ett lätt sätt att benchmarka allmän prestanda i dåligt trådade applikationer, något som faktiskt fortfarande är ledande inom många andra typer av program som inte är så lätta att göra bra benchmarks i.

2. Helt värdelöst att benchmarka processorer i en last där grafikkortet är flaskhals, alla med någon kunskap vet att det kommer vara samma resultat oberoende av processor. Man kan dock vara tydliga i slutsatsen med att nämna att det inte kommer vara någon större skillnad i spel om man använder högre upplösningar med mer detaljer i moderna spel, för de som inte har så bra koll.

Permalänk
Medlem
Skrivet av emilakered:

Nu lägger du ord och mening i min mun. Jag försöker inte måla ut dig på något sätt alls, utan argumenterar för varför jag tycker testerna i 720p är viktiga. Speciellt när vi har med en sektion tester i 1440p samt 4K UHD för att visa beteendet även vid högre upplösningar. Kan vi ha med alla tre upplösningarna i alla lägen? Rent tekniskt, absolut, men praktiskt bedömer vi att det inte är värt tiden för just CPU-tester. Där kan du såklart tycka och är välkommen att tycka annorlunda.

Men åter, den här diskussionen går på tomgång. Vi tycker olika, och ja - jag anser det vara "tycker".

Fortsätt fokusera på 720p speltester med medium/low grafik. Det är det enda som på bästa sätt visar skillnaden mellan processorerna när inga andra komponenter blandar sig i leken vilket för just det ger ett helt missvisande resultat.

Det är bra som ni har det nu. Det räcker för att lista ut vad man ska köpa. Bespara er den energi/lidande som mer monotont arbete hade inneburit.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Inaktiv
Skrivet av FredrikMH:

Fortsätt fokusera på 720p speltester med medium/low grafik. Det är det enda som på bästa sätt visar skillnaden mellan processorerna när inga andra komponenter blandar sig i leken vilket för just det ger ett helt missvisande resultat.

En skillnad som ingen overhode kommer til å erfare, fordi ingen med rette sinnet i behold spelar med GTX 1080 og 8700K i 720p. Det produseres altså tall og skillnader som ingen lesere og konsumenter har praktisk bruk for. I verste fall er det misvisende, da den vanlige mannen i gaten kommer til å kjøpe 8700K til sitt GTX 1080@1440p oppsett og tenke "jaaaaah, denne vil være best, for Sweclockers viste meg at den har 20 FPS mer enn 2700X i BF1". Men i realiteten er vil forskjellen være ikke-eksisterende for hans bruk.

DET er missvisande resultat. Å vise en test hvor GPU er enda mer flaskehals er ikke missvisande. Det er REALITETEN. Eller kanskje jeg bare kjører på en missvisande 2560x1440 oppløsning, eller hur?

Permalänk
Medlem
Skrivet av anon227198:

En skillnad som ingen overhode kommer til å erfare, fordi ingen med rette sinnet i behold spelar med GTX 1080 og 8700K i 720p. Det produseres altså tall og skillnader som ingen lesere og konsumenter har praktisk bruk for. I verste fall er det misvisende, da den vanlige mannen i gaten kommer til å kjøpe 8700K til sitt GTX 1080@1440p oppsett og tenke "jaaaaah, denne vil være best, for Sweclockers viste meg at den har 20 FPS mer enn 2700X i BF1". Men i realiteten er vil forskjellen være ikke-eksisterende for hans bruk.

DET er missvisande resultat. Å vise en test hvor GPU er enda mer flaskehals er ikke missvisande. Det er REALITETEN. Eller kanskje jeg bare kjører på en missvisande 2560x1440 oppløsning, eller hur?

Fast nu finns där ju tester med 1440p/4K som visar att skillnaden mellan CPU idag om du ska spela i de upplösningar förmodligen är mycket små. Vad vill du mer ha? 200 speltester som visar samma sak?

Förr såg testen på Sweclockers annorlunda ut, där test av processorer kunde innebära att grafikkortet var flaskhalsen i testet. Om man vill se skillnaden mellan processorer så är det TOTALT meningslöst. Jag var hårt kritisk till detta och skrev ett långt utlägg om varför för 6.5 år sedan. Sedan dess har testerna blivit mycket bättre. Enda skillnaden nu mot då är det var större skillnader mellan processorerna då.

Man kan komma med motargument som du "Ingen spelar i 720p". No shit! Det vet alla här.

Det man vill se med testerna är att om skillnaderna är stora nog så slipper man byta processor lika ofta och kan istället endast uppgradera grafikkortet som är den stora flaskhalsen i en speldator. Du kan ofta uppgradera grafikkortet 2-3 gånger innan du behöver byta processor om du gör ett smart köp.

Det enda sättet att visa om 2700X är mycket sämre eller bättre än Intels motsvarigheter är att faktiskt testa det. Svaret på dina frågor får ändå läsaren direkt i delen där högre upplösningar testas.

Vill du testa sportbilar på 30-väg utanför dagis (förlåt, förskola) och hålla dig till lagen så gör du det. Men tro inte att det går att utläsa något vettig data ur testet.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

Helt obegripligt att köpa 2600x/2700x om man har möjlighet att köpa 2600/2700 och överklocka. Det är där det stora värdet finns.

Visa signatur

[CPU: Intel i5-750 @ 2,6 ghz][MB: Gigabyte P55A-UD3][GFX: Phantom Geforce 670 GTX OC][RAM: Corsair XMS3 1600MHz 8GB][Chassi: Fractal Design r3] [HDD: 1TB Samsung Spinpoint F3][SSD: Crucial MX100 2.5" 7mm 256GB @ SATA 2][PSU: Corsair TX650W][CPU Kylning: Akasa Venom][OS: W7 64-bit][Skärm: BENQ 2412]

Permalänk
Entusiast
Skrivet av bsk!:

Helt obegripligt att köpa 2600x/2700x om man har möjlighet att köpa 2600/2700 och överklocka. Det är där det stora värdet finns.

Utöver att inga klockfrekvenser är garanterade vid överklockning så skiljer sig faktiskt stockkylarna mellan både R7 2700X/2700 och 2600X/2600, det är värt att tänka på

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Medlem
Skrivet av Sisyfos:

Utöver att inga klockfrekvenser är garanterade vid överklockning så skiljer sig faktiskt stockkylarna mellan både R7 2700X/2700 och 2600X/2600, det är värt att tänka på

Ser att prisskillnaden är i runda slängar 300:- mellan X och non-X vilket är vad en budgetkylare kostar. Om man måste köpa en budgetkylare för att kunna klocka upp en 2600 till 2600X rent prestandamässigt är det såklart inte värt att köpa 2600 framför 2600x men om det funkar att överklocka 2600 med den medföljande amd spire kylaren och den klarar av att hålla tillräckligt låga temps för en hälsosam 24/7 överklock så blir det värt det men det är frågan om den medföljande amd spire kylaren klarar av det.

Visa signatur

[CPU: Intel i5-750 @ 2,6 ghz][MB: Gigabyte P55A-UD3][GFX: Phantom Geforce 670 GTX OC][RAM: Corsair XMS3 1600MHz 8GB][Chassi: Fractal Design r3] [HDD: 1TB Samsung Spinpoint F3][SSD: Crucial MX100 2.5" 7mm 256GB @ SATA 2][PSU: Corsair TX650W][CPU Kylning: Akasa Venom][OS: W7 64-bit][Skärm: BENQ 2412]

Permalänk
Avstängd

Har förståelse för 720p tester som är tämligen värdelösa i verkliga livet och kan vara missvisande som exempel min i3 6100 mot en i5 6400 så kan min i3 vinna i dom flesta spel pga singeltråds prestandan men i gta-v presterar i5an bättre pga multitråds prestanda så man ska inte stirra sig blind på ett test

AMD så är 12% bra ökning riktigt bra som i spel är likvärdigt med intel där t.e.x farcry 5 skiljer med 6 fps i 1080p mellan 2600x och 8700k och fallout 4 som är worst case scenario skiljer 21 fps och är 86 mot 107 och inte ens en skillnad som märks i verkliga livet i ett spel som fördelar lasten riktigt dåligt och kan ökas med 10fps om ryzen har snabba minnen och blir skillnad på 11fps

Kollar man cinebench flera trådar så är 2600x ganska lika stark som en 8700k över alla kärnor men kör över 8600k och 8400an rejält men ligger singeltrådat i nivå med i5 8400 så är stark åt båda hållen

Skulle jag köpa idag hade jag siktar på 2600x en förbannat prisvärd cpu med oc möjlighet på en chipset som har bra uppgraderings väg och nu är 2nd gen och uppiffad för den lilla singeltråds förlusten äter den upp multitrådat

fan nu började det klia i köpfingret

Visa signatur

i3 6100 - MSI b150m pro-vd - 8gb 2133 ddr4 - GTX 950 GAMING 2G - z400s 120gb ssd - 1tb WD blue - Corsair 500w

Permalänk
Inaktiv
Skrivet av FredrikMH:

Fast nu finns där ju tester med 1440p/4K som visar att skillnaden mellan CPU idag om du ska spela i de upplösningar förmodligen är mycket små. Vad vill du mer ha? 200 speltester som visar samma sak?

Igjen bruker du argumenter osm lett kan brukes mot deg. Jeg kan i mye sterkere grad si dette til deg, da den overveldende antall CPU-tester der ute tester i 1080p og ikke 1440p. Jeg vet stadig om folk med 1440p-skjermer som klager over dette. Det er faktisk mye vanskeligere å finne 1440p-tester der ute enn lavere oppløsninger.

Skrivet av FredrikMH:

Förr såg testen på Sweclockers annorlunda ut, där test av processorer kunde innebära att grafikkortet var flaskhalsen i testet. Om man vill se skillnaden mellan processorer så är det TOTALT meningslöst.

Nej, det er totalt meningsfylt. Skillnaden mellom processorer bør vises slik de er i virkelige situasjoner. Ikke manipulerte situasjoner som ingen noensinne kommer bort i. Skillnaden mellom prosessorer er kanskje liten i 1440p. Men i den virkelige verden vil en person meg high-end GPU ha denne oppløsningen (eller høyere), og det er denne skillnaden han vil merke. Du vet dette like godt som meg. Tester med 720p og 1080p med slike GPUer er i realiteten manipulerte tester som kraftig overdriver tallene, og det gir feil inntrykk til folk.

Skrivet av FredrikMH:

Det man vill se med testerna är att om skillnaderna är stora nog så slipper man byta processor lika ofta

Jeg ser ikke hvordan en 720p og 1080p i noe større grad vil vise dette. Man bør bytte prosessor når det faktisk utgjør en ordentlig ytelsesforskjell i sin set-up. 720p-testen kan kanskje vise stor forskjell mellom ulike CPUer, og en vanlig forbruker vil kanskje tro at "nu er tiden inne for å bytta ut min CPU, for den yter mycket dårligere enn alt det andre". Men hvis han vanligvis gamer i 1440p, og skillnaden der er lik null, så har jo han blitt misinformert. Er du ikke enig? For eks. er 8700K mycket battre enn 7700K, og en med 7700K vil tro at han må bytte sin prosessor. Men hvis han gamer i 1440p, er jo dette overhode ikke riktig.

Argumentet er mye sterkere for min del, for jeg snakker om å faktisk teste ting på lik linje som folks virkelige anstallinger.

Skrivet av FredrikMH:

Vill du testa sportbilar på 30-väg utanför dagis (förlåt, förskola) och hålla dig till lagen så gör du det. Men tro inte att det går att utläsa något vettig data ur testet.

Rar analogi du bruker. Det er strengt tatt du, ikke jeg, som ønsker å teste i 30-vag utanfor dagis. Jeg ønsker å teste sportsbilen i de konditioner sportsbilen er laget til. En 1700X og GTX 1080 er ikke laget for å kjøre spel i 720p.

Permalänk
Medlem

Vill man prova på flaskande CPUer i spel i höga 1440p extreme inställning kan man ENKELT göra detta genom att skaffa sig ett 1080ti och börja spela Vermentide 2 eller Ghost recon Wildelands.
Båda de spelen klarar inte min 4790k@4,8ghz att leverera tillräckligt för att GPUn skall arbeta 100%. Faktum är att den i tyngre partier droppar så lågt som under 50%!.

Det är också de spelen som jag provat där prestandan ökar mer med överklockning av CPU kontra GPU (för mig).

Just 4790K är också intressant då den ligger väldigt jämt med Ryzen familjen i IPC.

Permalänk
Medlem
Skrivet av Yoshman:

Angående grafikinställningar och dess påverkan på skalningen med CPU. Ja, det finns definitivt en sådan effekt men för spel är den i de flesta fall så pass svag att andra osäkerhetsfaktorer gör att denna effekt ändå drunknar.

Vad har du för belägg för detta? Jämför low, medium och ultra inställningar i vilket modernt spel du vill och CPU belastning och antal trådar nyttjade kommer skilja drastiskt. Det är hela poängen med skalning av kvalité i nya spel...
Desto mer du sänker ingame kvalité desto mindre jobb kommer utföras av sekundära arbetstrådar och fokus flyttas till main render thread som i de flesta spel sällan är flertrådad och är den det så är det oftast uppdelat på 2 eller 4 arbetstrådar. Detta kan i DX12 vara spritt på fler men då overhead är betydligt lägre i dx12 så behöver man sällan dela upp den.
Det som händer är som sagt att vid låga ingame inställningar så kommer spelen bli mer & mer enkeltrådade, att då utföra benchmarks för cpu med GPU ute ur ekvationen men samtidigt fokusera mestadels på main render tråden blir en rätt underlig situation för att försöka påvisa cpu prestanda i moderna spel och att påstå att kvalitesinställningar inte skulle påverka CPU belastning till en märkbar grad är bara skitsnack på ren svenska.

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Skrivet av JonasT:

Ingen felskrivning, Geforce GTX 1080 i de vanliga speltesterna samt Geforce GTX 1080 Ti i de kompletterande testerna vid hög upplösning.

Vi kommer troligtvis på sikt gå över till Geforce GTX 1080 Ti för samtliga tester, men i dagsläget har vi endast ett exemplar av detta kort medan vi har två identiska Geforce GTX 1080 - något som låter oss köra tester på två testriggar parallellt.

Ah, såg att det låg 1080p tester där med 1080ti och det var lite vad jag misstänkte.

Ryzen levererar "jämt" med Intel så länge prestandan begränsas av GPU. Riktigt tråkigt då det (förmodligen) kommer vara ännu större skillnad när det kommer nya kort på marknaden. Tråkigt.

Visa signatur

1::3700+ San Diego@3.0GHzghz[300x10], Abit KN8-Ultra, 1024mb, X850XT @ PE. 01: 27190. 05: 6220.
2::XP 2500+ @ 3200+, Asus A7N8X-X, GeForce FX 5700 Ultra@ 605/1100, 512mb ddr. 01: 13550

Permalänk
Entusiast
Skrivet av anon227198:

Nej, det er totalt meningsfylt. Skillnaden mellom processorer bør vises slik de er i virkelige situasjoner. Ikke manipulerte situasjoner som ingen noensinne kommer bort i. Skillnaden mellom prosessorer er kanskje liten i 1440p. Men i den virkelige verden vil en person meg high-end GPU ha denne oppløsningen (eller høyere), og det er denne skillnaden han vil merke. Du vet dette like godt som meg. Tester med 720p og 1080p med slike GPUer er i realiteten manipulerte tester som kraftig overdriver tallene, og det gir feil inntrykk til folk.

Det här med "verkliga situationer" är ju ett väldigt diffust uttryck för PC-spelande, då många av oss förmodligen ändrar väldigt specifika inställningar i spel för att nå upp till en given FPS.

Jag är exempelvis ägare av ett GTX 1080 och en 1440p-skärm som går upp till 165 Hz vid överklockning... Med andra ord blir GPU:n helt klart flaskhalsen om jag försöker uppnå det med maximala grafikinställningar i ett flertal moderna spel, men det försöker jag inte göra heller. Jag ändrar kvaliteten för vissa specifika inställningar för att försöka uppnå en given uppdateringsfrekvens, och det är processorn kan bli en flaskhals även om man spelar i en högre upplösning som 1440p/2160p.

Med andra ord är varken 720p/1080p/1440p/2160p med Ultra-inställningar "realistiskt" för mig, jag kommer att sänka individuella inställningar för att försöka uppnå den uppdateringsfrekvens jag vill ha. Men när det gäller processortester så måste man ju ändå bestämma sig för en "preset" att utgå ifrån, annars skulle det ta för lång tid att göra benchmarks. Då passar 720p-tester in bra eftersom de så gott som exklusivt avlastar GPU:n utan att göra det mer lättdrivet för processorn. På så sätt kan vi som spelar i högre upplösningar med en högre uppdateringsfrekvens få en idé om ungefär hur en processor skulle prestera när man drar ner inställningarna.

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk

Tycker 1080p-testerna med 1080ti ska fram istället.

Nu får man uppfattningen om att Intel "bara" är 5% snabbare men direkt man stoppar in ett Ti så stiger siffran till 10% bättre. Av 720p testerna att dömma så kommer skillnaden bli större ju bättre grafikkort som används.

Visa signatur

1::3700+ San Diego@3.0GHzghz[300x10], Abit KN8-Ultra, 1024mb, X850XT @ PE. 01: 27190. 05: 6220.
2::XP 2500+ @ 3200+, Asus A7N8X-X, GeForce FX 5700 Ultra@ 605/1100, 512mb ddr. 01: 13550

Permalänk
Avstängd
Skrivet av Yoshman:

Angående grafikinställningar och dess påverkan på skalningen med CPU. Ja, det finns definitivt en sådan effekt men för spel är den i de flesta fall så pass svag att andra osäkerhetsfaktorer gör att denna effekt ändå drunknar.

Effekten att ett större och mer komplicerat problem kan skala bättre med kärnor (förutsatt att den del som ökas kan parallelliseras, vilket rimligen är fallet för spel) är känd som Gustafsons lag.

Finns långt större effekt som minska skalbarhet över CPU-kärnor: ju kortare tid spelmotorn har på sig att färdigställa varje scen, ju högre blir den relativa kostnaden för synkronisering.

Lite mellan tummen och pekfingret kan man säga

  • för jobb som mäts i hela sekunder är det fullt möjligt att få väldigt nära perfekt skalning

  • för jobb som mäts i millisekunder är det möjligt att få viss skalning med CPU-kärnor

  • för jobb som mäts i mikrosekunder (här har vi t.ex. pakethantering i en router och liknande) ger det en prestandaminskning att försöka blanda in flera kärnor i att hantera ett enskilt paket/enskild ström (finns HW stöd att sprida separata strömmar över kärnor)

Vid 30 FPS, som konsolerna idag siktar på, har man ju totalt 33 ms på sig att göra allt. Här går det numera rätt bra att sprida till de 6-7 CPU-kärnor som spel har tillgång till. För någon som absolut måste köra fullt ös i sin 240 Hz skärm har spelmotorn bara 4,2 ms på sig, vilket då betyder att de flesta del-jobb kliver in en bra bit i mikrosekundvärlden.

Denna effekt kommer av att ljusets hastighet och därmed hastigheten CPU-kärnor kan kommunicera med varandra är begränsad. Att synkronisera något är en seriell process och effekten att skalbarhet med kärnor klingar av när den seriella delen blir större blir relativt sett totala tiden är just vad Amdahls lag beskriver.

Så mer avancerade GPUer betyder bättre skalning med CPU-kärnor p.g.a att större jobb hanteras (Gustafsons lag) medan trenden mot allt högre frekvens på skärmarna tyvärr ger sämre skalning mer CPU-kärnor p.g.a. att synkronisering mellan kärnor relativt blir dyrare (Amdahls lag).

Att få ner frame timen til 4,2 ms är en sak, men mer viktigt tycker jag är att få ner frametimen till ett absolut minimum på 90 fps (11ms), jag jobbar med VR och där får man bara inte gå under 90 fps, för det märks direkt i VR. Här kan multitrådad rendering göra underverk, för att det absoluta minimum aldrig ska gå under 90 fps även för tunga scener med mycket draw calls. I VR måste även GPU jobba i princip dubbelt så mycket så om man kan ta lite tid från CPU tid och ge till GPU tid är detta win win

Visa signatur
Permalänk
Medlem

Hej!

Vilken sektion ligger temps under? Letat lite men orkar inte läsa igenom hela artikeln

Temperaturerna tycker jag är en viktig grej då jag köpte min Ryzen 1700x för att den går svalare än Intels processorer.

Mvh J

Visa signatur

Laptop: Asus G750JX Processor: Intel Core i7 4700HQ Minne: 16GB DDR3 1600mhz Grafik: Nvidia GTX770m 1GB OS: Windows 8 64bitar

Permalänk
Medlem
Skrivet av anon227198:

Og igjem, det argumentet bestrider helle motivet med spill-benchmarks. Som jo nettopp er å formulere real-world-resultater (ellers hadde de ikke testet spill i det hele tatt, og bare holdt seg til syntetiske tester). Disse benchmarksene danner grunnlaget for folks kjøp av produkter og. Derfor bør de gi en så reell representasjon som overhode mulig. GTX 1080 + i7 8700K i 720p er ikke en slik situasjon. Når jeg har en 1440p, hva skal jeg kunne leste ut av Sweclockers test egentlig? Kan du fortelle meg det?

Att köra 720p tester där begränsning av GPU hålls till ett minimum är på intet sätt en felaktighet i ett cpu test, det visar potentiell prestanda som finns tillgänglig när GPU inte är den begränsande faktorn. När du sedan kör med kraftigare gpu så vet du att det finns headroom uppåt i FPS vilket är mycket viktigt för de som spelar uppåt 200fps på skärmar som faktiskt kan visa det.

Att påstå att 720p inte ska testas i därför ingen använder det i normal situation är precis samma sak som att säga att ingen nyttjar cinebench i vardaglig situation. 720p med höga inställningar med kraftig gpu nog att inte agera flaskhals är en god indikation på just hur mycket högre fps du kan få i spelen och bara för att du inte ser nyttan med det betyder det inte att andra inte gör det heller.

Alla tester i benchmarks behöver inte vara real world tester rakt av, kolla bara på de syntetiska testerna, många av dom är så långt från real world det kan bli men jag hör ingen gnälla om dom direkt?

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

@Yoshman: Vilket utförligt svar, tack!

Permalänk
Avstängd
Skrivet av emilakered:

Bland annat av anledningen @tellus82 tar upp, fast taget till extrem nivå. Det kompromissas med en hel del annat förutom pixlar när inställningarna sänks, speciellt om man går hela vägen till "Low" (GPU-fokuserade grejer har en tendens att sänkas först, CPU sist). När vi testade olika scenarion fick vi mer konsekventa och tydliga resultat genom att fokusera på sänkt upplösning. Men teoretiskt, det skulle ge liknande resultat såklart.

Sänker du inställningarna på GPU måste CPU även jobba mer med fysisk och andra icke grafiska grejer oftare eftersom GPU-tiden blir lägre. Sedan kan grafikinställningar påverka CPU, mest sådant som sänker antal objekt på skärmen, tex FOV och draw distance. Men även saker som att sänka texturupplösning då du kan få in fler texturer på samma atlas tex (Nu använder man oftare texture arrays dock och de är alltid 255 stycken oberoende av upplösning)

Visa signatur
Permalänk
Medlem
Skrivet av Yoshman:

Detta är med stor sannolikhet en av de få fall vi ser idag där SMT är en nackdel i spel.

Spel är en form av realtidsapplikation, framförallt lägsta FPS. För realtidsapplikationer är låg latens den kritiska komponenten medan total kapacitet i normalfallet är relativt oviktigt.

Moderna spel delar upp de uppgifter som ska utföras i arbetsmoment som endera kan köras av vilken tråd som helst samt arbetsmoment som måste köras på någon specifik tråd (i praktiken finns nästan alltid bara en sådan tråd som benämns "huvudtråd" eller liknande).

Det som avgör lägsta FPS är den lägsta tid någon enskild tråd måste spendera för att utföra alla sina tilldelade jobb. Om man har fall där någon del tar ganska mycket tid (mycket CPU-kraft) så kan SMT vara en nackdel om den "andra" CPU-tråden på samma fysiska kärna ofta också har något att jobba på under relativt lång, det medan andra CPU-trådar kanske rätt snabbt blir klar med sina jobb.

TomsHardware har gjort en analys kring hur Far Cry 5 använder CPU-trådar, det man ser är att spelmotorn använder alla CPU-trådar som finns, även upp till 6C/12T.
https://img.purch.com/r/711x457/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9QLzcvNzYxNjU5L29yaWdpbmFsL1VzZV9DUFUuZ2lm
Man ser däremot att det är bara väldigt korta stunder som många trådar jobbar samtidigt, i vilken tråd som är lastad vid ett visst tillfälle hoppar runt extremt mycket
https://img.purch.com/r/711x457/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9QL0IvNzYxNjYzL29yaWdpbmFsL1VzZV9DUFVfMTA2MC5naWY=
Detta är ett skolboksexempel på när något försöker använda fler trådar än vad som är optimalt. Rätt gjort, vilket man ändå kan säga att är fallet här, blir inte den negativa påverkan speciellt stor. Den är dock negativ!

Detta visar ju att spelet inte har mer jobb att utföra när det paras med GTX1060/TX580 (vilket är vad TomsHardware testat) med än vad man får vid 4C/4T (redan 2C/4T är väldigt nära "bra nog", men 4C/4T är bättre ur ett realtidsperspektiv)
https://img.purch.com/r/711x457/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9QL00vNzYxNjc0L29yaWdpbmFsL0Zhci1DcnktNS1GUFMtMTkyMHgxMDgwLVVsdHJhLVRBQS1NU0ktUlgtNTgwLUdhbWluZy04Ry5naWY=

Det skrivet: SMT är i väldigt sällan en nackdel på det stora hela, tvärtom är det en väldigt energieffektiv teknik för alla fall som behöver mycket beräkningskraft.

En liten detalj, nej motorn använder inte alla tillgängliga kärnor upp till 100% samtidigt, det du ser i graferna är en aggregerad mätning över tid, en snitt mätning och dessutom en extremt icke högupplöst över tid mätning, vilket gör att du ser inte när trådar bollas mellan kärnor (vilket sker väldigt ofta per sekund i FC5), du kan inte få mer än 100% belastning på mer än 6 trådar samtidigt i FC5, oavsett inställningar eller gpu. Spelet nyttjar med andra ord inte fler än 6 arbetstrådar som mest men kan använda precis varenda kärna logisk som fysisk. Det bästa som kunde ske med patchning vore att inte nyttja logiska kärnor på processorer med 6 fysiska kärnor och upp, på så vis elimineras den overhead som skapas av att bolla runt arbetstrådar på logiska kärnor i onödan, en patchning som dessutom råkar vara extremt vanlig bland spel.
Att sedan peka på gtx1060 eller rx580 som någon slags indikation på hur många trådar som nyttjas blir mest lite hål i huvudet...

http://www.guru3d.com/articles-pages/far-cry-5-pc-graphics-pe...

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::