Permalänk
Medlem
Skrivet av Flopper:

single player test, värdelöst för spelare som spelar multiplayer, Ryzen är tyvärr ett bättre val för spelare som spelar spel på riktigt inte benchmarkar dem.
Helt missvisande test tyvärr, trodde att folk hade lärt sig det.

7700k har 25% (om jag inte räknar tokigt?) högre minimum-fps i multiplayer testet.
För att inte tala om i DX12

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Datavetare
Skrivet av Knightmare:

I 1440p Ultra settings? I 4K Ultra med nya Titan 2018? Eller är kriteriet för en bra spelprocessor 400 fps istället för 350 fps i 720p medium?

/Knight

EDIT: Det är alltså testmetoden att testa i låg upplösning med låga settings som jag vänder mig emot. Jag känner att den borde utvärderas.

Kravet för en optimal spel-CPU är högsta möjliga lägsta FPS och lägsta möjliga FPS-varians med ett FPS-genomsnitt som ligger på den nivå man anser vara "tillräckligt" för bra flyt (och vad som är "tillräckligt" verkar variera väldigt mellan olika personer).

Jag tror ändå 1280x720 speltesterna är relevanta, som absolut minimum är de absolut relevanta som riktmärke för hur CPUn presterar i program som är främst beroende av heltalsberäkningar, kan utnyttja många kärnor men där det krävs synkronisering mellan CPU-trådar vilket omöjliggör perfekt skalning med CPU-kärnor. Detta är relevant för det är så en förkrossande majoritet av alla desktop-program som är multitrådade fungerar.

Om man anser att 1280x720 resultaten är irrelevant för spel finns ju t.ex. PC Perspective som kör i maxade inställningar 1920x1080 med Titan X Pascal. Måste vara en hyfsat vink om spelprestanda för de som sitter på högfrekvensskärmar.

Insåg aldrig först vilket superjobb Toms Hardware gjort kring speltestning i deras Ryzen 1800X review. Men man har faktiskt listat saker som frame-variance och även gjort en formel baserad på varians som ska ge en beskrivning hur mjukt spelet uppleves.

Finns några riktigt intressanta resultat där. T.ex. att 1800X utan SMT ger både högre lägsta FPS och högre genomsnittlig FPS i Ashes of the Singularity, men varians är väsentligt lägre när SMT är påslaget.

Notera att alla Intels modeller faktiskt har en nackdel i dessa tester då de körs i "balanced" läget i Windows. Själv stänger jag av all form av frekvensskalning på min spelmaskin just för att variabel frekvens ökar varians. Ryzen 1800X har resultat både med "balanced" och med "performance" läget (dessa är märkta "HP").

I dessa resultat ser man även att relativt FPS-varians faktiskt påverkas rätt lite av högre upplösning, är rätt likartade resultat fr 1920x1080 och 2560x1440

AoS

Dold text

BF4

Dold text

Hitman (2016)

Dold text

ProjectCARS

Dold text

Metro: Last Light Redux

Dold text

Tittar man på "Unevenness" resultatet så ligger i7-7700K och i7-6900K konsekvent i topp. De som hävdar att spel "flyter bättre på Ryzen" lär

  • kört med inställningar som ingen annan testat där Ryzen gynnas rejält

  • ha något fel på sitt Intel system

  • dragit resultatet från en plats där solen inte skiner

Skulle säga sista är sannolikast. Misstänker att man inte skulle kunna avgöra vilket system som är vilket i ett blindtest i rätt många av fallen!

Var ju samma sak med "problemen" med minnet i GTX 970. YouTube och Reddit svämmade över med folk som hade alla möjliga problem, men av någon underlig anledning lyckades inte en enda teknikwebbplats reproducera dessa påstådda problem. Undrar varför...

Åter igen: Ryzen är inte på något sätt en dålig spel CPU, men allt mätbart pekar på att i7-7700K är en bättre CPU för spel (så även i7-6900K, men är rätt dåligt investerade pengar jämfört med i7-7700K om spel är det man primärt är ute efter).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

@Yoshman: Jag tror inte att du klarar att förklara vad "gear down mode" på minnen är, inte på ett sätt så att vanliga dödliga förstår.
Det är klart jag kan ha fel, du får gärna bevisa motsatsen.

#16705189

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Ratatosk:

@Yoshman: Jag tror inte att du klarar att förklara vad "gear down mode" på minnen är, inte på ett sätt så att vanliga dödliga förstår.
Det är klart jag kan ha fel, du får gärna bevisa motsatsen.

#16705189

Är inte jättehemma på design av RAM och RAM-bussar, handlar väl ändå att avkoda vad som sägs här

"“When running 2667 or higher for stability we run in memory in Geardown mode so CS is driven for 2 memclks, and UMC and PHY need to be in sync regarding even clocks for cmd/add bus setup/hold time, other parameters that have to be even include Tcwl, Twr, etc. So, when in geardown mode, CAS latency has to be even number as a logical requirement.”
Read more at http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-...

"CS" lär vara chip-select och att den är två cykler tror jag motsvarar "command rate" på 2T som man brukar se på minnen. D.v.s i geardown måste command rate vara 2T mot mer normala 1T.

Är inte alls med på vad UMC är förkortning på. Men uppenbarligen måste den vara synkroniserad med PHY (som jag gissar är elektriska gränssnittet mot RAM). Kan det vara så att UMC kör på halva frekvensen av PHY (som i sin tur kör på halva frekvensen av vad minnen är märkta med, d.v.s. frekvensen är verkligen 1333 MHz på 2667 "MHz" DDR4)?

Allt mumbojumbo ovan verkar koka ner till att CAS (tiden för att göra en RAM-kolumn redo för användning) måste vara ett jämnt antal cykel. Känns inte som någon gigantisk begränsning. Vet inte hur mycket det påverkar om man kör i 2T mot 1T, men rent generellt så brukar det mesta på skrivbordet ha väldigt hög cache-hit-rate så minnestimings spelar ofta rätt liten roll (men finns som alltid undantag).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Kravet för en optimal spel-CPU är högsta möjliga lägsta FPS och lägsta möjliga FPS-varians med ett FPS-genomsnitt som ligger på den nivå man anser vara "tillräckligt" för bra flyt (och vad som är "tillräckligt" verkar variera väldigt mellan olika personer).

Jag tror ändå 1280x720 speltesterna är relevanta, som absolut minimum är de absolut relevanta som riktmärke för hur CPUn presterar i program som är främst beroende av heltalsberäkningar, kan utnyttja många kärnor men där det krävs synkronisering mellan CPU-trådar vilket omöjliggör perfekt skalning med CPU-kärnor. Detta är relevant för det är så en förkrossande majoritet av alla desktop-program som är multitrådade fungerar.

Om man anser att 1280x720 resultaten är irrelevant för spel finns ju t.ex. PC Perspective som kör i maxade inställningar 1920x1080 med Titan X Pascal. Måste vara en hyfsat vink om spelprestanda för de som sitter på högfrekvensskärmar.

Insåg aldrig först vilket superjobb Toms Hardware gjort kring speltestning i deras Ryzen 1800X review. Men man har faktiskt listat saker som frame-variance och även gjort en formel baserad på varians som ska ge en beskrivning hur mjukt spelet uppleves.

Finns några riktigt intressanta resultat där. T.ex. att 1800X utan SMT ger både högre lägsta FPS och högre genomsnittlig FPS i Ashes of the Singularity, men varians är väsentligt lägre när SMT är påslaget.

Notera att alla Intels modeller faktiskt har en nackdel i dessa tester då de körs i "balanced" läget i Windows. Själv stänger jag av all form av frekvensskalning på min spelmaskin just för att variabel frekvens ökar varians. Ryzen 1800X har resultat både med "balanced" och med "performance" läget (dessa är märkta "HP").

I dessa resultat ser man även att relativt FPS-varians faktiskt påverkas rätt lite av högre upplösning, är rätt likartade resultat fr 1920x1080 och 2560x1440

AoS

BF4

Hitman (2016)

ProjectCARS

Metro: Last Light Redux

Tittar man på "Unevenness" resultatet så ligger i7-7700K och i7-6900K konsekvent i topp. De som hävdar att spel "flyter bättre på Ryzen" lär

  • kört med inställningar som ingen annan testat där Ryzen gynnas rejält

  • ha något fel på sitt Intel system

  • dragit resultatet från en plats där solen inte skiner

Skulle säga sista är sannolikast. Misstänker att man inte skulle kunna avgöra vilket system som är vilket i ett blindtest i rätt många av fallen!

Var ju samma sak med "problemen" med minnet i GTX 970. YouTube och Reddit svämmade över med folk som hade alla möjliga problem, men av någon underlig anledning lyckades inte en enda teknikwebbplats reproducera dessa påstådda problem. Undrar varför...

Åter igen: Ryzen är inte på något sätt en dålig spel CPU, men allt mätbart pekar på att i7-7700K är en bättre CPU för spel (så även i7-6900K, men är rätt dåligt investerade pengar jämfört med i7-7700K om spel är det man primärt är ute efter).

Rent spontant så känns det som att du vill dra en permanent konklusion om Ryzen så fort som det bara är möjligt där det blir hopplöst orättvist. Med tanke på hur medveten du borde vara om situationen just nu så tycker jag det är förvånande. Jag trodde vi hade kommit längre än så efter denna såpass långa tråd. Det är väldigt uppenbart att mycket håller Ryzen tillbaka, men inte länge till. Ny arkitektur och ny tillverkningsprocess där den senare tyvärr inte låter den sträcka sig i frekvens ännu, och det är synd då den skalar något helt sjukt i prestanda med frekvens av det man sett. Det förstnämnda är allvarlig saknad av optimeringar. Många spelsummeringar görs nu/idag på spel som inte alls fungerar som dom ska på Ryzen där Aots är ett av dom. Oxide släpper dock snart en uppdatering som ska fungera på Ryzen, men då kommer man antagligen få höra att "det är inget vettigt spel att jämföra med" för att Ryzen kanske blir väldigt snabb där. I regel spökar både SMT och powerplans/HPET/core parking till det för Zen.

Att låta folk vänta för fine-wine argument är fel, men jag tror vi ligger ganska nära en hel del förbättringar på programvarusidan. Spelutvecklare som Bethesda och Oxide är en av flera. Många inklusive jag själv betraktar t.ex en 6600K eller 7600K som en mycket god spelcpu, men vi ser att Ryzen matchar eller presterar över dessa just nu trots motvind nu i början. Med tanke på sitt pris, och den höga energieffektivitet som Ryzen har så är det definitivt en mycket god spelcpu som trasar sönder sitt motstånd så fort man också vill göra något mer än att bara spela med datorn, kanske tom samtidigt som man spelar. Finns det något spel som inte fungerar blixtrande snabbt på Ryzen (såvida det inte är en uppenbar glitch i spelet/OS). Nej det gör det inte. En snar tid kommer utvisa det jag beskriver här och multithreading i spel som jag tidigare nämnt så många gånger. Mitt inlägg är bokmärkat och jag ska återkomma när Win10 är patchat och allt lagt sig lite. I skrivande stund så tror jag att man kommer ångra sig rejält om man kör på en 7700K framför en 1700/1700X. Speciellt när man med Intel sannolikt kommer få pröjsa nytt moderkort igen vid en ny "generation" som Intel kallar det.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem

Ett annat spel som används i många recensioner utav Ryzen där man ser att minfps blir kraftigt lidande på grund av avsaknad support från Win10. Även snittfps är ganska lidande.

Warhammer:

Windows 10 - 1080 Ultra DX11:

8C/16T - 49.39fps (Min), 72.36fps (Avg)
8C/8T - 57.16fps (Min), 72.46fps (Avg)

Windows 7 - 1080 Ultra DX11:

8C/16T - 62.33fps (Min), 78.18fps (Avg)
8C/8T - 62.00fps (Min), 73.22fps (Avg)

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem

Ryzen bench i Linux

https://www.servethehome.com/amd-ryzen-7-1700x-linux-benchmar...

Gör sig tydligen ganska bra. Ett av testresultaten med ett enkeltrådat bench i Linux där Ryzen går om allt med enorm marginal:

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av Enigma:

Ett annat spel som används i många recensioner utav Ryzen där man ser att minfps blir kraftigt lidande på grund av avsaknad support från Win10. Även snittfps är ganska lidande.

Warhammer:

Windows 10 - 1080 Ultra DX11:

8C/16T - 49.39fps (Min), 72.36fps (Avg)
8C/8T - 57.16fps (Min), 72.46fps (Avg)

Windows 7 - 1080 Ultra DX11:

8C/16T - 62.33fps (Min), 78.18fps (Avg)
8C/8T - 62.00fps (Min), 73.22fps (Avg)

Finns det mobo drivrutins stöd i win 7. Tex ljudkort, lan mm eller funkar win 10 drivrutinerna rakt av?

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Entusiast
Skrivet av Knightmare:

Men faktum är ju att i "normala" inställningar när man spenderar så mycket att man köper en i5 2500k eller FX 8350 och ett flaggskepp (GTX 680, 980TI osv) så har 2500K och 8350 i praktiken presterat identiskt i 5år. Kan man då genom att testa i låg upplösning och medium säga att i5 2500k är en bättre spelprocessor?

Jag har sagt det förr och jag lär väl få säga det 1000 gånger igen i diskussionen om Ryzen, men för mig så räcker till exempel inte 60FPS i ett FPS-spel.
Jag vill väldigt gärna ha en minimum på 120FPS.

Hänvisar till ett tidigare inlägg: #16701319

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Hjälpsam

@Yoshman: Funderar lite på om alla timings måste vara jämna? alltså tex CL15 får sättas till CL14 eller CL16.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Finns det mobo drivrutins stöd i win 7. Tex ljudkort, lan mm eller funkar win 10 drivrutinerna rakt av?

Skickades från m.sweclockers.com

Ljudkortet beror på vilken ASIC som sitter på moderkortet, men AM4 är officiellt stödd av AMD och bekräftas här:

http://support.amd.com/en-us/download/chipset?os=Windows%2010...

Description:
Supports Windows 10/8.1/ 7 (64​-bit)

Package Includes:
AMD Chipset Drivers
AMD AHCI Driver
AMD USB 3.0 Driver
​ AMD SB9xx RAID Drivers for Windows 7
AMD A-Series APU Chipset RAID Drivers
AMD E-Series APU Chipset RAID Drivers​​​

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Datavetare
Skrivet av Enigma:

Rent spontant så känns det som att du vill dra en permanent konklusion om Ryzen så fort som det bara är möjligt där det blir hopplöst orättvist. Med tanke på hur medveten du borde vara om situationen just nu så tycker jag det är förvånande. Jag trodde vi hade kommit längre än så efter denna såpass långa tråd. Det är väldigt uppenbart att mycket håller Ryzen tillbaka, men inte länge till. Ny arkitektur och ny tillverkningsprocess där den senare tyvärr inte låter den sträcka sig i frekvens ännu, och det är synd då den skalar något helt sjukt i prestanda med frekvens av det man sett. Det förstnämnda är allvarlig saknad av optimeringar. Många spelsummeringar görs nu/idag på spel som inte alls fungerar som dom ska på Ryzen där Aots är ett av dom. Oxide släpper dock snart en uppdatering som ska fungera på Ryzen, men då kommer man antagligen få höra att "det är inget vettigt spel att jämföra med" för att Ryzen kanske blir väldigt snabb där. I regel spökar både SMT och powerplans/HPET/core parking till det för Zen.

Att låta folk vänta för fine-wine argument är fel, men jag tror vi ligger ganska nära en hel del förbättringar på programvarusidan. Spelutvecklare som Bethesda och Oxide är en av flera. Många inklusive jag själv betraktar t.ex en 6600K eller 7600K som en mycket god spelcpu, men vi ser att Ryzen matchar eller presterar över dessa just nu trots motvind nu i början. Med tanke på sitt pris, och den höga energieffektivitet som Ryzen har så är det definitivt en mycket god spelcpu som trasar sönder sitt motstånd så fort man också vill göra något mer än att bara spela med datorn, kanske tom samtidigt som man spelar. Finns det något spel som inte fungerar blixtrande bra på Ryzen (såvida det inte är en uppenbar glitch i spelet/OS). Nej det gör det inte. En snar tid kommer utvisa det jag beskriver här och multithreading i spel som jag tidigare nämnt så många gånger. Mitt inlägg är bokmärkat och jag ska återkomma när Win10 är patchat och allt lagt sig lite. I skrivande stund så tror jag att man kommer ångra sig rejält om man kör på en 7700K framför en 1700/1700X. Speciellt när man med Intel sannolikt kommer få pröjsa nytt moderkort igen vid en ny "generation" som Intel kallar det.

Har också haft helt rätt om vilka typer av program som Ryzen kommer vara starkare i och vilka den kommer vara svagare i, har däremot aldrig kunna säga exakta magnituden på skillnaderna utan tester (bara gissat). Så endera extremt tur eller kanske så ger >25 års erfarenhet av att skriva optimerad programvara, varav ~15 är för SMP-system, bidrar till en viss magkänsla kring sådant.

Jag är hyfsat införstådd med vad som är möjligt att fixa i t.ex. UEFI, vad som är möjligt att göra kring synkronisering i applikationer som inte är "embarrassingly parallel" och rent generellt var gränserna brukar ligga. Kan absolut gissa fel här i specifika fall, ibland missbedömer man vad som vad som egentligen var den största flaskhalsen.

Länken @Ratatosk postade ovan, den till Legit Reviews nämner bl.a. en sak jag, utan större framgång, försökt pekat på tidigare.

"Applications like Blender, Lightroom, and video transcoding doesn’t use any no or very little CCX communication. 7-Zip (real world compression of mixed data) and games do, so this might be a weak point for Ryzen."

Att latens skulle bli hög mellan CCX har varit uppenbart ända sedan man först visa mikroarkitekturen. Exakt HUR hög var omöjligt att säga innan AMD talade om hur kommunikation faktisk sker mellan CCX. Nu vet vi att det är väldigt snarlikt hur de två Jaguar-klustren (och även hur de två dual-core blocken i C2Q) kommunicerar, d.v.s via RAM vilket betyder latens runt 150-200 cykler.

Fördelen med splittad L3$ mellan CCX är att applikationer som INTE kommunicerar mellan kärnor får i praktiken dubbelt så hög L3$ latens som de skulle med en monolitisk L3$ för alla åtta kärnor. Ovanpå det betyder icke-inkluderande L2$+L3$ att effektiva cache-storleken blir större. Detta gynnar program som Blender, kompilering m.m.

Nackdelarna med cache-designen är väldigt hög kommunikationslatens mellan kärnor samt högre latens vid cache-accesser som inte kan förutsägas (det senare är främst en effekt av att L2$ är större än Intels L2$).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

@Aka_The_Barf: Vad gäller ljudkort, så är det ofta Realtek och de brukar ha stöd för Windows 7, säkrast är att gå till deras hemsida och se om det finns en drivrutin att ladda ned.
http://www.realtek.com.tw/downloads/

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

@Yoshman: Funderar lite på om alla timings måste vara jämna? alltså tex CL15 får sättas till CL14 eller CL16.

tRCD och tRP ska hållas på samma värde för att inte få fel överlappning. CAS kan du sätta mer oberoende av dessa, likaså tRAS.

T.ex: CL10-12-12-31, CL16-17-17-36.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av ClintBeastwood:

Fast i Sweclockers test av Battlefield så ligger ju processorer med fler kärnor över 6700k trots att den är högre klockad och har högre prestanda i cinebench entrådstest, så att man skulle ta bort load från fler kärnor kan inte stämma, i alla fall inte i alla spel och det borde i så fall vara en regel om det du säger stämmer, eller? Samma sak gäller i Witcher 3 (medelvärdet är bättre).
http://cdn.sweclockers.com/artikel/diagram/12667?key=1cf60a1ff99e2ae56b10d28be4569344
http://cdn.sweclockers.com/artikel/diagram/12705?key=02433c9e4f9718437607288692021ae8
http://cdn.sweclockers.com/artikel/diagram/12674?key=fcc165a04788114c5e7371b264b5a7d9

Att det skulle stämma i alla spel är såklart inte sant, det beror på hur väl trådade dom är och vad dom i grund är byggda för, just BF1 och witcher 3 drar och kräver ett större antal kärnor även på lägsta inställningar. däremot finns det spel där belastning på CPU sjunker drastiskt genom att enbart sänka inställningar. Kolla följande bild jag gjorde idag.

Genomsnitts belastning dx12max: 56%, min: 47%. dx11max: 51%, min:42%

Här är det enbart inställningar i spelet som blivit justerade, allt annat förblir det samma, en konstant 80fps limiter är satt och ingen gpu flaskning finnes. Alltså fps ligger oavsett inställning på konstant 80 bilder per sekund, enda skillnaden är kvalitéts inställningar i spelet. Så mellan högsta och lägsta inställningen i detta spel skiljer det 9-10%, störst skillnad blir det mellan dx11 & 12 med 14%. Detta är alltså i genomsnitt. Under tillfällen med hård belastning skiljer det mer än en hel fysisk kärna i belastning (25%+)

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av tellus82:

Att det skulle stämma i alla spel är såklart inte sant, det beror på hur väl trådade dom är och vad dom i grund är byggda för, just BF1 och witcher 3 drar och kräver ett större antal kärnor även på lägsta inställningar. däremot finns det spel där belastning på CPU sjunker drastiskt genom att enbart sänka inställningar. Kolla följande bild jag gjorde idag.

http://i621.photobucket.com/albums/tt297/Tellus82/ROTTRsettings_zpsbhxraip7.png

Det finns väl vissa inställningar som är tyngre på cpu och vissa är tyngre på gpu? Jag vet t.ex i Battlefield där mesh quality är väldigt krävande för processorn i högre inställningar.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Det finns väl vissa inställningar som är tyngre på cpu och vissa är tyngre på gpu? Jag vet t.ex i Battlefield där mesh quality är väldigt krävande för processorn i högre inställningar.

Naturligtvis, problemet med att "benchmarka" på lägre inställningsnivåer med low eller very low som preset är att det inte enbart påverkar gpu belastning, långt därifrån. Självklart kommer det finnas undantag både åt ena eller andra hållet men man måste förstå att rent generellt så betyder sänkta spelinställningar lägre cpu belastning per frame. Precis vad man inte vill ha när man testar CPU prestanda.

Övre bilden påvisar cpu belastning med olika kvalitetsnivåer, nedre visar olika upplösningar.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av tellus82:

Naturligtvis, problemet med att "benchmarka" på lägre inställningsnivåer med low eller very low som preset är att det inte enbart påverkar gpu belastning, långt därifrån. Självklart kommer det finnas undantag både åt ena eller andra hållet men man måste förstå att rent generellt så betyder sänkta spelinställningar lägre cpu belastning per frame. Precis vad man inte vill ha när man testar CPU prestanda.

http://i621.photobucket.com/albums/tt297/Tellus82/ROTTRsettings_zpsbhxraip7.png
http://i621.photobucket.com/albums/tt297/Tellus82/ROTTR-dx12-60fps_zpsyp8x4vth.png

Övre bilden påvisar cpu belastning med olika kvalitetsnivåer, nedre visar olika upplösningar.

Det bästa hade nog varit att ta reda på vilka inställningar som lägger mycket last på cpu och använda dom och då kanske t.om 720p hade blivit totalt meningslöst vs 1080?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av tellus82:

Att det skulle stämma i alla spel är såklart inte sant, det beror på hur väl trådade dom är och vad dom i grund är byggda för, just BF1 och witcher 3 drar och kräver ett större antal kärnor även på lägsta inställningar. däremot finns det spel där belastning på CPU sjunker drastiskt genom att enbart sänka inställningar. Kolla följande bild jag gjorde idag.

http://i621.photobucket.com/albums/tt297/Tellus82/ROTTRsettings_zpsbhxraip7.png
Genomsnitts belastning dx12max: 56%, min: 47%. dx11max: 51%, min:42%

Här är det enbart inställningar i spelet som blivit justerade, allt annat förblir det samma, en konstant 80fps limiter är satt och ingen gpu flaskning finnes. Alltså fps ligger oavsett inställning på konstant 80 bilder per sekund, enda skillnaden är kvalitéts inställningar i spelet. Så mellan högsta och lägsta inställningen i detta spel skiljer det 9-10%, störst skillnad blir det mellan dx11 & 12 med 14%. Detta är alltså i genomsnitt. Under tillfällen med hård belastning skiljer det mer än en hel fysisk kärna i belastning (25%+)

Detta får mig att tänka på en sak, ett grafikkort har flera enheter vars syfte är att dela upp renderingspipelinen, så som geometridel, shaderdel m.m.. (väldigt förenklat)
Så om man kör lägsta inställning på kortet, kan det då, beroende på kort/arkitektur som kör ett visst spel (som kan vara shader-tungt eller geometri-tungt), vara så att t.ex geometridelen kan vara en flaskhals internt i ett kort eller shaderdelen?.... eller kanske så att API:t som är ineffektivt?

Då visas det som att kortet "underpresterar" i sin helhet men att det egentligen en "modul" i pipelinen som flaskar internt i kortet medan de andra modulerna väntar?

På dessa "låga upplösningstester" så är det tänkt att GPU:n inte ska flaska men man ser ju att CPU:n heller inte flaskar :/
"Vem var det som flaska" (vem var det som kasta) kan man tänka sig

Är jag helt ute och cyklar tro?

Permalänk
Skrivet av Yoshman:

Är inte jättehemma på design av RAM och RAM-bussar, handlar väl ändå att avkoda vad som sägs här

"“When running 2667 or higher for stability we run in memory in Geardown mode so CS is driven for 2 memclks, and UMC and PHY need to be in sync regarding even clocks for cmd/add bus setup/hold time, other parameters that have to be even include Tcwl, Twr, etc. So, when in geardown mode, CAS latency has to be even number as a logical requirement.”
Read more at http://www.legitreviews.com/amd-ryzen-7-1800x-1700x-and-1700-...

"CS" lär vara chip-select och att den är två cykler tror jag motsvarar "command rate" på 2T som man brukar se på minnen. D.v.s i geardown måste command rate vara 2T mot mer normala 1T.

Är inte alls med på vad UMC är förkortning på. Men uppenbarligen måste den vara synkroniserad med PHY (som jag gissar är elektriska gränssnittet mot RAM). Kan det vara så att UMC kör på halva frekvensen av PHY (som i sin tur kör på halva frekvensen av vad minnen är märkta med, d.v.s. frekvensen är verkligen 1333 MHz på 2667 "MHz" DDR4)?

Allt mumbojumbo ovan verkar koka ner till att CAS (tiden för att göra en RAM-kolumn redo för användning) måste vara ett jämnt antal cykel. Känns inte som någon gigantisk begränsning. Vet inte hur mycket det påverkar om man kör i 2T mot 1T, men rent generellt så brukar det mesta på skrivbordet ha väldigt hög cache-hit-rate så minnestimings spelar ofta rätt liten roll (men finns som alltid undantag).

Gissar starkt på att det är 2T man skall ändra till. Vill minnas att alla Ryzen kör 1T på minnena (du behöver inte svara på detta då det är en parentes).

Permalänk
Medlem
Skrivet av SolidReactor:

Detta får mig att tänka på en sak, ett grafikkort har flera enheter vars syfte är att dela upp renderingspipelinen, så som geometridel, shaderdel m.m.. (väldigt förenklat)
Så om man kör lägsta inställning på kortet, kan det då, beroende på kort/arkitektur som kör ett visst spel (som kan vara shader-tungt eller geometri-tungt), vara så att t.ex geometridelen kan vara en flaskhals internt i ett kort eller shaderdelen?.... eller kanske så att API:t som är ineffektivt?

Då visas det som att kortet "underpresterar" i sin helhet men att det egentligen en "modul" i pipelinen som flaskar internt i kortet medan de andra modulerna väntar?

På dessa "låga upplösningstester" så är det tänkt att GPU:n inte ska flaska men man ser ju att CPU:n heller inte flaskar :/
"Vem var det som flaska" (vem var det som kasta) kan man tänka sig

Är jag helt ute och cyklar tro?

Visst kan det vara andra saker som blir den limiterande faktorn, till ex minnesbandbredd/latency eller pci-e throughput osv. Om man observerar samma antal frames på ett stort antal processorer kan man börja misstänka att grafikkortet agerar flaskhals. Min egna högst personliga uppfattning är att så länge ingen gpu flaskning sker så vill du ha högsta möjliga inställningar och upplösning i spelen med betoning på inställningarna, detta kommer stressa alla delar i kedjan som allra mest. Att sitta och fisa runt i 720p/very low med gpu belastning på <25% fyller precis ingen funktion alls, hade gpu belastning legat på 80% snitt med toppar på 90% så då hade det varit en betydligt bättre belastning för hela systemet. Det beror i slutän på hårdvara man använder och spel man testar.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

@AMD-FX: Tänkte fråga hur det går för dig med minnesklockning? Har du klockat dem alls? Jag verkar ha mer tur än de flesta testare. 3400+ är inget problem att köra för mig (vilket får mig att bli misstänksam hehe).

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem

Funderar allt mer på Ryzen 1700 jämfört med 1800X, bl.a. tack vare

http://www.gamersnexus.net/hwreviews/2827-amd-r7-1700-review-...

Här är en tydlig fördel för Ryzen jämfört med alternativen.

AMD Ryzen 1700 är drygt fem gånger snabbare i vissa fall än Intel Core i7-7700.

De skriver

Citat:

If you’re doing zero production, you’re not doing any content creation, then you’re still generally getting a better deal with an i5 or i7 CPU. For folks who are combining content creation (similar to what we do) with gaming, or may be considering streaming, the R7 1700 is actually a viable chip – and far more so than the 1800X.

vilket låter rimligt för mig.

EDIT: Kolla hans minnesfrekvenser, 2933 MHz.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem

Fattar inte varför ja köpte en 1800x istället för 1700. Det är 1500kr dyrare föe samma prestanda

Skickades från m.sweclockers.com

Visa signatur

Ryzen 7800X3D
32GB DDR5
RX 7900XT

Permalänk
Medlem
Skrivet av Yoshman:

Har också haft helt rätt om vilka typer av program som Ryzen kommer vara starkare i och vilka den kommer vara svagare i, har däremot aldrig kunna säga exakta magnituden på skillnaderna utan tester (bara gissat). Så endera extremt tur eller kanske så ger >25 års erfarenhet av att skriva optimerad programvara, varav ~15 är för SMP-system, bidrar till en viss magkänsla kring sådant.

Jag tror alla relevanta forum och medlemmar gick varma och bet naglar för att ta reda på allt om Zen med högsta möjliga precision. Det är mycket information som fortfarande inte framgick i Zen arkitekturen, och då blir det väldigt svårt att programmera sig till det. Bara en sådan detalj som vilken latens en flyttalsoperation har eller hur aggressiv branch prediction/buffer är, cache koherens protokoll, intern latens på mellan olika moduler osv. Det är enkelt att dra simpla slutsatser om backend i en CPU som man tidigt kunde göra, men det var definitivt specifika delar av frontend som var mer i dunklet gällande Zen, så här får man lägga ner lite mer jobb då det finns kapacitet i backend så det räcker och blir över såvida vi inte snackar om specifika AVX operationer.

Citat:

Jag är hyfsat införstådd med vad som är möjligt att fixa i t.ex. UEFI, vad som är möjligt att göra kring synkronisering i applikationer som inte är "embarrassingly parallel" och rent generellt var gränserna brukar ligga. Kan absolut gissa fel här i specifika fall, ibland missbedömer man vad som vad som egentligen var den största flaskhalsen.

Länken @Ratatosk postade ovan, den till Legit Reviews nämner bl.a. en sak jag, utan större framgång, försökt pekat på tidigare.

"Applications like Blender, Lightroom, and video transcoding doesn’t use any no or very little CCX communication. 7-Zip (real world compression of mixed data) and games do, so this might be a weak point for Ryzen."

Så Ryzen är svag i 7-zip och spel för att det är dålig interconnect mellan CCX? Knappast. Här har du 7-zip och testat i enkeltrådat också samt MT som visar god prestanda i heltal för sin frekvens:

Betänk också att 7-zip är extremt latens och bandbreddsintensivt som all kompression, så Zen gör sig väldigt bra där med fler trådar i testet i förhållande till Intel HEDT. ~8-9% efter KBL i samma frekvens med tveksam bios/minnesinställningar/OS setup.

CCX-CCX har nödvändigtvis inte så hög bandbredd, då fabric går på samma klockdomän som IMC i Zen vilket påminns av bandbredden här också, dock låg latens. Skulle det vara några problem här så hade man inte sett den utmärkta skalning som Zen uppvisar i tung MT och SMT scenarion, och ännu mindre i ett test som 7-zip som sätter enorm thoughtput på allt. Dom flesta har stirrat sig blinda på resultaten från AIDA64 som inte mäter korrekt. L1 och L2 har visat korrekt latens, dock inte rätt bandbredd då den är ännu högre på Ryzen. Latensen på L3 har visat helt åt h*lvete fel, och det påverkar ju givetvis också latens till RAM. Finns dock risk för att latens till RAM inte ändras för det, men då är det fortfarande normalt för den arkitekturen och den typen av cachehierarki som verkar fungera bra då i alla fall jag inte misstänker att det är en primär flaskhals hos Zen. AMD har gjort ett sju jäkla jobb med cachen i Zen. Gör ett nytt test när en ny version av AIDA64 kommer ut så får du se på siffrorna. Sen gör Legitreviews det klassiska som dom andra enklare redaktionerna också gör, dvs drar förhastade slutsatser.

Citat:

Att latens skulle bli hög mellan CCX har varit uppenbart ända sedan man först visa mikroarkitekturen. Exakt HUR hög var omöjligt att säga innan AMD talade om hur kommunikation faktisk sker mellan CCX. Nu vet vi att det är väldigt snarlikt hur de två Jaguar-klustren (och även hur de två dual-core blocken i C2Q) kommunicerar, d.v.s via RAM vilket betyder latens runt 150-200 cykler.

AMD har specifikt också sagt att kommunikation mellan CCX sker ondie, så att RAM skulle vara en total LLC håller jag inte med om. Zen är extremt skalbar, och modulär, men fortfarande ingen MCM. Vänta bara tills den kommer till större servers/HPC i form av Naples. Hade Zen varit svag så hade den aldrig kunnat prestera så starkt i såpass känsliga miljöer som här:

http://www.tomshardware.com/reviews/amd-ryzen-7-1800x-cpu,495...

Tyvärr så är en del av programmen inte uppdaterade för Zen än men dom flesta fungerar och några av dom är 8 trådade eller bara Intel-opt. Det finns enormt kapacitet i Zen och SMT implementationen är brutal.

Citat:

Fördelen med splittad L3$ mellan CCX är att applikationer som INTE kommunicerar mellan kärnor får i praktiken dubbelt så hög L3$ latens som de skulle med en monolitisk L3$ för alla åtta kärnor. Ovanpå det betyder icke-inkluderande L2$+L3$ att effektiva cache-storleken blir större. Detta gynnar program som Blender, kompilering m.m.

Nackdelarna med cache-designen är väldigt hög kommunikationslatens mellan kärnor samt högre latens vid cache-accesser som inte kan förutsägas (det senare är främst en effekt av att L2$ är större än Intels L2$).

Visst finns det för och nackdelar, men detta har jag tagit upp förut med argumentet, att olika arkitekturer har olika strukturer för att gynna dess design så kompromisslöst som möjligt. L2 cachen i Zendesignen gör ett hästjobb, och likaså L3 cachen. Det är en mycket lyckad implementation.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Datavetare
Skrivet av Enigma:

Jag tror alla relevanta forum och medlemmar gick varma och bet naglar för att ta reda på allt om Zen med högsta möjliga precision. Det är mycket information som fortfarande inte framgick i Zen arkitekturen, och då blir det väldigt svårt att programmera sig till det. Bara en sådan detalj som vilken latens en flyttalsoperation har eller hur aggressiv branch prediction/buffer är, cache koherens protokoll, intern latens på mellan olika moduler osv. Det är enkelt att dra simpla slutsatser om backend i en CPU som man tidigt kunde göra, men det var definitivt specifika delar av frontend som var mer i dunklet gällande Zen, så här får man lägga ner lite mer jobb då det finns kapacitet i backend så det räcker och blir över såvida vi inte snackar om specifika AVX operationer.

Så Ryzen är svag i 7-zip och spel för att det är dålig interconnect mellan CCX? Knappast. Här har du 7-zip och testat i enkeltrådat också som visar god prestanda i heltal för sin frekvens:

https://www.pcper.com/files/imagecache/article_max_width/review/2017-02-27/7zip.png

Betänk också att 7-zip är extremt latens och bandbreddsintensivt, så Zen gör sig väldigt bra där med fler trådar i testet i förhållande till Intel.

CCX-CCX har nödvändigtvis inte så hög bandbredd, då fabric går på samma klockdomän som IMC i Zen vilket påminns av bandbredden här också, dock låg latens. Skulle det vara några problem här så hade man inte sett den utmärkta skalning som Zen uppvisar i tung MT och SMT scenarion, och ännu mindre i ett test som 7-zip som sätter enorm thoughtput på allt. Dom flesta har stirrat sig blinda på resultaten från AIDA64 som inte mäter korrekt. L1 och L2 har visat korrekt latens, dock inte rätt bandbredd då den är ännu högre på Ryzen. Latensen på L3 har visat helt åt h*lvete fel, och det påverkar ju givetvis också latens till RAM. Finns dock risk för att latens till RAM inte ändras för det, men då är det fortfarande normalt för den arkitekturen och den typen av cachehierarki som verkar fungera bra då i alla fall jag inte misstänker att det är en primär flaskhals hos Zen. AMD har gjort ett sju jäkla jobb med cachen i Zen. Gör ett nytt test när en ny version av AIDA64 kommer ut så får du se på siffrorna.

AMD har specifikt också sagt att kommunikation mellan CCX sker ondie, så att RAM skulle vara en total LLC håller jag inte med om.

Visst finns det för och nackdelar, men detta har jag tagit upp förut med argumentet, att olika arkitekturer har olika strukturer för att gynna dess design så kompromisslöst som möjligt. L2 cachen i Zendesignen gör ett hästjobb, och likaså L3 cachen. Det är en mycket lyckad implementation.

Kör man främst program som skalar perfekt med CPU-kärnor har Ryzen en riktigt bra cache-design. Kör man främst program som är multitrådade men inte "embarrassingly parallel" så är Intels design bättre. Spel och de flesta multitrådade desktop-program tillhör den senare kategorin, just deal with it.

Latens CCX-CCX är hög, i alla fall om det AMD själva säger om hur saker fungerar stämmer. Men kanske finns andra som förstår detta mer ingående än AMD? Latensen är hög då enda kommunikationskanal som finns är att alla minnesoperationer som missar CPU-cache går parallellt till RAM och den andra CCX:en, latens dikteras av det svar som tar längst tid. Av vad som sades på GDC finns inga andra sätt att kommunicera mellan CCX. Detta begränsar också bandbredd till samma bandbredd som man har på en minneskanal, d.v.s. 22 GB/s med DDR4 2667 MT.

7-zip är absolut något som också beror av bandbredd. Programmet har också ett accessmönster som är väldigt lätt att förutsäga något som gynnar Ryzen då den verkar lägga ut prefetch tidigare än Core (rimligt tolkning från Legit Reviews cache-mätningar).

Men kolla hur 7-zip skalar med ökande antal kärnor:
isofrekvens 1 kärna, Zen > Haswell

isofrekvens 4 kärnor utan SMT, Zen < Haswell
Detta är fallet som är mest känsligt för kommunikationslatens, en stor fördel med SMT är att det kan till viss del dölja latens

isofrekvens 4 kärnor med SMT, Zen < Haswell

Sista steget är lite intressant. En nackdel med SMT är att den effektiva cache-storleken per CPU-tråd halveras i praktiken när två trådar ska samsas om cache. En gissning till varför Haswell (är en i7-5960X) drar ifrån både Ryzen och Kaby Lake här är bandbredd mot RAM.

Slutligen, resultat när R7-1800X, i7-5960X och i7-7700K alla kör på sina nominella frekvenser med alla CPU-trådar aktiverade. Just denna ser lite väl dyster ut för Ryzen jämfört med andra mätningar jag sett.

Resultatet du postar för 7-zip diffar en del jämfört med det ovan som kommer från Ryzen: strictly technical. Det diffar också, till Ryzens fördel, jämfört med resultatet SweClockers fick

Och till det TechReport gjorde

Men de är säker båda fel... Allt för många AMD-anhängare (varför är man anhängare till ett företag, fotbollsklubb kan jag förstå trotts noll intresse för sporten, men ser liksom inte hur man kan vurma för ett specifik företag) i denna tråd verkar köra algoritmen: det resultat som ger bäst relativt resultat för Ryzen är rätt, resten är antagligen skrivna av mutade personer.

Håller med om att Ryzen är väldigt lyckad. Men som precis alla andra designer finns det sidor som är starkare och sidor som är svagare, där vet jag inte om du håller med för låter väldigt mycket som allt är über med Ryzen i din värld.

Jag kanske å andra sidan låter väl negativ. Beror i så fall främst på två saker

  • det som skrivs i allt för många AMD-positiva inlägg är allt för ofta väl onyanserat, tekniknörden i mig går då in som moderator vilket då blir att även peka på de negativa delarna

  • jag råkar vara väldigt intresserad just av multicore programmering där man måste synkronisera mellan CPU-kärnor, tycker de mest intressanta problem ligger i denna zon. Detta är tyvärr en av Ryzens svaga punkter.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Sisyfos:

Jag har sagt det förr och jag lär väl få säga det 1000 gånger igen i diskussionen om Ryzen, men för mig så räcker till exempel inte 60FPS i ett FPS-spel.
Jag vill väldigt gärna ha en minimum på 120FPS.

Hänvisar till ett tidigare inlägg: #16701319

Jo jag förstår att ni som spelar på 120Hz och upp hittar relevans i 720p medium testerna, men det är ju inte så att Sweclockers kör genom 5 speltester på 3 CPUer för den promille användare som spelar 120+ Hz. När jag läser Sweclockers test uppfattar jag det som att 720p medium speltesterna ska representera en generell spelprestanda över tid. Och det verkar ju inte stämma. Finns det tvivel kring en testmetod måste den utvärderas.

Sweclockers skriver:

Citat:

För speltesterna används ett Nvidia Geforce GTX 1080 med temperaturmål och strömbudget uppvridet, vilket med grafikkortets dynamiska klockfrekvenser säkerställer tillräckligt jämn prestanda. Upplösningen är dels 1 920 x 1 080 pixlar med höga inställningar, dels lägre upplösning och inställningar för att verkligen låta processorerna sträcka på benen.

Vet vi att processorerna "sträcker på benen" i 720p medium? Det finns ju ingen data som visar CPU last.
Vi antar att svaret på ovan är ja. Processorerna jobbar som f*n. Vad betyder det? Vilken slutsats ska vi dra av det? Mer än att det är bra för 120+ Hz gamers.

/Knight

EDIT: Jag vill vara noga med att detta handlar om huruvida testmetoden är bra eller inte. Jag försöker inte påstå att 1700 skulle vara en bättre spelprocessor än 7700K.

Visa signatur

Idag kom Athlon64

Permalänk
Datavetare

@Enigma: angående prestanda du länkar till Toms Hardware test av HCP. Du inser att HCP laster typiskt skalar nära nog perfekt till hundratals, ibland tusentals, kärnor. Det över NUMA-gränser och allt möjligt.

Är inte det då ett extremt tydligt typfall på något som INTE ALLS beror av core-to-core kommunikation? Så vad du länkar till är ett test som visar att utan core-to-core kommunikation, d.v.s. ännu ett fall som är "embarrassingly parallel", så fungerar Zens cache-design ypperligt.

Tja, det är ju exakt det jag sagt hela tiden!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

Ett sätt är ju helt enkelt att dra ned till Low men att bibehålla upplösningen, ett Titan som puttrar på i low bör också bergränsas av CPU:n.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Enigma:

Ljudkortet beror på vilken ASIC som sitter på moderkortet, men AM4 är officiellt stödd av AMD och bekräftas här:

http://support.amd.com/en-us/download/chipset?os=Windows%2010...

Description:
Supports Windows 10/8.1/ 7 (64​-bit)

Package Includes:
AMD Chipset Drivers
AMD AHCI Driver
AMD USB 3.0 Driver
​ AMD SB9xx RAID Drivers for Windows 7
AMD A-Series APU Chipset RAID Drivers
AMD E-Series APU Chipset RAID Drivers​​​

Sa inte amd att dom inte stödde win7? Fast det kanske bara gäller cpun och inte moderkortets drivare? Tänkt köra 7an och fått för mig att jag kommer få köra fulhack för att få det att gå

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.