Test: Ryzen 9 3900X och Core i9-9900K i överklockat läge

Permalänk
Medlem
Skrivet av VadSaDu:

Ursäkta men jag har inte hängt med 100%

Så med Zen2 ska man helst ha 3600MHZ RAM?

Eller räcker det med 3200MHZ RAM?

3600mhz ram för max effekt på IF då den busen skalar med ram upp till 3600mhz

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Hur kommer det sig att OC Ryzen 3600 minnen, klappar ihop totalt i Battlefield V i 1800p?

Får ju storstryk av långsamma minnen och oclockad?

Permalänk
Medlem

Det var ju ändå skillnad när det testades i 720p.
Skulle vi se samma procentuella skillnad mellan 9900k och 3900x i 1080p/1440p med 2st 2080ti?
Vill se skillnaden med 2st 2080ti.
Vill även se samma test fast med Radeon VII eller Radeon 5700XT.

Permalänk
Medlem
Skrivet av VadSaDu:

Ursäkta men jag har inte hängt med 100%

Så med Zen2 ska man helst ha 3600MHZ RAM?

Eller räcker det med 3200MHZ RAM?

Beror på prisklass men 3200 till 3600 skalar hyfsat bra så man tar det som är mest värt för pengarna vid köp.
Ibland är det inte mycket extra för att gå från 3200 till 3600 men ibland kan det skilja väl över 1000 spänn.
3200 rullar jättebra men finns några % att tjäna på att gå upp lite till

Visa signatur

Speldator: Ryzen 5800x3d | Asus B550m TUF Gaming Wi-Fi | G.Skill TridentZ Neo 2x16GB 3600MHz CL16 (hynix djr) | In Win 301 | Scythe Fuma 2 I Asus RTX 3070 Dual OC | Seasonic GX750 | Lots of unicorn vomit Laptop: Thinkpad E14 G2 4700U Kringutrustning: Cooler master Quickfire TK MX-Brown | Sennheiser HD598cs | Sony WH1000XM3 | Logitech G900 | ASUS PB278QR | Rift CV1 | Audio Pro Addon T14

Permalänk
Medlem
Skrivet av Ryzer:

Hur kommer det sig att OC Ryzen 3600 minnen, klappar ihop totalt i Battlefield V i 1800p?

Får ju storstryk av långsamma minnen och oclockad?

Kan IF av en händelse halkat ner på 1:2 i just det testet? Verkar ju tydligen vara oklart över 3533MHz hur väl den håller 1:1. Är man osäker går den att låsa vid en fast frekvens i bios, jag har ingen Ryzen 3000 så jag kan inte säga exakt hur det ser ut i bios men jag har sett detta nämnas i andra forum.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Annars tycker jag det var bra att publicera detta, precis som alla säger är Intel fortfarande lite snabbare i spel. För den som bara spelar 144Hz fps spel så är Intel fortfarande bästa valet. För mig som gör en rad olika saker på datorn anser jag Ryzen är det bästa valet. Båda plattformarna presterar grymt bra så grattis till vad ni än kör

(Om jag skulle bli fps-biten kan jag damma av min gamla 6700K som gör 4.8GHz stabilt på sin Maximus VIII Hero. I spel med lika med eller färre än 8 trådar är den bara 300MHz bakom en överklockad 9900K, eftersom det är samma arkitektur. 6700K har tom lite lägre latenser än 7700K och senare. Men just nu ligger den på en hylla i ett skåp ...)

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Avstängd

Fattar inget, 3600MHz från vad?

"Testsystemen som används finns beskrivet i testet för AMD Ryzen 9 3900X" Men där listas flera olika frekvenser.

Visa signatur

[I7 9700k] [Asus rog strix z390-f gaming] [2x8GB DDR4 3200MHz CL14 Flare X] [Msi rtx 2070 super gaming x trio] [Corsair RM850X 850W v2] [Samsung 970 EVO Plus 500GB
] [Noctua nh-d14] [Asus Xonar Essence STX] [fractal design define s] [Windows 10 pro x64]

Permalänk
Medlem

@VadSaDu: 3600cl15 eller 3200cl14 är väl det bästa du kan nå utan överklock.
@robalm: Sweclockers kör intel med 2666mhz och ryzen 3200 stock så det blir lite missvisande.

Visa signatur

PG279Q | 6XX | X-Fi Titanium HD | RTX 2080 | 5800X3D
G.Skill 3200 CL14 | B450-F | 970 EVO | Seasonic 750W | Fractal R5

Permalänk
Medlem
Skrivet av NorthLight:

Sån stor skillnad, så nya Ryzen var överhypad som det oftast är. Intel krossar ju dem. Undra hur en 9700K står sig mot bästa Rysen.
Väntar bara på pricedropen sen gäller ett 9700K för mig. Perfekt så jag kan köra med samma mobo och minnen

Läste du precis samma test som jag?
Detta är väl precis i enighet med det tidigare mer utförliga testet? Ryzen vinner i princip allt förutom spelprestanda, där det är en marginell skillnad i de upplösningar som faktiskt betyder något. Finns ju ingen vettig människa som spelar i 720p i dagens Sverige. Men sen finns det ju många som gör annat än att spela CS och Battlefield där Ryzen enligt testerna verkar ha ett stort övertag, vid t.ex. rendering.

Jag tror inte alls att det är överhypeat, kanske om du bara intresserar dig för spel, men hade du tänkt dig göra något annat med datorn så är nog Ryzen ett säkert kort.

Skickades från m.sweclockers.com

Visa signatur

Ghost Louqe S1 -- X570 I AORUS PRO -- AMD Ryzen 7 3700X
NH-L12S Fläktmod -- Corsair Vengeance PRO 32GB 3200 MHz CL16
MSI RTX 2070 Super Ventus -- Corsair SF600
Corsair Force MP510 960GB M.2 -- WD Black SN750 NVMe 1TB M.2

Permalänk
Medlem

Tack för publikfrieriet! Nu saknar vi bara några CPU-intensiva spel som Civ och factorio, kanske något benchmarkpaket typ userbench eller geekbench (har ingen koll vilka som är bra men skulle vilja se lite blandade laster). FPS känns så GPU-bundna.

Permalänk
Inaktiv
Skrivet av vinylens:

300 watt som ska kylas på 9900K är väl inte så många kylare som klarar det i längden?

@vinylens

Ska du montera kylaren på vägguttaget då?
Det står vad hela systemet drar vid vägguttaget 😂

Permalänk
Datavetare
Skrivet av LeJoke:

Läste du precis samma test som jag?
Detta är väl precis i enighet med det tidigare mer utförliga testet? Ryzen vinner i princip allt förutom spelprestanda, där det är en marginell skillnad i de upplösningar som faktiskt betyder något. Finns ju ingen vettig människa som spelar i 720p i dagens Sverige. Men sen finns det ju många som gör annat än att spela CS och Battlefield där Ryzen enligt testerna verkar ha ett stort övertag, vid t.ex. rendering.

Jag tror inte alls att det är överhypeat, kanske om du bara intresserar dig för spel, men hade du tänkt dig göra något annat med datorn så är nog Ryzen ett säkert kort.

Skickades från m.sweclockers.com

Även i 1920x1080 är det 10 % fördel för 9900K i lägsta FPS, det är 23 % resp 40 % fördel i 1280x720. Är något av dessa upplösningar relevant för någon som köpt 2080Ti? Antagligen inte.

Men notera att dessa tester visar att det är antagligen möjligt att nå 144 Hz lägsta FPS, definitivt möjligt att nå det i genomsnitt. Något som betyder att det även är möjligt i 2560x1440 om man inte prompt kör på "Ultra". Grabben har ett 2070 kort och 2560x1440 skärm. Allt fler spel blir begränsade av CPU då han prioriterar högre FPS (skärmen klarar 165 Hz) mer än att köra på maxinställningar.

Vidare kan man avfärda CPU som speciellt relevant i renderingstesterna av två skäl. Har bara jobbat ett tiotal timmar i Blender, men spenderade >90 % av tiden i modellering och generering av effekter som skalar uruselt med CPU-kärnor. Vidare går rendering på GPU idag klart snabbare än på CPU, detta är vad jag uppmätte på Blender 2.80 beta i vintras (2.80 borde släppas när som helst, väldigt mycket fokus har där legat på nytt UI samt GPU-rendering).

Föredrar att längre staplar är bättre, så notera att detta visar scener renderade per timme. Inte tid per scen. Värt att påpeka är också att Blender är inte kapabel till att utnyttja RT-kärnorna i RTX-serien, de renderingsprogram som gör det ser 3-5 gånger högre prestanda (varierar beroende på scen och därmed primär flaskhals).

Det skrivet, håller ändå med om att Ryzen 3000 är ett tekniskt sett likvärdigt eller bättre val jämfört med Coffee Lake för det mesta utanför spelande! Spelar i princip inte alls längre, kommer bli en 3900X som arbetshäst till jobbet (programutveckling).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Ryzer:

Oj, 9900k är verkligen ett monster. Eldar upp 3900x.

Jo det brinner verkligen om 9900k i OC.

Skrivet av Yoshman:

Även i 1920x1080 är det 10 % fördel för 9900K i lägsta FPS, det är 23 % resp 40 % fördel i 1280x720. Är något av dessa upplösningar relevant för någon som köpt 2080Ti? Antagligen inte.

Men notera att dessa tester visar att det är antagligen möjligt att nå 144 Hz lägsta FPS, definitivt möjligt att nå det i genomsnitt. Något som betyder att det även är möjligt i 2560x1440 om man inte prompt kör på "Ultra". Grabben har ett 2070 kort och 2560x1440 skärm. Allt fler spel blir begränsade av CPU då han prioriterar högre FPS (skärmen klarar 165 Hz) mer än att köra på maxinställningar.

Vidare kan man avfärda CPU som speciellt relevant i renderingstesterna av två skäl. Har bara jobbat ett tiotal timmar i Blender, men spenderade >90 % av tiden i modellering och generering av effekter som skalar uruselt med CPU-kärnor. Vidare går rendering på GPU idag klart snabbare än på CPU, detta är vad jag uppmätte på Blender 2.80 beta i vintras (2.80 borde släppas när som helst, väldigt mycket fokus har där legat på nytt UI samt GPU-rendering).

Föredrar att längre staplar är bättre, så notera att detta visar scener renderade per timme. Inte tid per scen. Värt att påpeka är också att Blender är inte kapabel till att utnyttja RT-kärnorna i RTX-serien, de renderingsprogram som gör det ser 3-5 gånger högre prestanda (varierar beroende på scen och därmed primär flaskhals).
https://cdn.sweclockers.com/artikel/diagram/16503?key=21aba4026136b4076a60b0a0f6df1114

Det skrivet, håller ändå med om att Ryzen 3000 är ett tekniskt sett likvärdigt eller bättre val jämfört med Coffee Lake för det mesta utanför spelande! Spelar i princip inte alls längre, kommer bli en 3900X som arbetshäst till jobbet (programutveckling).

Blir det inte en 3950X som istället? Den lär ju sopa mattan med allt annat i HEDT segmentet.

Ja en Quad core räcker ju för gaming eller hur?

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem

Skulle vara intressant och se den mot i9 9920x osv och se hur det utv sig

Visa signatur

If it can't run Crisys its a calculater

The New Build The Torrent 2,0

Permalänk
Medlem
Skrivet av Yoshman:

Är just det som 90-percentilen visar. Inte enskild dipp utan ett (av flera möjliga) mått på "lägsta nivå".

Jo, men det gäller att hålla tungan rätt i mun om vad man mäter och hur man visar upp det. Jag anser att en vanlig miss är att man mäter i dimensionen av antalet frames istället för total tid spenderad för en frametid.

Ska försöka ge ett exempel.

Du har två system; System A med 100fps och system B med 200fps.
Fördelar vi efter 95e percentilen av frametimes kommer vi få de sämsta 5 från system A och de sämsta 10 från system B.

Om det är så att mjukvaran orsakar en dipp i prestanda (genom dålig kod, inte hårdvara) och den dippen alltid ger 5 frames på 30ms får vi problem med denna typ av mätning.

System A kommer nämligen bara visa upp programvarans dipp av 5 usla frames i 95e percentilen, medan system B visar upp 5 friska hårdvarubegränsade frames och 5 mjukvarudrabbade frames. Detta får system A att se sämre ut på en fördelningskurva, utan att vara det. Det kommer se ut som att "hockeyklubban" i grafen sticker i väg uppåt tidigare. Eller med andra ord; för någon som spelar låst till 60fps kommer system B se mycket bättre ut, även om det inte alls behöver vara så.

Om vi istället tar med tid som en dimension, genom att summera den totala tid som ett system lägger på varje frametime. Kan vi istället göra en fördelning som visar hur mycket tid systemen lägger på att vara undermåliga. För exemplets skull kan vi säga att vårt test är 3 sekunder långt och vi är intresserade av 95e percentilen av dåliga frametimes. 95e percentilen blir således våra 5st 30ms frames, totalt 150ms. Alltså kommer båda systemen visa upp samma resultat, för de hade en lika lång framedip och den var lika låg. Vi har nu justerat för det faktum att de båda systemen genererar olika mängd frames, genom att istället fokusera på hur lång tid som användaren är drabbad.

Men, hur mycket absolut tid (150ms i vårt exempel) en användare drabbas är inte heller intressant. Det är andelen tid med låg prestanda som spelar roll. I vårt fall är det 5% av testets tid som har väldigt låga frametider. Det går lätt att göra om till något greppbart, som exempelvis 3 sekunder av dippar per minut. Att ha 3 sekunder framedipp per minut är definitivt en trist upplevelse, medan det absoluta talet "150ms" säger väldigt lite om vad man kan förvänta sig för upplevelse.

Eller för att förklara på ett annat sätt det är helt ointressant om 99.9% av dina frames är 60fps i fall resterande 0.1% frames tar 1 sekund styck att rendera. En sån fördelning skulle innebära drygt 3 sekunder av totalt framedropp per minut. Horribelt! Jämför istället mot om vi mäter med tid. Att veta att 99.9% av testets tid spenderas över 60fps innebär nämligen 3.6 sekunder framedipp per timma spelad eller 0.06 sekunder per minut.

Skrivet av Yoshman:

Bäst täckning på det du frågar efter har väl TechReport.

Ja, de är väl närmst vad jag vill ha, tyvärr anser jag att de missar målet.

Skrivet av Yoshman:

Där hittar du hur ofta systemet t.ex. inte håller 144 Hz

Här beskriver de absolut tid spenderad under en viss framerate. Vi kan alltså se i absoluta värden vilket system som är bäst, men det går inte att dra någon slutsats om hur stort problemet faktiskt är utan att få det i förhållande till testets längd. Är de 24.6 sekunder som Ryzen 1800x inte kan leverera 6.94ms 100% av testtiden eller 5% av testtiden?
För någon som vill spela hitman, hur lång tid kan de räkna med att spendera över 6.94ms per spelad timme?

Skrivet av Yoshman:

Fördelning av percentiler

Här tittar de på fördelningen av frames, inte efter frametid. Man får alltså det problem jag beskrev ovan, där dippar ser ut att få en större konsekvens för system som renderar färre frames, eftersom dipparna då blir en större andel av totalt antal frames renderade. Inte önskvärt.
Att grafen visas från 50% - 100% gör den också väldigt svårläst, då det faktiskt först är mellan 95 och 100% som saker börjar hända.

Jag passar på att slänga in det sista jag anser vara ett problem med att visa upp frames.

Här plottar techreport frametider. Jag hade velat ha testets tid på X-axeln, men istället visar de framenummer. Detta gör det mycket svårare att jämföra flera system i samma graf, eftersom vi inte kan se när i testet som dipparna sker. Istället får vi försöka bilda oss en uppfattning med varje system för sig. Med tanke på upplösningen som vi plottar i hade jag nog föredragit att ha en jämförelse med sekunder på X-axeln och visa upp maximal frametid varje sekund på Y-axeln. Men visst, tjockleken på banden visar så klart en spridning och det kan vara intressant i sig.

Jag hade gärna lekt med rådata och sett om det gick att läsa ut något spännande från den som inte framgår helt enkelt annars.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem
Skrivet av ClintBeastwood:

I 720p är det en del fps i skillnad men i 1080p är det jämnare än vad jag trodde även vid överklock.
Tack för testet!
Skickades från m.sweclockers.com

Att de är jämt vid 1080 visar att prollarna maxar ut ett 2080ti. Den dagen de kommer vassare kort än 2080ti kommer de märkas mycket mer till 9900k fördel vid 1080

Permalänk
Medlem
Skrivet av Ryzer:

Oj, 9900k är verkligen ett monster. Eldar upp 3900x.

Skrivet av norzma:

Grym effekt på 9900k alltså

Ja snacka om åka med! För att inte snacka hur framtidsäker den är.

Permalänk
Medlem
Skrivet av marcusOCZ:

Du skojar hoppas jag?

Förövrigt en bra test som många önskade, tack!

Som ni ser så är x570 väldigt effekthungrig som flera andra testare påpekat. Hög belastning är en sak, men faktum är att AMD riggen till slut använder nästan dubbelt så mycket så mycket ström som 9900k när bägge är överklockade som i detta test.

Fast just detta testet visar ju att 9900k drar mer överklockad än en överklockad 3900X...

Skickades från m.sweclockers.com

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem

Kan inte priserna på Intel HEDT krascha nu så jag får tag på en 16/18 utan att köpa nytt moderkort :((

Kom igen Intel, ni har blivit superägda! Mattsopade. Förnedrade.

Skickades från m.sweclockers.com

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Inaktiv

Intel krossar verkligen Ryzen 3000 i dessa två spel. 17% högre prestanda i BFV och hela 31% högre i Total War.
Nu är jag dock ganska säker på att Total War är en outlier men Intel är i runda slängar mellan 15-20% bättre än AMD i ren spelprestanda. Det är ingenting annat än utklassning.
Jag var nästan helt säker på att det skulle bli Ryzen 3000 för mig, men det stora övertag Intel fortfarande har gör mig osäker.

Däremot så har Intel hamnat på efterkälken vad gäller strömförbrukning/värmeutveckling. 9900K är notoriskt varm.

Permalänk
Medlem
Skrivet av sweisdapro:

Fast just detta testet visar ju att 9900k drar mer överklockad än en överklockad 3900X...

Skickades från m.sweclockers.com

Du gick rätt på den. Hint. Se idle.

50w i skillnad i load är ingenting mot 35w skillad i idle i det långa loppet.

Tvärtom visar detta test att x570 har kraftiga brister tills dess det kommer nya bios.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Avstängd

Är säkerhets patcherna emot Spectre och meltdown och alla nya säkerhetsbrister implementerande ?

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av marcusOCZ:

Du gick rätt på den. Hint. Se idle.

50w i skillnad i load är ingenting mot 35w skillad i idle i det långa loppet.

Tvärtom visar detta test att x570 har kraftiga brister tills dess det kommer nya bios.

Tänker du i form av kostnad för användaren eller?
Om man då tänker att man använder processorn för rendering eller liknande så kommer ju Ryzen spendera kortare tid i load för att utföra samma arbete, och alltså kosta mindre, samt dra mindre.
Hade gärna sett en "effekt under spel" då testet var väldigt spelinriktat.

Skickades från m.sweclockers.com

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av _Merc_:

Är säkerhets patcherna emot Spectre och meltdown och alla nya säkerhetsbrister implementerande ?

Ja det var väl något de var tydliga med att de ville ha med. Så det antar jag att de har med.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av sweisdapro:

Tänker du i form av kostnad för användaren eller?
Om man då tänker att man använder processorn för rendering eller liknande så kommer ju Ryzen spendera kortare tid i load för att utföra samma arbete, och alltså kosta mindre, samt dra mindre.
Hade gärna sett en "effekt under spel" då testet var väldigt spelinriktat.

Skickades från m.sweclockers.com

Du skrev det ju själv: "drar mer överklockad"

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av sniglom:

Jag hade gärna lekt med rådata och sett om det gick att läsa ut något spännande från den som inte framgår helt enkelt annars.

Samma här.

Tillhör inte de som anser att all information skall vara fri, och Sweclockers/Geeks AB tycker nog att det är proprietär information (vilket, som sagt, är deras rätt), men det hade varit kul om de har tex skapat ett github-konto och lagt upp all rådata. Men tror inte att de är någon av de större som gör något sådant.

Permalänk
Medlem
Skrivet av sniglom:

Helt riktigt, testerna har uppdaterats sen jag tittade på dem.
Här kommer nya resultaten. ** avser gamla resultat.

I GTA blir skillnaden i 95e percentilen +0.1fps för 3900x och +1fps för 3700x. Fortfarande sämre resultat än 1800x och 2700x. Hade varit väldigt intressant att se hela fördelningen, för det ser ut som 2700x ger en bättre upplevelse i GTA, även om snittet är lägre.
https://i.imgur.com/UT3AHM7.png
I Ashes ökar 3900x med +1.2fps. medan 3700x minskar med -2fps. Intressant är det påtagliga gap som finns mellan 1920x och 3900x.
https://i.imgur.com/6CeJONO.png

Varför kör man ett CPU-test i 1440p med ett sketet 1080?

Permalänk
Medlem
Skrivet av marcusOCZ:

Du skrev det ju själv: "drar mer överklockad"

Ja, 9900k drar mer överklockad, vad är det du menar påverkas signifikant av idel-draw?

Skickades från m.sweclockers.com

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem

Sammanfattning.

Intel är marginellt snabbare i scenarion där det i princip inte har någon betydelse, eftersom både är snabba nog.
AMD är fruktansvärt överlägsna där det verkligen har betydelse.

Dell och liknande måste ju börja sätta AMD i sina desktop-datorer, allt annat vore direkt tjänstefel.
Grattis AMD. Hade jag bytt system idag hade jag tveklöst byggt ett från AMD.

Permalänk
Medlem

Skit i vilken som är bäst, dagen är äntligen här där man kan spela i 1920x1080 utan prestandatapp. Det tog sina modiga år, men nu är vi här.

Ps, jag skrattar åt 4K, det är verkligen femton år för tidigt. Ds.