Intel Core i9-10900K och Core i5-10600K "Comet Lake-S"

Permalänk
Hjälpsam

Lönar sig väldigt lite att överklocka nuförtiden, gäller både för Intel och AMD, dessa 56 sekunder som Intel klarar direkt ur kartong räcker väldigt långt.

i5-10600K kräver nya billigare moderkort innan den blir intressant.
Är tydligen nya på gång, dock med begränsad överklockning, men överklockning ger som sagt väldigt lite.

Där Intel verkligen tappar mot AMD är I/O, där ligger Intel långt efter.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Knotvillage:

”För dig med en 8700K ger ett klockrent lyft.” Spelar man BF5 som ändå fås ses som modernt så skiljer det 5fps, det är ju typ inom felmarginal. Jävligt dyra FPS. Skulle vara kul att maila skribenten och kolla om hen ens läst tester.

https://www.komplett.se/kampanj/113058/intel-comet-lake-proce...

Är väl lite överdrivet det där, 8700K motsvarar 10600K hyfsat väl. Visst, folk som sitter på äldre fyrkärniga eller ännu äldre 6-8-kärniga får nog ett bra lyft dock.

Inte som att 8700K är en dålig CPU direkt, med snabba minnen och lite klock är den rejält bra för spel än idag.

Permalänk
Medlem
Skrivet av Ratatosk:

Lönar sig väldigt lite att överklocka nuförtiden, gäller både för Intel och AMD, dessa 56 sekunder som Intel klarar direkt ur kartong räcker väldigt långt.

i5-10600K kräver nya billigare moderkort innan den blir intressant.
Är tydligen nya på gång, dock med begränsad överklockning, men överklockning ger som sagt väldigt lite.

Där Intel verkligen tappar mot AMD är I/O, där ligger Intel långt efter.

Överklockning, om man nu kan kalla det för det, genom att ändra på hur länge processorn kan gå över 125w ger väldigt mycket extra prestanda. Många moderkort kommer dock utan denna begränsning out-of-the-box. För 10900K t.ex. betyder det att alla kärnor går på 4,9Ghz istället för 4,2.

Visa signatur

Samsung 77" S90C QD-OLED || LG OLED 42C2 || Sony 77" A80J OLED || Macbook Pro 16" M1 Max 1TB 32GB || Asus ROG Azoth med Black Ink V2s (205g0) + Asus ROG Harpe ACE

Permalänk
Hjälpsam
Skrivet av Toss3:

Överklockning, om man nu kan kalla det för det, genom att ändra på hur länge processorn kan gå över 125w ger väldigt mycket extra prestanda. Många moderkort kommer dock utan denna begränsning out-of-the-box. För 10900K t.ex. betyder det att alla kärnor går på 4,9Ghz istället för 4,2.

Det ger mer prestanda om du använder alla kärnorna under en längre tid, vilket är ganska ovanligt.
Prestandan kommer med högre krav på kylning, så gratis är den inte.
Att moderkort slår på överklockning som standard är en styggelse, det få gärna vara lätt att slå på men det skall vara ett aktivt val.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Ratatosk:

Lönar sig väldigt lite att överklocka nuförtiden, gäller både för Intel och AMD, dessa 56 sekunder som Intel klarar direkt ur kartong räcker väldigt långt.

i5-10600K kräver nya billigare moderkort innan den blir intressant.
Är tydligen nya på gång, dock med begränsad överklockning, men överklockning ger som sagt väldigt lite.

Där Intel verkligen tappar mot AMD är I/O, där ligger Intel långt efter.

Generellt håller jag helt med: överklockning är i flera fall numera inte bara meningslöst, det är kontraproduktivt då högre Vcore leder till väsentligt högre värmeutveckling (effekt är kvadratiskt proportionellt mot spänning), vilket i sin tur kan leda till en sämre upplevelse i spel då det kan leda till throttling i de mest krävande fallen.

Men håller inte med om att i5-10600K kräver billigare moderkort. Hade på förhand avfärdat i5-10600K helt och för en dator jag själv skulle använda är den fortfarande avfärdad, men jag spelar överhuvudtaget inte och kör primärt Linux... Just nu står en ny speldator till grabben på menyn, har lite svårt att se varför man inte ska gå med i5-10600K, minst DDR4-3600CL16 (som är helt OK prismässigt) samt ett tillräckligt bra moderkort för att kunna köra 4,8-5,0 GHz all core (med 6C/12T har man fortfarande helt OK värmeutveckling på den modellen).

Med den konfigurationen hamnar man ju i ett läge där även lägsta FPS i princip är helt GPU-bundet, man slår i en vägg även med 2080Ti och 1920x1080 i låga inställningar. Då borde systemet klara nästa GPU-generation och antagligen även generationen efter det helt OK.

För något som enbart ska användas till spel finns ju "risken" att allt vi har idag blir rätt meh något år efter att AMD/Intel får ut sina DDR5 kapabla CPUer. Intel har flera gånger antytt att de har något som är "väsentligt snabbare än idag", gissningen ligger på 7 nm Golden Cove som kan tänkas hitta ut 2022.

En annan orsak att välja i5-10600K är ju om man tror på Rocket Lake. Ska man ändå uppgradera inom ett år igen, varför köpa en snabbare CPU än vad som dagens GPUer ändå inte kan göra något med?

Rent generellt i den här tråden verkar få ha kolla på just hur CPU-beroende lägsta FPS är, det även för betydligt långsammare GPUer än RTX2080Ti. ComputerBase har testat 2080Ti samt även 5700XT, skalningen av lägsta FPS med RAM-hastighet är i det närmaste identisk för dessa två GPUer trots att man testar med 9900K och 3900X!

För genomsnittlig FPS är det större spridning mellan de olika testfallen med 2080Ti (d.v.s. man är primärt CPU-bunden då man testar 720p) medan genomsnittlig FPS har mindre spridning med 5700XT (d.v.s. man är primärt GPU-bunden) ställt mot hur det ser ut för lägsta FPS.

Kort och gott: det är primärt lägsta FPS som CPU påverkar när man kör i "normal" upplösningar, för i de fallen är man klart GPU-bunden största delen av tiden (men inte hela).

SweClockers kör ju sina tester med "ultra" inställningar. 1920x1080 "ultra" är ofta ungefär lika tungdrivet som 2560x1440 "high" eller "medium" (lite beroende på titel). Prestandaindex för 1920x1080

CPU

Prestandaindex genomsnittlig FPS

Prestandaindex lägsta FPS

10900K (DDR4-3600)

106

113

9900K (DDR4-3600)

105

111

10600K (DDR4-3600)

104

104

10600K

100

100

3900X (DDR4-3600)

96

98

3900X

95

97

3700X (DDR4-3600)

95

96

9600K

93

94

8700K

98

94

3600X (DDR4-3600)

94

89

3600

91

85

2700X

85

78

Att 9600K med DDR4-2666 står sig så väl i lägsta FPS är en vink om att 6C/12T knappast lär bli en flaskhals för spel än på ett bra tag. Visst är 10600K dyrare än 3600, men den har också 18 % högre lägsta FPS i 1920x1080 "ultra" över alla titlar som testas. Notera också att 2700X kan nte kompensera sin sämre prestanda per kärna med fler kärnor, den ligger efter både 9600K och 3600X i lägsta FPS.

Lägger man på en 4,8-5,0 all-core boost överklockning ovan, vilket är vad Gamer Nexus gjort (är viktigt att både köra snabbt RAM och överklockning för att få någon vettig effekt på lägsta FPS), är 10600K upp på 10700K/10900K nivån i denna tabell.

Och för den som tycker renderingstesterna på något sätt är relevanta, ens om man ignorerar att GPUer gör detta heltalsfaktorer snabbare än de snabbaste HEDT CPUer. Kolla in dessa två bilder, en är den SweC kör i sitt test den andra använder Intel Open Image Denoise (standardfunktion i Blender 2.81 och senare) och renderad med inställningar så att bilden renderas lika fort på min i7-8665U laptop som på SweClockers 3990X. D.v.s hjärna mot muskler

Gissa vilken som är vilken
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Tycker Digital Foundry gör ett bra jobb med CPU-tester och där ser man ju fördelen som Intel har, även i 1440p. De presenterar ju inte heller bara värden utan man kan se hur olika sektioner av testsekvensen slår olika hårt.

https://www.eurogamer.net/articles/digitalfoundry-2020-intel-...

Permalänk
Datavetare

@JonasT

Angående minneshastigheterna. Som ni gör i detta test är ju (nästan) helt optimalt i min mening. Tidigare har ni ofta bara kör någon enstaka speltitel med snabbare RAM, men här körs ju alla igenom.

Det enda som gör detta till "nästan" är att testerna som nu ska köras med "stock RAM" faktiskt inte är det, utan de körs överklockade. Det som är riktigt illa är att överklockningsnivån ökar med snabbare RAM då ni håller CAS värdet konstant.

Att testa med verklig "stock", d.v.s. JEDEC officiella specifikation har definitivt ett värde. Det är den RAM-hastighet man kommer ha om man väljer att köpa en färdigbyggd dator från t.ex. Dell, HP eller liknande. Kanske inte jättevanligt som spelmaskin, men det finns absolut de som gör detta (finns de på mitt jobb som köper speldatorer till kidsen på det sättet).

För er publik ger ändå tester med RAM körandes JEDEC också en indikation på vad man kan förvänta sig på spellaptops. AMD/Intels H-serie CPUer är på kretsnivå identisk med modellerna som används på skrivbordet. Vidare är det ju samma GPUer, om än typiskt lite lägre klockade. Bärbara datorer kommer i praktiken alltid använda RAM enligt JEDEC.

Om man kör BYO på en arbetsmaskin kan också JEDEC testerna vara relevant. I en spelburk är ju inte stabilitet mer viktigt än: spelen "fungerar", d.v.s. de kraschar inte och man ser inga uppenbara glitchar. Om man primärt använder sin dator för professionellt arbete kanske man föredrar att köra att enligt specifikation, "stabil" har en liten striktare mening här.

Så jag vill gärna se formatet ni kör här vad det gäller testning med RAM, men den ändringen att "stock" verkligen är JEDEC.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Dinkefing:

Är det bara jag som är trött på att folk köper 4000 till 6000 kronors processorer för att spela CS GO eller andra enkla spel med? Att de köper dem för just det endamålet, inte något annat.

Man kanske tänkt att spela de senaste AAA men sen när man väl ska spela så känner man för att spela sitt gamla favoritspel i slutändan ändå. Host host, jag.

Visa signatur

Ghost S1 || Asrock Phantom Gaming Z390 || 9900KF || Corsair 32GB@3400MHz CL16/1.45volt || Intel 660p 1gb || Corsair sf600 || RTX 4070 Inno3d 2x|| Asus PG279QM

Macbook pro 14 M1

Permalänk
Medlem

https://www.youtube.com/watch?v=CukeDUXas1k
I5 10400F nu testat med 2666MHz ram, är den klart bästa spelprocessorn under 2000kr.

Får hoppas de prissätter B460-moderkorten rätt nu.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

@CubaCola:
Den skulle se ännu bättre ut om han körde minnet i 2666mhz cl13 vilka fortfarande är billigt.
Gamers Nexus är ju för roliga.
De jämför AMD R5 3600 med dyra b-dye 3200mhz cl14 mot Intel i5 10400 med tvärgimpade 2666mz cl15 och säger köp den inte!
Jag köper argumentet att man inte bör matcha 10400 med ett dyrt z490 kort och därmed inte kunna köra hög bandbredd på minnena men man kan väl ändå göra rimliga minnesval?
Jämför 10400 med 2666/cl13 mot 3600 med 3200/cl16 istället.

Visa signatur

Ghost S1 || Asrock Phantom Gaming Z390 || 9900KF || Corsair 32GB@3400MHz CL16/1.45volt || Intel 660p 1gb || Corsair sf600 || RTX 4070 Inno3d 2x|| Asus PG279QM

Macbook pro 14 M1

Permalänk
Redaktion
Praktikant ✨
Skrivet av Yoshman:

@JonasT

Angående minneshastigheterna. Som ni gör i detta test är ju (nästan) helt optimalt i min mening. Tidigare har ni ofta bara kör någon enstaka speltitel med snabbare RAM, men här körs ju alla igenom.

Det enda som gör detta till "nästan" är att testerna som nu ska köras med "stock RAM" faktiskt inte är det, utan de körs överklockade. Det som är riktigt illa är att överklockningsnivån ökar med snabbare RAM då ni håller CAS värdet konstant.

Att testa med verklig "stock", d.v.s. JEDEC officiella specifikation har definitivt ett värde. Det är den RAM-hastighet man kommer ha om man väljer att köpa en färdigbyggd dator från t.ex. Dell, HP eller liknande. Kanske inte jättevanligt som spelmaskin, men det finns absolut de som gör detta (finns de på mitt jobb som köper speldatorer till kidsen på det sättet).

För er publik ger ändå tester med RAM körandes JEDEC också en indikation på vad man kan förvänta sig på spellaptops. AMD/Intels H-serie CPUer är på kretsnivå identisk med modellerna som används på skrivbordet. Vidare är det ju samma GPUer, om än typiskt lite lägre klockade. Bärbara datorer kommer i praktiken alltid använda RAM enligt JEDEC.

Om man kör BYO på en arbetsmaskin kan också JEDEC testerna vara relevant. I en spelburk är ju inte stabilitet mer viktigt än: spelen "fungerar", d.v.s. de kraschar inte och man ser inga uppenbara glitchar. Om man primärt använder sin dator för professionellt arbete kanske man föredrar att köra att enligt specifikation, "stabil" har en liten striktare mening här.

Så jag vill gärna se formatet ni kör här vad det gäller testning med RAM, men den ändringen att "stock" verkligen är JEDEC.

Du har helt klart en poäng i det du skriver. Jag och @Kenneth får snacka ihop oss om RAM-biten till nästa omstart av testsviten, vilket rimligtvis borde bli i samband med Zen 3. Ur en tidsmässig aspekt tror jag egentligen mycket på att skala ner antalet referenser (kanske börja på 7700K/1800X och arbeta uppåt) och normalisera minneshastigheten till exempelvis 3 200 MHz för samtliga plattformar.

Det skulle spara mycket av det "dubbeljobbet" som görs nu och egentligen ge en mer representativ bild i de sedvanliga testerna för hur folk som bygger sina egna datorer kommer uppleva prestandaskillnader. Därtill finns det möjlighet att lägga mer krut på att köra kompletterande tester med minnesskalning vid olika hastigheter/latensnivåer med enstaka modeller.

Enda knixet, och där vi kanske målar in oss i ett hörn, är om nästa generations processorer vrider upp den officiella minnesspecen över 3 200 MHz. Ställer mig tveksam till att Intel skulle göra det med Rocket Lake-S, men för Zen 3 är det inte helt osannolikt. Jaja, den dagen den sorgen.

Permalänk
Datavetare
Skrivet av JonasT:

Du har helt klart en poäng i det du skriver. Jag och @Kenneth får snacka ihop oss om RAM-biten till nästa omstart av testsviten, vilket rimligtvis borde bli i samband med Zen 3. Ur en tidsmässig aspekt tror jag egentligen mycket på att skala ner antalet referenser (kanske börja på 7700K/1800X och arbeta uppåt) och normalisera minneshastigheten till exempelvis 3 200 MHz för samtliga plattformar.

Det skulle spara mycket av det "dubbeljobbet" som görs nu och egentligen ge en mer representativ bild i de sedvanliga testerna för hur folk som bygger sina egna datorer kommer uppleva prestandaskillnader. Därtill finns det möjlighet att lägga mer krut på att köra kompletterande tester med minnesskalning vid olika hastigheter/latensnivåer med enstaka modeller.

Enda knixet, och där vi kanske målar in oss i ett hörn, är om nästa generations processorer vrider upp den officiella minnesspecen över 3 200 MHz. Ställer mig tveksam till att Intel skulle göra det med Rocket Lake-S, men för Zen 3 är det inte helt osannolikt. Jaja, den dagen den sorgen.

Fast om ni som nu kör med både "stock" och en "mest vanliga minneshastighet på alla system" löser det sista du skriver sig själv. Om JEDEC definierar en hastighet över DDR4-3200 och AMD direkt anammar den kommer ni ju testa det i "stock" fallet

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Jepp, de hade kunnat köra sitt test med 3990X med Intel Open Image Denoise också. Undrar hur mycket snabbare det hade gått då?

Visa signatur

Hur många datorer är för många?

Permalänk
Datavetare
Skrivet av kelthar:

Jepp, de hade kunnat köra sitt test med 3990X med Intel Open Image Denoise också. Undrar hur mycket snabbare det hade gått då?

Grejen är att med de inställningar får man rätt mycket dimishing returns. Denoise steget skalar bättre med AVX -> AVX512 än med dubbla antalet kärnor. Nu har inte min laptop AVX512, men det finns redan sådana då Ice Lake har AVX512.

Men visst skulle en 3990X vara snabbare än min laptop, däremot inte säkert att den längre skulle slå t.ex. 10980XE (då den har AVX512, skulle helt beror scenen och inställningarna).

Du missar ändå huvudpoängen: renderingstesterna börjar bli smått komiska då de överhuvudtaget inte mäter något relevant längre. Det samtidigt som rendering är rätt nischat i sina krav (vilket är orsaken till att det fungerar så extremt väl på GPUer).

Det är fullt möjligt att designa en CPU som skulle kunna slå alla tänkbara rekord i Cinebench/Blender men ändå vara totalt värdelös i det mesta man gör på en skrivbordsdator. Fujitsus senaste CPU riktad mot superdatorer är ett sådant exempel (om nu dessa kunde köras på ARM64 och utnyttja SVE instruktioner).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Där är med i stort sett maximerade inställningar på ram. Helt utan GPU begränsningar.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Master of Overkill
Skrivet av marcusOCZ:

https://i.imgur.com/dTuqXBe.jpg

Där är med i stort sett maximerade inställningar på ram. Helt utan GPU begränsningar.

Hur läser jag av detta diagrammet är jag helt efter eller någon annan med?

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

@tvelander:

Är det så svårt?
Du ser ju på färgerna vilken cpu som är vilken? Kan IOFS förstå om man är färgblind.

Från vänster till höger: 10900k-9900k-3900x

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av Yoshman:

Generellt håller jag helt med: överklockning är i flera fall numera inte bara meningslöst, det är kontraproduktivt då högre Vcore leder till väsentligt högre värmeutveckling (effekt är kvadratiskt proportionellt mot spänning), vilket i sin tur kan leda till en sämre upplevelse i spel då det kan leda till throttling i de mest krävande fallen.

Lyckas man värmethrottla sin cpu i spel har man gjort något allvarligt fel som över huvud taget inte har med överklockning att göra.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Master of Overkill
Skrivet av marcusOCZ:

Lyckas man värmethrottla sin cpu i spel har man gjort något allvarligt fel som över huvud taget inte har med överklockning att göra.

Jo då min CPU throttlar om jag inte kör VK i spel.
Överklockad.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av marcusOCZ:

Är det så svårt?
Du ser ju på färgerna vilken cpu som är vilken? Kan IOFS förstå om man är färgblind.

Från vänster till höger: 10900k-9900k-3900x

Problemet är väl att rutorna med processorernas namn är placerade väldigt missledande, de får det att se ut som att varje grupp med staplar hör till en viss processor när rutorna i själva verket bara visar vilken färg som är vad med en liten färgrand som är väldigt lätt att missa. Det känns verkligen som ett exempel taget rakt från en "misstag att undvika nära man designar diagram"-guide

Permalänk
Master of Overkill
Skrivet av perost:

Problemet är väl att rutorna med processorernas namn är placerade väldigt missledande, de får det att se ut som att varje grupp med staplar hör till en viss processor när rutorna i själva verket bara visar vilken färg som är vad med en liten färgrand som är väldigt lätt att missa. Det känns verkligen som ett exempel taget rakt från en "misstag att undvika nära man designar diagram"-guide

Lite det jag ville ha confirmat om det va så.
Såg helt keff ut.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av perost:

Problemet är väl att rutorna med processorernas namn är placerade väldigt missledande, de får det att se ut som att varje grupp med staplar hör till en viss processor när rutorna i själva verket bara visar vilken färg som är vad med en liten färgrand som är väldigt lätt att missa. Det känns verkligen som ett exempel taget rakt från en "misstag att undvika nära man designar diagram"-guide

Om man utgår i från att man inte vill förstå ett diagram kan det lätt bli så ja, men jag har då sett mycket värre än dessa.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av marcusOCZ:

Om man utgår i från att man inte vill förstå ett diagram kan det lätt bli så ja, men jag har då sett mycket värre än dessa.

Eller så tar man till sig och förstår kritik som är välriktad (jag gjorde samma tolkningsfel först)

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av tvelander:

Jo då min CPU throttlar om jag inte kör VK i spel.
Överklockad.

I vilka spel når du 100 grader på cpu?

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av sweisdapro:

Eller så tar man till sig och förstår kritik som är välriktad (jag gjorde samma tolkningsfel först)

Jag ska prova få tag på ryssen som gjorde diagrammen och meddela han.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Master of Overkill
Skrivet av marcusOCZ:

I vilka spel når du 100 grader på cpu?

Många om jag maxar CPUn det är la inte så konstigt? jag sitter på max klock CPUn klarar på min kylning.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

@tvelander:

Kan du tala om vilka spel det är för det vill jag också testa.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av Yoshman:

Grejen är att med de inställningar får man rätt mycket dimishing returns. Denoise steget skalar bättre med AVX -> AVX512 än med dubbla antalet kärnor. Nu har inte min laptop AVX512, men det finns redan sådana då Ice Lake har AVX512.

Men visst skulle en 3990X vara snabbare än min laptop, däremot inte säkert att den längre skulle slå t.ex. 10980XE (då den har AVX512, skulle helt beror scenen och inställningarna).

Du missar ändå huvudpoängen: renderingstesterna börjar bli smått komiska då de överhuvudtaget inte mäter något relevant längre. Det samtidigt som rendering är rätt nischat i sina krav (vilket är orsaken till att det fungerar så extremt väl på GPUer).

Det är fullt möjligt att designa en CPU som skulle kunna slå alla tänkbara rekord i Cinebench/Blender men ändå vara totalt värdelös i det mesta man gör på en skrivbordsdator. Fujitsus senaste CPU riktad mot superdatorer är ett sådant exempel (om nu dessa kunde köras på ARM64 och utnyttja SVE instruktioner).

Min poäng är:
De CPU:er som testas är CPU:er som är byggda för generella uppgifter. Ska man ta bort alla tester där det finns en specialiserad produkt som gör just den uppgiften bättre? Vad finns då kvar till slut? Ska vi ta bort alla int, float och hashing-tester t.ex? Alla ASICs som klarar vissa uppgifter mycket bättre. Det är väl upp till var av oss alla här att titta på de olika testerna och dra egna slutsatser om vilka som är relevanta för dem?

Visa signatur

Hur många datorer är för många?

Permalänk
Datavetare
Skrivet av kelthar:

Min poäng är:
De CPU:er som testas är CPU:er som är byggda för generella uppgifter. Ska man ta bort alla tester där det finns en specialiserad produkt som gör just den uppgiften bättre? Vad finns då kvar till slut? Ska vi ta bort alla int, float och hashing-tester t.ex? Alla ASICs som klarar vissa uppgifter mycket bättre. Det är väl upp till var av oss alla här att titta på de olika testerna och dra egna slutsatser om vilka som är relevanta för dem?

Det var inte poängen. Vänder mig egentligen inte helt mot renderingstester, men kikar man runt hur CPU-tester ser ut idag har rendering, och framförallt Cinebench, en orimligt stor andel i bedömningen.

Hos SweC testar man totalt 12 st icke-spel fall. 4 st, d.v.s. 1/3 av alla tester, är Cinebench. Totalt 6, d.v.s hälften, är rendering.

Rendering är problematisk 2020 då en i3-10100+RTX2070S kommer i majoriteten av fallen vara snabbare än 3990X+5700XT. D.v.s. CPUn är nästan helt underordnad vilken GPU man använder, de fall som faktiskt är CPU-bundna (för finns CPU-tunga moment som inte kan GPU-accelereras) testas bara av enstaka nisch-siter, antagligen då de momenten i princip inte skalar alls med CPU-kärnor.

Men självklart bör man testa något renderingprogram. CPU-rendering i t.ex. Blender ger ändå en form av information.

Det stora problemet är väl Cinebench. CB15 borde bara inte testas alls längre, där används en väldigt udda instruktion-mix som inte varit relevant för något annat än just CB15 och möjlige någon annan avdankad benchmark under väldigt lång tid.

CB20 är bättre. Men det är ändå en väldigt märklig benchmark då det ska vara en benchmark för Cinema 4D, fast om man nu väljer att köra CPU-rendering i det programmet i den senaste versionen används en annan renderingsmotor än i CB20. Så vad testar då CB20?

Cinema 4D använder en motor som kallas Embree, den motorn är hårdoptimerad för att använda AVX/AVX512... Gissa vad det gör med resultaten?

De flesta har dragit slutsatsen att 10900K är bättre än 3900X i spel, men faller efter i "content creation". Känns väl som en rimlig slutsats, är ju trots allt 12C/24T vs 10C/20T? Grejen är att den slutsatsen kommer mycket av att nästan alla kör en klar övervikt rendering där Cinebench har orimligt stor andel av totala antalet tester.

Phoronix testade total 30 st icke-spel-program. 6 st av dessa (20 %) var rendering, men ingen var Cinebench. Deras resultat?

10900K är i genomsnitt snabbare än 3900X och 10600K är i genomsnitt snabbare än 3600X. Det är inte vad man skulle gissat efter läst SweClockers, HardwareUnboxed, Gamers Nexus, m.fl.

Och de testar också Embree

Inte riktigt det resultat man brukar se.

TL;DR är primärt att renderingstester är överrepresenterade och då just dessa inte längre är optimala för CPUer kan man egentligen få vilket resultat man vill i dessa. De ska inte tas bort, men de kanske inte ska utgöra så stor andel av testerna som de gör idag.

Personligen ser jag gärna kompileringstester, det är ett icke-renderingfall där Zen2 står sig riktigt bra! Men måste ju finnas andra saker som är CPU-intesiva och därmed värda att testa, för varför bryr sig folk annars en som nya snabbare CPUer?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det var inte poängen. Vänder mig egentligen inte helt mot renderingstester, men kikar man runt hur CPU-tester ser ut idag har rendering, och framförallt Cinebench, en orimligt stor andel i bedömningen.

Hos SweC testar man totalt 12 st icke-spel fall. 4 st, d.v.s. 1/3 av alla tester, är Cinebench. Totalt 6, d.v.s hälften, är rendering.

Rendering är problematisk 2020 då en i3-10100+RTX2070S kommer i majoriteten av fallen vara snabbare än 3990X+5700XT. D.v.s. CPUn är nästan helt underordnad vilken GPU man använder, de fall som faktiskt är CPU-bundna (för finns CPU-tunga moment som inte kan GPU-accelereras) testas bara av enstaka nisch-siter, antagligen då de momenten i princip inte skalar alls med CPU-kärnor.

Men självklart bör man testa något renderingprogram. CPU-rendering i t.ex. Blender ger ändå en form av information.

Det stora problemet är väl Cinebench. CB15 borde bara inte testas alls längre, där används en väldigt udda instruktion-mix som inte varit relevant för något annat än just CB15 och möjlige någon annan avdankad benchmark under väldigt lång tid.

CB20 är bättre. Men det är ändå en väldigt märklig benchmark då det ska vara en benchmark för Cinema 4D, fast om man nu väljer att köra CPU-rendering i det programmet i den senaste versionen används en annan renderingsmotor än i CB20. Så vad testar då CB20?

Cinema 4D använder en motor som kallas Embree, den motorn är hårdoptimerad för att använda AVX/AVX512... Gissa vad det gör med resultaten?

De flesta har dragit slutsatsen att 10900K är bättre än 3900X i spel, men faller efter i "content creation". Känns väl som en rimlig slutsats, är ju trots allt 12C/24T vs 10C/20T? Grejen är att den slutsatsen kommer mycket av att nästan alla kör en klar övervikt rendering där Cinebench har orimligt stor andel av totala antalet tester.

Phoronix testade total 30 st icke-spel-program. 6 st av dessa (20 %) var rendering, men ingen var Cinebench. Deras resultat?
https://i.imgur.com/fkOi3sI.png
10900K är i genomsnitt snabbare än 3900X och 10600K är i genomsnitt snabbare än 3600X. Det är inte vad man skulle gissat efter läst SweClockers, HardwareUnboxed, Gamers Nexus, m.fl.

Och de testar också Embree
https://i.imgur.com/3Z5DTa0.png
Inte riktigt det resultat man brukar se.

TL;DR är primärt att renderingstester är överrepresenterade och då just dessa inte längre är optimala för CPUer kan man egentligen få vilket resultat man vill i dessa. De ska inte tas bort, men de kanske inte ska utgöra så stor andel av testerna som de gör idag.

Personligen ser jag gärna kompileringstester, det är ett icke-renderingfall där Zen2 står sig riktigt bra! Men måste ju finnas andra saker som är CPU-intesiva och därmed värda att testa, för varför bryr sig folk annars en som nya snabbare CPUer?

Jäkligt komplett testsvit phoronix kör med, tycker deras slutsats verkar vara den mest logiska; i fall där en/ett fåtal kärnor används så vinner 10900k, men i fall där lasten är mer flertrådad så vinner 3900X (generellt i alla fall).
Roligt är det i alla fall med rejäl konkurrens på CPU-sidan, numera är det inte lätt att säga vilken cpu som är "den bästa" ur någon aspekt

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P