Intel Haswell vanligaste processorfamiljen bland SweClockers medlemmar

Permalänk
Medlem
Skrivet av AMD-FX:

Här är ett bra exempel hur det ser ut när en 7700K med färre kärnor ska streama mot en Ryzen

Fast ska man streama så är det ju Shadowplay som gäller, så om AMD har ett litet övertag när man använder CPU till det så må det vara hänt.

Permalänk
Datavetare
Skrivet av JonkenPonken:

Tycker inte det är svårt alls att motivera en 2700X (som jag själv har) före en 8700K. Beror väl på vad man pysslar med med sin dator. Jag komprimerar/dekomprimeringar en hel del när jag fipplar med bilder och min 2700X är 24% snabbare än en 8700K på detta. Då jämför jag CPU stock på båda. Sen har AMD mindre säkerhetsbuggar samt är mer framtidssäker på alla sätt. Dels socketen och sen dels att program och även spel blir bättre optimerade för fler kärnor i framtiden.

8700K är mer eller mindre en spelkonsol med tanke på att det inte går att uppgradera utan att köpa helt nytt (förutom minne).

EDIT: 7-zip

Du är medveten om att AMD lät Spectre variant 2 gå opatchad väldigt mycket längre än Intel? AMD levererade sin patch dagen före lansering av 2000-serien, vilket betyder att alla tester av dessa CPUer saknar dessa patchar (som precis som fixarna för Meltdown påverkar vissa fall negativt).

Så vitt jag vet har AMD ännu inte patchat de svagheter som CTS Labs hittade. Visst är CTS Labs rövhål i hur de presenterade detta, men det var ändå riktiga hål de hittade och AMD lovade fixa det "inom ett par veckor" (och tror man i princip garanterade inom tre månader).

Epyc har en finnes för att kryptera innehållet RAM som används av virtuella maskiner, SEV (Secure Encrypted Virtualization). Där har man hittat hål som är möjliga att utnyttja utan att ha fysisk tillgång eller ens möjlighet att påverka vad som körs på systemet, räcker med att servern kör någon nätverksservice som t.ex. webbserver eller något som använder REST APIer. Mycket pekar på att detta hål inte ens är realistiskt att laga med mindre än att ändra HW. Som jämförelse har Intels logiskt sett liknande teknik, SGX, inte motsvarande problem (detta är tyvärr en irriterande trend inom x86, allt fler avancerade server-finesser är AMD/Intel specifika tillägg och inte del av x86, så AMD/Intel är inte kompatibla med varandra )

Moderna CPUer är så komplexa att det är absolut noll sannolikhet att de inte innehåller buggar. Här måste man inse att då Intel har 99 % av datacentermarknaden nagelfars deras CPUer långt mer än några andra. Det viktigaste är därför inte hur många hål man hittar, det man helt ska bedöma CPU-leverantörerna efter är hur de hanterar svagheter när de faktiskt hittas!

Sett till hur Spectre/Meltdown hanterades var det egentligen bara en leverantör som kan få guldstjärna, ARM. De presenterade endast teknisk relevant information, ingen PR-dynga som Intel. De fick ut fixarna extremt snabbt, inte fem månader senare som AMD (var först i maj som Spectre variant 2 fixarna faktiskt pushades ut). ARM har patchat existerande CPU-designer (Meltdown och Spectre variant 2) då de faktiskt säljs än, upp till varje kretstillverkare att lägga in detta. x86 lägret har inte ens planer på att fixa de CPU-modeller de just nu säljer (Intel kommer släppa Cascade Lake inom någon månad, där ska Meltdown och Spectre variant 2 vara fixade).

Så om man inte tycker CPU-säkerhet står och faller med huruvida kretsen är mottaglig för Meltdown (som är väsentligt enklare att patcha jämfört med Spectre) är det inte fullt så svart och vitt kring vem som har mest hål i sina produkter.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Vet inte om spänningen sjönk efter 4'e generationens core processorer hos medlemmarna här. Det dröjde ju fram till Augusti 2015 med Skylake och Intel lanserade ju inte Broadwell som planerat eller ens fick den uppmärksamheten som jag dock tycker synd lite gran faktiskt att den skulle behövts.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem

Jag gick från Phenom II till Haswell. Första gången som jag valde Intel. Tror att AMD Bulldozer är en stor anledning till att så många kör eller körde Haswell.

Visa signatur

AMD Ryzen 7 5700X, ASUS ROG Crosshair VIII Dark Hero, 32GB Corsair Vengeance LP 3200MHz, Gigabyte Radeon RX 5600 XT, Fractal Design Define C, Sesonic FOCUS PX 650W.

Permalänk
Medlem
Skrivet av anon114264:

Hur lyckas man bricka bios på sin dator egentligen? Drog du ut sladden?

Uppdaterade med det senaste bios från asus, verkade gå bra den blev färdig, men sen startade den aldrig igen.. Flashat massvis med moderkort dvd läsare och allt i mina dagar men denna gång var världen emot mig.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5800x @ 32gb 3200mhz @ 7tb ssd @ 3060ti Fractal r5 @ Arch
i5 4670k @ 24gb 1600mhz @ Fractal r3 @ 12tb ZFS @ Truenas Scale
Thinkpad T450 @ i5 5300u @ 16gb @ 512gb ssd @ 24+48wh batteri @ Debian

Permalänk
Medlem

Cirkeldiagram... Det finns mycket att säga om varför cirkeldiagram inte skall användas, bara att googla...

Ett stapeldiagram hade varit bättre. Så här tex:

Man kan enkelt se ordningen mellan de olika valen, och färgerna kan även användas till något användbart, dvs man kan skilja Intel från AMD.

Man kan även välja att sortera de olika arkitekturerna längs x-axeln efter när de först släpptes:

Permalänk
Inaktiv
Skrivet av Xinpei:

Och du missade att han bokstavligen skrev "Undrar om.."?

Stämmer inte. Scenarion där CPUn agerar flaskhals så kommer Intels processorer att prestera bättre. I de andra scenariona (95% av fallen) där CPUn inte agerar flaskhals så är skillnaden inom felmarginalen. Handlar inte om att använda alla kärnor eller inte utan handlar helt enkelt om att GPUn agerar flaskhals så länge man inte sitter på ett 1080Ti. Och i 4K så blir skillnaden försumbar även eftersom GPUn ännu en gång agerar flaskhals.

Vad menar du? Hur kan Intels processorer prestera bättre om cpun är flaskhals. Du får förklara bättre!

Skrivet av FatherOfThree:

Av de som svarat är det en klar majoritet på 18 procent vars primära stationära dator huserar en processor baserad på Intels arkitektur Haswell, som i folkmun kallas fjärde generationens Intel Core.

?

Haswell är väl ändå tredje generationsens Core-processor?

Permalänk
Inaktiv

Var hos en polare igår och satte in hans 7700K som legat i en låda. När jag startar upp systemet så har han 48GB DDR4. För min del är det priserna på Ram som hindrar mig från att uppgradera. Dock har jag ett reservsystem ifall min dator för.

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av anon114264:

Vad menar du? Hur kan Intels processorer prestera bättre om cpun är flaskhals. Du får förklara bättre!

Haswell är väl ändå tredje generationsens Core-processor?

Nope. Ivy Bridge är 3:e.

Skickades från m.sweclockers.com

stavning
Permalänk
Medlem

Mm jag saknar verkligen min 4790k devilscanyon Mitt exemplar klarade 5.2, men fick göra den i 4.8, jag snålade på kylningen och köpte min favorit Hyper X Evo 212 men den kostade bara 149 kr då, men på grund av min bipolär läritet typ 2 så sålde jag den såklart alldeles för alldeles för lite pengar:p
När jag var hypoman, och jag har ångrat försäljningen sedan dess:p

Permalänk
Medlem
Skrivet av Mangee75:

Min fina i7-3820 Sandy BridgeE får sitta i tills den rasar. Har aldrig haft en processor som har gått så bra som denna.

Är det vanligt att CPUs ”rasar”? Själv har jag aldrig varit med om det nämligen. Eller ens hört talas om det.

Fast visst om man ex har en riktigt dålig kylfläns och som dessutom dammar igen kanske det finns en liten risk? Men de flesta CPUs sedan typ 2006 eller nåhot har väl skydd mot överhettning?

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Yoshman:

Vilket är största "problemet"

  • att vissa tror att 720p tester är representativt för spelprestanda, vilket inte är sant men det ÄR representativt för rätt många andra CPU-bunda applikationer då spel trots allt är verkliga applikationer och inte mikrobenchmarks

  • att vissa tror att CineBench är representativt för någonting alls mer än just CineBench. Dels är CPU-rendering ett rätt rejält nischa användningsområde som använder CPUn på ett sätt som väldigt få andra program gör, dels är det ett s.k. "embarrassingly parallel" problem så är betydligt vettigare att köra detta på GPGPU eller i alla fall SIMD (Cinebench använder metoder relevanta strax innan millennieskiftet)

Personligen bryr jag mig rätt minimalt om speltesterna ur perspektivet: hur väl kan CPU X köra spel Y. Kan redan på förhand räkna ut att i 9 fall av 10 är CPU-delen mer eller mindre irrelevant.

Ändå ser jag 720p testerna som de klart mest värdefulla när det kommer till att först hur CPUn i praktiken kommer prestera, detta då de trots allt är den klart bästa proxyn för "generell CPU-prestanda i majoriteten av skrivbordsapplikationer". Ger ju ingenting att läsa femtielva renderingstester när man varken renderar (vilket jag misstänker gäller en förkrossande majoritet) samt när just dessa tester är extremt dåliga proxyn för "generell CPU-prestanad".

Cinebench har absolut ett värde i CPU-tester, framförallt kan det med god precision användas för att räkna ut genomsnittlig CPU-frekvens när alla kärnor jobbar förutsatt att man har en referens på samma mikroarkitektur vid fixerad frekvens när en kära körs. Men det är ungefär där dess relevans stannar.

Ska man gå efter Cinebench är t.ex. R7-1700 klart bättre än i7-7700K. För 99 av 100 desktop-användare är den senare CPU i praktiken det bättre valet givet beskaffenheten på de program som används. I ett stort antal fallen skulle de inte märka någon skillnad i praktiken.

Lite trist att de flesta CPU-testerna, SweC inkluderat, väljer att köra flera varianter på rendering då det dels är en extrem nisch och dels är en rätt kass proxy för generell prestanda. Varför inte byta ut två av tre renderingstester mot t.ex. kompileringstest, vetenskapliga beräkningar (NumPy, Matlab, R eller liknande), databastest, virtualiseringstest, etc? Alla dessa är rätt smala nischer, men knappast smalare än rendering och tillsammans skulle de ge en rätt mycket bredare bild (och det skulle bli en bild som inte all ensidigt premierar många kärnor som testerna de flesta nu körs).

1. Bara för att Cinebench är bristfälligt betyder det inte att speltester i 720p är bra (Black-and-white fallacy). Det finns massor med andra tester som testar mer typiska uppgifter på datorn och som ligger närmare vad en normal användare upplever. T.ex. populära PC mark men också webb-baserade tester eller att bara mäta hur lång tid det tar att installera olika program med en overkill SSD. Du själv listar flera mycket bättre alternativ. Däremot är Cinebench ett bra och enkelt verktyg för att mäta tunga multi-trådade laster.

2. Ett speltest i 720p är på inget som helst sett representativt för prestanda i andra applikationer. Det är en usel "proxy" för att mäta "generell CPU-prestanda i majoriteten av skrivbordsapplikationer". Att trycka ut 400fps enklare 3D belastar din CPU på ett helt annat sätt än om du till exempel kör 20 tabbar i Chrome samtidigt som du spelar ett spel och datorn installerar en antivirus-uppdatering i bakgrunden. Det senare är ett scenario som användare ganska ofta utsätter sin PC för. Den mest uppenbara faktorn är att en CPU presterar extremt bra i ett spel med 2 stycken kärnor som har mycket hög klockfrekvens. I det mer realistiska scenariot är flera kärnor en enorm fördel eftersom att de olika applikationerna inte behöver slås om systemets resurser på samma sätt. Andra faktorer är saker som storlek och hastighet på cache samt hur bra processorn är på att hantera RAM-minne.

3. Det är ett stort problem att både användare och (därmed) butiker bygger speldatorer som är helt fel balancerade. En snabb titt på en slumpvis utvald butik visar till exempel en dator med en 8700K men endast ett GTX1070. Är det spel man är ute efter hade man gärna hellre tagit ett överlägset GTX1080 och en likapresterade 8350K istället (eller en Ryzen 1600). Samma pris men en helt annan nivå av spelprestanda, plus att du har 500kr att lägga på en bättre skärm eller köpa vin på systemet.

Permalänk

Anmärkningsvärt att så många fortfarande sitter kvar på Sandy bridge.

Visa signatur

EVGA 980 GTX SC | AMD Ryzen 2600 | ASUS B450-F | 16Gb Corsair 3000Mhz CL16 | Corsair 850w | Corsair 600T

Permalänk
Medlem
Skrivet av anon114264:

Vad menar du? Hur kan Intels processorer prestera bättre om cpun är flaskhals. Du får förklara bättre!

Haswell är väl ändå tredje generationsens Core-processor?

https://www.sweclockers.com/test/25500-amd-ryzen-7-2700x-och-...

Menar självfallet där GPUn agerar flaskhals. Skyller på trötthet.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Lon Höppö:

Anmärkningsvärt att så många fortfarande sitter kvar på Sandy bridge.

Egentligen inte med tanke på att många här spelar och överklockar. Då fungerar Sandy Bridge utmärkt och en uppgradering på mer är 5000kr skulle endast innebära mindre än 10% mer FPS. Dessutom hänger dessa processorer med ganska väl även i andra uppgifter då de trots allt är 4-kärniga och har hög klockfrekvens.

Permalänk
Datavetare
Skrivet av thomas_skane:

1. Bara för att Cinebench är bristfälligt betyder det inte att speltester i 720p är bra (Black-and-white fallacy). Det finns massor med andra tester som testar mer typiska uppgifter på datorn och som ligger närmare vad en normal användare upplever. T.ex. populära PC mark men också webb-baserade tester eller att bara mäta hur lång tid det tar att installera olika program med en overkill SSD. Du själv listar flera mycket bättre alternativ. Däremot är Cinebench ett bra och enkelt verktyg för att mäta tunga multi-trådade laster.

2. Ett speltest i 720p är på inget som helst sett representativt för prestanda i andra applikationer. Det är en usel "proxy" för att mäta "generell CPU-prestanda i majoriteten av skrivbordsapplikationer". Att trycka ut 400fps enklare 3D belastar din CPU på ett helt annat sätt än om du till exempel kör 20 tabbar i Chrome samtidigt som du spelar ett spel och datorn installerar en antivirus-uppdatering i bakgrunden. Det senare är ett scenario som användare ganska ofta utsätter sin PC för. Den mest uppenbara faktorn är att en CPU presterar extremt bra i ett spel med 2 stycken kärnor som har mycket hög klockfrekvens. I det mer realistiska scenariot är flera kärnor en enorm fördel eftersom att de olika applikationerna inte behöver slås om systemets resurser på samma sätt. Andra faktorer är saker som storlek och hastighet på cache samt hur bra processorn är på att hantera RAM-minne.

3. Det är ett stort problem att både användare och (därmed) butiker bygger speldatorer som är helt fel balancerade. En snabb titt på en slumpvis utvald butik visar till exempel en dator med en 8700K men endast ett GTX1070. Är det spel man är ute efter hade man gärna hellre tagit ett överlägset GTX1080 och en likapresterade 8350K istället (eller en Ryzen 1600). Samma pris men en helt annan nivå av spelprestanda, plus att du har 500kr att lägga på en bättre skärm eller köpa vin på systemet.

1. Nej, Cinebench är definitivt inte ett bra verktyg för att mäta "tunga" multi-trådade laster. Varför?

  • Hur "tungt" är något som använder en fraktion av tillgänglig kapacitet? Cinebench använder ca 1/4 av Zen, ca 1/8 av Skylake och mindre än 1/10 av SKL-X kapacitet.

  • Cinebench är, till skillnad från de flesta multitrådade program du hittar på skrivbordet, embarrassingly parallel. Sådana applikationer körs nästan alltid väsentligt mer effektivt på GPGPU alt. SIMD (vilket som är bäst beror på om bandbredd eller latens är primär flaskhals)

  • Cinebench är så extremt "embarrassingly parallel" att det skulle skala i princip perfekt om man så kopplade ihop två datorer via dial-up modem och delade upp jobbet vid körning. I princip inget annat program uppför sig på det sättet.

Och ditt "Black-and-white fallacy" pekar på att jag uppenbarligen inte var tydlig nog med vad jag avsåg. Den mest pragmatiska hållningen, givet vad de flesta tech-webbplatser faktiskt brukar testa (finns några trevliga undantag, som TechPowerUp och Phoronix), är att använda 720p testerna som proxy för "generell prestanda". Inte för att det är perfekt, utan för att det är minst dåligt givet förutsättningarna.

Jag skulle definitivt vilja se de saker jag listade, mycket för att spel inte är en bra proxy för dessa. Tyvärr är inget annat som normalt testat en bra proxy för dessa. I vetenskapliga program används t.ex. SIMD till väldigt nära 100 %, flera kärnor kan användas väldigt effektivt i vissa lägen (i lägen där man har väldigt stora dataset så det effektivt går att dela upp jobbet).

2. Vad är det som är den primära flaskhalsen i spel när det är CPU-bundet? Jo, kapaciteten hos CPUn att hantera skalära heltal. Det man ser är rätt stor andel villkorad körning, en hel del "pointer chasing" då spel normalt använder OOP med virtuella basklasser samt väldigt hög "temporal locality".

Vad ser du hos kompilering, hos webbmotorer, hos MS Office etc? Rätt mycket exakt samma sak. Har du en Intel CPU kan du mäta exakt hur mycket varje del av CPUn är lastad, du kan mäta cache-missar/träffar, mängd felspekulerade hopp och även få ett exakt mått på genomsnittlig IPC (i x86 instruktioner per tidsenhet som "retires").

Spel är inte helt identisk med t.ex. MS Office, men det är väldigt mycket närmare än Cinebench (som primärt jobbar med skalära flyttal, har i princip noll cache-missar och nästan igen villkorad körning alls ) eller komprimering (som beror av minnesbandbredd på ett sätt nästan inget annat beror av, L4$ i 5775C hjälper rejält här men är i princip irrelevant i andra fall, för spel ger L4$ samma effekt som RAM med extremt låg latens).

Peka gärna på något annat som t.ex. SweC mäter som är en bättre proxy än spel. TechPowerUp mätte tidigare just viruscanning, kolla hur det uppför sig på olika CPUer. Kolla sedan hur det såg ut i 720p spel...

Spel är ingen prefekt proxy för att avgöra t.ex. hur bra CPUn hanterar JS-motorn i webbläsaren (och numera allt fler applikationer då t.ex. Visual Studio Code är utvecklat med en JS-motor som grundpelare). Felet är dock inte vilka delar av CPUn som används, det är hyfsat snarlikt. Felet är JS än så länge inte har något koncept av flera trådar (men finns fulhack för att få till det), så enkeltrådprestanda är långt viktigare för webbläsaren jämfört med vad det är i spel.

3. Hur är detta ett problem? Vad man måste tänka på här är att spelutvecklare testar i praktiken bara sina titlar med kombinationen: CPU som är så pass stark att flaskhalsen nästan aldrig hamnar där. Finns exempel på spel som uppför sig rätt illa trots att man till stor del fortfarande är GPU-bunden, ofta ser man det i pissiga lägsta FPS trots att genomsnittlig FPS är på en väldigt hög nivå (hög nog för att ofta vara GPU-bunden).

Vill man ha en optimal spelupplevelse ska man se till att ha ett så main-stream balanserat system som möjligt. Det har under väldigt lång tid varit system som är kraftigt GPU-bundna i normalfallet.

Siktar man på 60 FPS fungerar absolut i3-8350K/R5-1600, siktar man på högre FPS bör man skaffa mer CPU-kraft. Alla kör inte på "ultra". Ultra innehåller ofta ett par hjärndöda effekter som rejält kapar FPS utan att ge speciellt mycket bättre resultat. Kör man spel som Fortnite och liknande är det inte alls ovanligt att köra "medium" för att nå >100 FPS även med rätt mediokra GPUer, i det läget krävs rätt mycket CPU-kraft!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av JonkenPonken:

Jag komprimerar/dekomprimeringar en hel del när jag fipplar med bilder och min 2700X är 24% snabbare än en 8700K på detta.

Vid komprimering kan du nog räkna dem som lika snabba. Däremot vid dekomprimering har 2700X en fördel ja. Lägger du mycket tid på detta är ju valet enkelt för dig men har svårt att tro att många användare här har det som primär syssla.

Skrivet av JonkenPonken:

Sen har AMD mindre säkerhetsbuggar samt är mer framtidssäker på alla sätt. Dels socketen och sen dels att program och även spel blir bättre optimerade för fler kärnor i framtiden.

Ja, AMD verkar ha färre säkerhetshål men de drabbades också och skillnader för desktop-användning är försumbar. Försvarar inte Intel här för jag tycker det sög med.

Att AMD är mer framtidssäker går som argument ofta. Den enda gången det känns rimligt är om du har en stram budget och kan uppgradera till en dyrare processor senare och få ett rejält lyft på det sättet. Något som kan bli svårt med Intel om man inte tajmar det rätt. Men AMD byter också sockel om än mer sällan. AM4 lanserades 2016 och hänger väl med Zen 3 också. Därefter är det mycket osäkert om den fortsätter.

Skrivet av JonkenPonken:

8700K är mer eller mindre en spelkonsol med tanke på att det inte går att uppgradera utan att köpa helt nytt (förutom minne).

Haha, ja så kan man se det men jag har nog aldrig uppgraderat processorn och känt att jag vill stanna kvar på moderkortet. I alla fall inte med de senaste uppgraderingarna när jag kört slut på det jag har.

Ta min 4790K t.ex. som fortfarande går fint för det jag använder datorn till. Skulle det bli dags för en uppgradering hade jag velat ha DDR4, mer minne etc, USB C, Thunderbolt, M.2 etc. Så har det varit för mig de senaste gångerna.

Nu vill jag inte påstå att alla gör som mig, men köper man en high-end-processor idag så håller den ganska länge. Det gäller oavsett om du kör AMD eller Intel.

Kontentan är ändå att i spel är 8700K herren på täppan och spenderar man mycket tid med spel och inte vill byta processor innan man t.ex. sjunker under 60 fps i spel så är det förmodligen bästa köpet. 2700X är ett bättre köp om du verkligen har behov av alla kärnorna. AM4 som plattform kan vara smart om du har snål budget och vill spara in på processorn för att uppgradera senare.

Men som jag sa, AMD är inte längre värdelösa. Jag tror dock många har svårt att utnyttja potentialen i 2700X. Använder man inte den där extra fjärdedelen så är 8700K ett smartare köp. Om man nu inte har några andra specifika krav som gör att Intel som plattform faller.

Hade AMD varit lite mer energieffektiva hade jag verkligen övervägt dem vid en uppgradering. Men det hade inte varit för jag har behov av de där extra kärnorna utan för att stödja ett bolag som haft det tufft. Men det får inte vara på bekostnad av mycket annat. Mindre energieffektiv = mer värme, sämre för miljön och högre ljudnivå samtidigt som det faktiskt kostar mer i förbrukning. Tre faktorer som spelar roll i både idle/load.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av JonkenPonken:

Om inte mitt minne sviker mig så hade man fått igång en 8700K på de äldre 170 och 270-korten. Då var det modifierat UEFI man använde sig av.

Det låter ju tämligen sensationellt att de skulle klara av att starta en CPU som inte är pinkompatibel genom att använde en moddad firmware, men du får gärna länka om du har något konkret material om det.

EDIT: Någon finne på YT förklarar hur man hackar ihop det:

Det är dock fortfarande ingen "lögn av Intel" att sockeln är ändrad, sen kan man ju tycka vad man vill om det. Personligen är jag glad den dag jag kan lämna Z170 åt historien och har otroligt svårt att förstå varför somliga ska hänga kvar vid gamla trötta moderkort som om det vore några heliga reliker.

Permalänk
Medlem
Skrivet av Yoshman:

1. Nej, Cinebench är definitivt inte ett bra verktyg för att mäta "tunga" multi-trådade laster. Varför?

  • Hur "tungt" är något som använder en fraktion av tillgänglig kapacitet? Cinebench använder ca 1/4 av Zen, ca 1/8 av Skylake och mindre än 1/10 av SKL-X kapacitet.

  • Cinebench är, till skillnad från de flesta multitrådade program du hittar på skrivbordet, embarrassingly parallel. Sådana applikationer körs nästan alltid väsentligt mer effektivt på GPGPU alt. SIMD (vilket som är bäst beror på om bandbredd eller latens är primär flaskhals)

  • Cinebench är så extremt "embarrassingly parallel" att det skulle skala i princip perfekt om man så kopplade ihop två datorer via dial-up modem och delade upp jobbet vid körning. I princip inget annat program uppför sig på det sättet.

Och ditt "Black-and-white fallacy" pekar på att jag uppenbarligen inte var tydlig nog med vad jag avsåg. Den mest pragmatiska hållningen, givet vad de flesta tech-webbplatser faktiskt brukar testa (finns några trevliga undantag, som TechPowerUp och Phoronix), är att använda 720p testerna som proxy för "generell prestanda". Inte för att det är perfekt, utan för att det är minst dåligt givet förutsättningarna.

Jag skulle definitivt vilja se de saker jag listade, mycket för att spel inte är en bra proxy för dessa. Tyvärr är inget annat som normalt testat en bra proxy för dessa. I vetenskapliga program används t.ex. SIMD till väldigt nära 100 %, flera kärnor kan användas väldigt effektivt i vissa lägen (i lägen där man har väldigt stora dataset så det effektivt går att dela upp jobbet).

2. Vad är det som är den primära flaskhalsen i spel när det är CPU-bundet? Jo, kapaciteten hos CPUn att hantera skalära heltal. Det man ser är rätt stor andel villkorad körning, en hel del "pointer chasing" då spel normalt använder OOP med virtuella basklasser samt väldigt hög "temporal locality".

Vad ser du hos kompilering, hos webbmotorer, hos MS Office etc? Rätt mycket exakt samma sak. Har du en Intel CPU kan du mäta exakt hur mycket varje del av CPUn är lastad, du kan mäta cache-missar/träffar, mängd felspekulerade hopp och även få ett exakt mått på genomsnittlig IPC (i x86 instruktioner per tidsenhet som "retires").

Spel är inte helt identisk med t.ex. MS Office, men det är väldigt mycket närmare än Cinebench (som primärt jobbar med skalära flyttal, har i princip noll cache-missar och nästan igen villkorad körning alls ) eller komprimering (som beror av minnesbandbredd på ett sätt nästan inget annat beror av, L4$ i 5775C hjälper rejält här men är i princip irrelevant i andra fall, för spel ger L4$ samma effekt som RAM med extremt låg latens).

Peka gärna på något annat som t.ex. SweC mäter som är en bättre proxy än spel. TechPowerUp mätte tidigare just viruscanning, kolla hur det uppför sig på olika CPUer. Kolla sedan hur det såg ut i 720p spel...

Spel är ingen prefekt proxy för att avgöra t.ex. hur bra CPUn hanterar JS-motorn i webbläsaren (och numera allt fler applikationer då t.ex. Visual Studio Code är utvecklat med en JS-motor som grundpelare). Felet är dock inte vilka delar av CPUn som används, det är hyfsat snarlikt. Felet är JS än så länge inte har något koncept av flera trådar (men finns fulhack för att få till det), så enkeltrådprestanda är långt viktigare för webbläsaren jämfört med vad det är i spel.

3. Hur är detta ett problem? Vad man måste tänka på här är att spelutvecklare testar i praktiken bara sina titlar med kombinationen: CPU som är så pass stark att flaskhalsen nästan aldrig hamnar där. Finns exempel på spel som uppför sig rätt illa trots att man till stor del fortfarande är GPU-bunden, ofta ser man det i pissiga lägsta FPS trots att genomsnittlig FPS är på en väldigt hög nivå (hög nog för att ofta vara GPU-bunden).

Vill man ha en optimal spelupplevelse ska man se till att ha ett så main-stream balanserat system som möjligt. Det har under väldigt lång tid varit system som är kraftigt GPU-bundna i normalfallet.

Siktar man på 60 FPS fungerar absolut i3-8350K/R5-1600, siktar man på högre FPS bör man skaffa mer CPU-kraft. Alla kör inte på "ultra". Ultra innehåller ofta ett par hjärndöda effekter som rejält kapar FPS utan att ge speciellt mycket bättre resultat. Kör man spel som Fortnite och liknande är det inte alls ovanligt att köra "medium" för att nå >100 FPS även med rätt mediokra GPUer, i det läget krävs rätt mycket CPU-kraft!

Jag har ingen aning varifrån du fått att jag tycker att Cinebench är det bästa för att mäta generell CPU-prestanda. Det är inget jag någonsin nämnt men du fortsätter diskutera som om att jag gjort det, du kan gärna sluta med det. Jag håller med om att Cinebench inte är ett bra mått på generell CPU prestanda, men det är inte spel i låg upplösning heller. Och där är vi i alla fall överens om att det finns betydligt bättre benchmarks som oftast saknas i recensioner. Sweclockers använder i min mening inte särskilt bra metoder för att mäta prestanda på CPU:er. Men dem brukar i alla fall poängtera att skillnaden i FPS över 720p är i princip samma oavsett CPU. Många andra hårdvarosidor tar istället och ser detta som ett definitivt bevis på att X-processor är snabbare i spel, utan att den faktiskt är det. Det finns massor på detta forumet som rekommenderar 7700K/8700K för spel utan vidare eftertanke. I min mening är dessa overkill för spel och pengarna bör sättas på ett grafikkort istället. Har du en Hashwell processor i dagsläget och spelar finns det liten anledning att uppgradera om du inte vill ha det absolut bästa eller om du ska göra andra CPU-intensiva uppgifter.

Virusskanning är ett bättre alternativ till benchmark. Men även om 8700K ligger på samma plats i virusskanning och i 720p-spel så kan du ta en titt på resten av processorerna. Där hoppar det runt en hel del. Kolla till exempel på G4560 som ligger mycket lågt i alla spel men an någon anledning slår samtliga Ryzen i anti-virus.

Och nej, det är direkt felaktigt att Fortnite kräver en bra CPU för att ha prestanda över 100FPS. Även i det exakta scenario som du tar upp så är det grafikkortet som begränsar. Även om vi antar att 8100 presterar bättre än 8700K på grund av en bugg så kan vi se att Ryzen 3 för 1200kr klarar bra över 200 FPS i medium om du har rätt grafikkort. Se citatet och benchmarken nedan:

Skrivet av PC Gamer:

Fortnites CPU-prestanda
Vi har också gjort några CPU-tester med Intels senaste i3-, i5- och i7-komponenter, samt de flesta av AMD:s nuvarande Ryzen-diton. Notera att alla dessa tester använder samma grafikkort, MSI GTX 1080 Ti Gaming X 11G, för att framhäva just CPU-skillnaderna. Om du använder en mainstream-GPU som GTX 1060 kan du förvänta dig nästan identisk prestanda av alla dessa processorer.

Här börjar det dock bli snårigt. Core i3-8100 och i5-8400 slår det högre klockade, hypertrådade i7-8700K på alla fyra testinställningar. Vår bästa gissning just nu är att Fortnite får problem när hypertrådning eller SMT aktiveras, och att det är mer anpassat för fyrkärninga processorer. i7-8700K är klockad 20 procent högre än i3-8100, med 50 procent fler kärnor och tre gånger så många trådar – allt till ingen nytta.

AMD:s Ryzen-processorer ser lite rimligare ut på 1080p medium, där Ryzen 3 1300X är den långsammaste varianten och 1800X hamnar på förstaplats. 1300X presterar dock bäst av dem när man kör på epic-kvalitet. Inte för att skillnaden är enorm, eftersom det handlar om några fps hit eller dit, men det är tydligt att Fortnite inte utnyttjar processorer med många trådar till max.

(Källa: PCgamer.se/PCgamer.com)

Permalänk
Skrivet av Yoshman:

Du är medveten om att AMD lät Spectre variant 2 gå opatchad väldigt mycket längre än Intel? AMD levererade sin patch dagen före lansering av 2000-serien, vilket betyder att alla tester av dessa CPUer saknar dessa patchar (som precis som fixarna för Meltdown påverkar vissa fall negativt).

Så vitt jag vet har AMD ännu inte patchat de svagheter som CTS Labs hittade. Visst är CTS Labs rövhål i hur de presenterade detta, men det var ändå riktiga hål de hittade och AMD lovade fixa det "inom ett par veckor" (och tror man i princip garanterade inom tre månader).

Epyc har en finnes för att kryptera innehållet RAM som används av virtuella maskiner, SEV (Secure Encrypted Virtualization). Där har man hittat hål som är möjliga att utnyttja utan att ha fysisk tillgång eller ens möjlighet att påverka vad som körs på systemet, räcker med att servern kör någon nätverksservice som t.ex. webbserver eller något som använder REST APIer. Mycket pekar på att detta hål inte ens är realistiskt att laga med mindre än att ändra HW. Som jämförelse har Intels logiskt sett liknande teknik, SGX, inte motsvarande problem (detta är tyvärr en irriterande trend inom x86, allt fler avancerade server-finesser är AMD/Intel specifika tillägg och inte del av x86, så AMD/Intel är inte kompatibla med varandra )

Moderna CPUer är så komplexa att det är absolut noll sannolikhet att de inte innehåller buggar. Här måste man inse att då Intel har 99 % av datacentermarknaden nagelfars deras CPUer långt mer än några andra. Det viktigaste är därför inte hur många hål man hittar, det man helt ska bedöma CPU-leverantörerna efter är hur de hanterar svagheter när de faktiskt hittas!

Sett till hur Spectre/Meltdown hanterades var det egentligen bara en leverantör som kan få guldstjärna, ARM. De presenterade endast teknisk relevant information, ingen PR-dynga som Intel. De fick ut fixarna extremt snabbt, inte fem månader senare som AMD (var först i maj som Spectre variant 2 fixarna faktiskt pushades ut). ARM har patchat existerande CPU-designer (Meltdown och Spectre variant 2) då de faktiskt säljs än, upp till varje kretstillverkare att lägga in detta. x86 lägret har inte ens planer på att fixa de CPU-modeller de just nu säljer (Intel kommer släppa Cascade Lake inom någon månad, där ska Meltdown och Spectre variant 2 vara fixade).

Så om man inte tycker CPU-säkerhet står och faller med huruvida kretsen är mottaglig för Meltdown (som är väsentligt enklare att patcha jämfört med Spectre) är det inte fullt så svart och vitt kring vem som har mest hål i sina produkter.

Du nämner inte vilken ARM-processor du syftar på, men kikar man på denna listan så är ARM Cortex-A75, ARM Cortex-A72, ARM Cortex-A57 och ARM Cortex-A15 drabbade av variant 1,2,3 och 3a men listan är från Mars 2018. ARM Cortex-A73, ARM Cortex-A17, ARM Cortex-A12, ARM Cortex-A9, ARM Cortex-A8, ARM Cortex-R8 och ARM Cortex-R7 är drabbade av version 1 och 2. Sen andra processorer som bygger på ARM.

https://www.techarp.com/guides/complete-meltdown-spectre-cpu-...

Tittar man på AMD och Intel så ser det betydligt tyngre ut.

Permalänk
Skrivet av Sveklockarn:

Det låter ju tämligen sensationellt att de skulle klara av att starta en CPU som inte är pinkompatibel genom att använde en moddad firmware, men du får gärna länka om du har något konkret material om det.

EDIT: Någon finne på YT förklarar hur man hackar ihop det:
https://youtu.be/YW8e5HThe3w

Det är dock fortfarande ingen "lögn av Intel" att sockeln är ändrad, sen kan man ju tycka vad man vill om det. Personligen är jag glad den dag jag kan lämna Z170 åt historien och har otroligt svårt att förstå varför somliga ska hänga kvar vid gamla trötta moderkort som om det vore några heliga reliker.

Poängen är att Intel påstod att moderkorten inte pallade med att driva 8700K, och jag har sagt att man kan vid extreme OC kunnat driva 7700K med strax över 2 Volt. Detta betyder att de äldre moderkorten utan vidare skulle kunna driva en 8700K men inte till lika hög frekvens givetvis (extrem OC) då det är två kärnor mer vi pratar om, men för 99.9999999% av alla 8700K-användare så hade det varit mer än tillräckligt.

Det handlar om att Intel mjölkar sina kunder och sen vad du anser om Z170 är totalt irrelevant. Själv är jag jäkligt nöjd med min 2700X och jag vet att jag kommer kunna köra minst en kommande CPU-modell till på mitt moderkort.

8700K är snabb, inget som påstått nåt annat, men den som köpt 8700K har köpt en "spelkonsol" med rättighet att installera egen mjukvara samt byta grafikkort mm.

Permalänk
Medlem
Skrivet av JonkenPonken:

Poängen är att Intel påstod att moderkorten inte pallade med att driva 8700K, och jag har sagt att man kan vid extreme OC kunnat driva 7700K med strax över 2 Volt. Detta betyder att de äldre moderkorten utan vidare skulle kunna driva en 8700K men inte till lika hög frekvens givetvis (extrem OC) då det är två kärnor mer vi pratar om, men för 99.9999999% av alla 8700K-användare så hade det varit mer än tillräckligt.

Det handlar om att Intel mjölkar sina kunder och sen vad du anser om Z170 är totalt irrelevant. Själv är jag jäkligt nöjd med min 2700X och jag vet att jag kommer kunna köra minst en kommande CPU-modell till på mitt moderkort.

8700K är snabb, inget som påstått nåt annat, men den som köpt 8700K har köpt en "spelkonsol" med rättighet att installera egen mjukvara samt byta grafikkort mm.

Ja, de skulle kunnat kalla det för "Unofficial Support" där dem låter moderkortstillverkaren bestämma istället. De hade således helt flyttat beslutet till dem.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Skrivet av FredrikMH:

Ja, de skulle kunnat kalla det för "Unofficial Support" där dem låter moderkortstillverkaren bestämma istället. De hade således helt flyttat beslutet till dem.

Är du en sån där som alltid måste ha sista ordet?

Permalänk
Medlem
Skrivet av JonkenPonken:

Är du en sån där som alltid måste ha sista ordet?

Nope, fortsatte läsa och svarade på något nytt?

Men fint av dig att göra det personligt

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Skrivet av FredrikMH:

Vid komprimering kan du nog räkna dem som lika snabba. Däremot vid dekomprimering har 2700X en fördel ja. Lägger du mycket tid på detta är ju valet enkelt för dig men har svårt att tro att många användare här har det som primär syssla.

Ja, AMD verkar ha färre säkerhetshål men de drabbades också och skillnader för desktop-användning är försumbar. Försvarar inte Intel här för jag tycker det sög med.

Att AMD är mer framtidssäker går som argument ofta. Den enda gången det känns rimligt är om du har en stram budget och kan uppgradera till en dyrare processor senare och få ett rejält lyft på det sättet. Något som kan bli svårt med Intel om man inte tajmar det rätt. Men AMD byter också sockel om än mer sällan. AM4 lanserades 2016 och hänger väl med Zen 3 också. Därefter är det mycket osäkert om den fortsätter.

Haha, ja så kan man se det men jag har nog aldrig uppgraderat processorn och känt att jag vill stanna kvar på moderkortet. I alla fall inte med de senaste uppgraderingarna när jag kört slut på det jag har.

Ta min 4790K t.ex. som fortfarande går fint för det jag använder datorn till. Skulle det bli dags för en uppgradering hade jag velat ha DDR4, mer minne etc, USB C, Thunderbolt, M.2 etc. Så har det varit för mig de senaste gångerna.

Nu vill jag inte påstå att alla gör som mig, men köper man en high-end-processor idag så håller den ganska länge. Det gäller oavsett om du kör AMD eller Intel.

Kontentan är ändå att i spel är 8700K herren på täppan och spenderar man mycket tid med spel och inte vill byta processor innan man t.ex. sjunker under 60 fps i spel så är det förmodligen bästa köpet. 2700X är ett bättre köp om du verkligen har behov av alla kärnorna. AM4 som plattform kan vara smart om du har snål budget och vill spara in på processorn för att uppgradera senare.

Men som jag sa, AMD är inte längre värdelösa. Jag tror dock många har svårt att utnyttja potentialen i 2700X. Använder man inte den där extra fjärdedelen så är 8700K ett smartare köp. Om man nu inte har några andra specifika krav som gör att Intel som plattform faller.

Hade AMD varit lite mer energieffektiva hade jag verkligen övervägt dem vid en uppgradering. Men det hade inte varit för jag har behov av de där extra kärnorna utan för att stödja ett bolag som haft det tufft. Men det får inte vara på bekostnad av mycket annat. Mindre energieffektiv = mer värme, sämre för miljön och högre ljudnivå samtidigt som det faktiskt kostar mer i förbrukning. Tre faktorer som spelar roll i både idle/load.

Ide spelar cpu liten roll idag (AMD har gjort riktigt bra jobb där, om siffrorna blev rätt i swec test). Är ju svårare att mäta korrekt vid låg last.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Skrivet av FredrikMH:

Nope, fortsatte läsa och svarade på något nytt?

Men fint av dig att göra det personligt

Du ser

Permalänk
Medlem
Skrivet av Broken-arrow:

Ide spelar cpu liten roll idag (AMD har gjort riktigt bra jobb där, om siffrorna blev rätt i swec test). Är ju svårare att mäta korrekt vid låg last.

Du menar strömförbrukningen? Ser ju snarare ut som Sweclockers har en betydligt större skillnad där än andra testsidor (antog bara att diffen inte skulle vara stor innan).

I Sweclockers test skiljer det 15W i idle (vilket är ganska mycket imo). Men tittar man på t.ex. Guru3D och Tomshardware så skiljer det i princip ingenting alls. Det eliminerar hela mitt argument för det.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Skrivet av FredrikMH:

Du menar strömförbrukningen? Ser ju snarare ut som Sweclockers har en betydligt större skillnad där än andra testsidor (antog bara att diffen inte skulle vara stor innan).

I Sweclockers test skiljer det 15W i idle (vilket är ganska mycket imo). Men tittar man på t.ex. Guru3D och Tomshardware så skiljer det i princip ingenting alls. Det eliminerar hela mitt argument för det.

Beror på hur man mäter och nätagg/wattmätare, Tomshardware verkar ju kunna mäta cpu:n och inte kringutrustningen (med dessa låga siffror).

Ja bara vid load du har rätt och lättare surf Lite synd att AMD inte lyckas hålla förbrukningen lika låg mellan 1xxx och 2xxx.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Beror på hur man mäter och nätagg/wattmätare, Tomshardware verkar ju kunna mäta cpu:n och inte kringutrustningen (med dessa låga siffror).

Ja bara vid load du har rätt och lättare surf Lite synd att AMD inte lyckas hålla förbrukningen lika låg mellan 1xxx och 2xxx.

Ja men jag tänker att man borde kunna testa det med exakt samma utrustning där bara moderkortet skiljer. I så fall borde det bara skilja på någon enstaka Watt. Jämfört med SweC skiljer det ju mycket

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av AMD-FX:

Här är ett bra exempel hur det ser ut när en 7700K med färre kärnor ska streama mot en Ryzen
https://youtu.be/-LMGOq_PbVQ

Alla vet att 7700K är en kass CPU idag. Det finns ingen som är seriös som sätter mindre än 6/12 kärnor/trådar i en speldator. När Intel kommer med sin 8/16 så kommer den sätta den nya standarden. Så ska du köpa dator som håller ett tag välj en CPU med minst 8/16 😎😃👍

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090