Intel Core i9-10900K och Core i5-10600K "Comet Lake-S"

Permalänk
Medlem

Viktigt att Intel finns kvar på entusiastmarknaden så att inte AMD gör ... en Intel!

Men om dessa nya CPU/moderkort och avdelningen köpsug, nej, obefintligt. Dyrt och ingen speciell skillnad mot vad som redan finns. Jämför detta med de kommande lanseringarna av RDNA2 och Ampere. Där kan vi prata intressant och köpsug.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Datavetare
Skrivet av highspeed:

ahh när den går ned till 4200 eller vad det är. När den drar 4900 på alla cores konstant drar den 295 watt under blender medans 3900x drar 220.

https://www.kitguru.net/components/leo-waldock/intel-core-i9-...

Fast hur relevant är CPU-prestanda för något renderingsfall 2020? D.v.s. varför skulle man köra 3D-rendering på på CPU när till och med laptop-versionen av GTX 1660-Ti är ungefär 45 % snabbare än 3950X och dubbelt så snabb som i9-10900K?

Om man specifikt tittar på Blender så stödjer ju version 2.81 och framåt OptiX (prestanda med OptiX har ökat ännu lite till i 2.82), d.v.s. de kan använda RT-kärnorna hos RTX-korten. Visst kan man rendera på CPU, men förutom att värma rummet dator står i känns det rätt poänglöst.

Just detaljen att GPGPU totalt demolerar CPUer i de fall som skalar riktigt bra med kärnor kommer förhoppningsvis att styra lite vad CPU-tillverkarna använder transistorerna till i framtida CPUer. GPUer kan inte göra allt. GPUer är värdelösa på allt som kräver maximal enkeltrådprestanda, men då vi börjar få allt bättre bibliotek/verktyg kring programutveckling för GPGPU så kommer allt fler av de fall som skalar riktigt bra över kärnor allt mer köras på GPU/FPGA/NPU.

Ett jätteproblem här är att Windows gör att vi är rätt hårt fast med x86. För det är uppenbart att om man dumpar x86 är det möjligt att rejält skruva upp IPC. De som vill se utveckling framöver bör hålla tummarna att Microsoft kan få ordning på Windows på ARM64 alt. att marknaden går till något annat än Windows (det senare är nog det klart mer osannolika fallet).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman: WSL2 i Windows 10 2004 är en hint om framtiden, inte längre emulering utan det är en riktig Linux-kärna som kör parallellt med Windows med hjälp av Hyper-V = full Linux-prestanda.

Vissa tror tom att Microsoft kommer att gå över helt till en renodlad Linux-kärna i Windows inom en inte allt för lång framtid, så att det blir Windows gamla subsystem som "emuleras" istället. Om så blir fallet, så blir vägen över till ARM ännu lättare.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Skrivet av Yoshman:

Fast hur relevant är CPU-prestanda för något renderingsfall 2020? D.v.s. varför skulle man köra 3D-rendering på på CPU när till och med laptop-versionen av GTX 1660-Ti är ungefär 45 % snabbare än 3950X och dubbelt så snabb som i9-10900K?

Jag ser renderingstester som en benchmark test. Ytterst få köpare sysslar med större renderingar och egentligen borde det inte vara ett intressant test. Problemet med andra krävande tester är att de både är svårare att utföra, förklara och få likvärdigt resultat varenda gång.
Lite samma sak är det med speltester om man går upp i lite exklusivare prylar än vad denna tråd handlar om. -Både för grafikkort och cpuer
Men ändå, spel är ett bra test. Att testa en megastor cadritning, ja alla har ej samma cadritning, olika personer kör olika program. Ibland kostar cadprogrammet mer än en billigare lägenhet i inköp.

För den stora skaran så är inte de processorerna som tråden handlar om de intressanta, kanske Core i5-10600K men den är ändå lite dyr. Sett från tester med de grafikkort som den stora skaran har, så kan de skaffa en billigare cpu.

*edit*
Hur TITAN RTX (som nu är gammal) och Qudro presterar i spel är irrelevant, har man ett sådant grafikkort hemma så har man nog ändå inte tid och spela. Men ändå, speltester ger ändå en bra hint om prestandan.

Permalänk
Medlem
Skrivet av DavidtheDoom:

10900k såg ju rätt okej ut, både prestanda men även prismässigt.

Hur tänker du? Den är knappt snabbare än sin föregångare i spel. Du behöver köpa en separat kylare. Köpa ny bräda och en rätt bra sådan för att kunna få bra prestanda. Den drar mer och är varmare och är just nu dyrare (åter igen än sin föregångare.)

Permalänk
Medlem
Skrivet av highspeed:

nej totalen är mycket lägre på dem tester jag sätt för amd.. kit guru.. overclock3d..dem mäter hela systemet..

Ingen av dem har resultat som du beskriver.
I overklock3ds recension får tom 9900k lägre powerdraw än alla ryzens på x570. Endast de med x470 kommer marginellt lägre (som jag nämnade ovan).
https://www.overclock3d.net/reviews/cpu_mainboard/amd_ryzen_7...

Också i kitguru relativt jämnt i strömförbrukning, lite bättre i load på amd, lite bättre idle på intel (notera att alla intel i denna kör all-core turbo dvs 9900k "överklockad" till 4.9Ghz allcore), men sedan har man en tabell med prestanda per watt där ryzen har mycket bättre siffror, men detta är lite missvisande då alla intel i deras test kör all-core turbo och/eller OC, och cinebench är lite av ett best-case scenario för ryzen, av någon anledning.
https://www.kitguru.net/components/cpu/luke-hill/amd-ryzen-9-...
Sweclockers gjorde ett liknande test med att rendera färdigt en scen, dvs resultatet är prestanda per watt, där 9900k drog 8.3% mer än 3700x att rendera samma scen. Men lägre idle.
https://www.sweclockers.com/test/27760-amd-ryzen-9-3900x-och-...

Den mest detaljerade jag kan minnas är denna, med test i både idle, gaming, singlecore, och cinebench multicore.
https://www.techpowerup.com/review/amd-ryzen-7-3700x/18.html
9900k drar 12% mer än 3700x i prime95, 5% mer i cinebench, medan 9900k drar mindre i idle, gaming, single threaded.

Poängen var bara som innan, att det är så jämnt att det inte är värt att ens tänka på energiförbruk för konsumentinköp - amd marginellt bättre i full load, intel marginellt bättre i övrigt, men ingen av dem kommer märkas i plånboken.
För 24/7 allcore full load produktivitet är det ett dugligt övertag amd, men då hamnar man ofta i scenariot "borde jag göra detta på en server?"

Permalänk
Medlem
Skrivet av drakelito:

Är det sista gången Intel släpper 14nm tror ni, eller blir det fler?

Det blir en till på 14nm tror jag innan de går över på 10.

Visa signatur

Moderkort: ASRock H61M- DGS, Processor: Intel i3 3225, Grafik: GTX 460SE, RAM 2x4 GB 1600MHz ddr3 , 1TB HDD Seagate Barracuda, 450W Antec VP450P PSU och en stor svart jävla låda.

Permalänk
Medlem

Hoppas det blir ett scenario där intel och amd drar/leder ett halvår i taget. Det skulle nog pressa priserna för oss konsumenter.

Det blir onekligen intressant med de nya GPUerna som förhoppningsvis flyttar flaskhalsen uppåt i upplösning.

EDIT: Tack @JonasT och resten av Swec för allt jobb!

Permalänk
Medlem
Skrivet av kakan86:

Nu åker min 3770k ut

Jag köper ?

Visa signatur

No1. Intel Core i7-11700K @5ghz - Msi MPG Z590 Gaming Plus
- 32gb DDR4-3200MHz - GIGABYTE RTX 3080 Ti EAGLE
--------------------------------------------------------------------------------
No2. Intel Core i7-10700K @5GHz - Msi MPG Z490 Gaming Carbon WIFI
- 32GB DDR4-3200MHz - ZOTAC RTX 2080 Ti ArcticStorm

Permalänk
Medlem

Buy the way, så enkelt att välja Intel för spel, för att utan att kunna något om överklockning så rullar den i 5 ghz+ och de är fan bättre än amds 100 kärnor i 4.vad som helst alla dagar i veckan.

Visa signatur

No1. Intel Core i7-11700K @5ghz - Msi MPG Z590 Gaming Plus
- 32gb DDR4-3200MHz - GIGABYTE RTX 3080 Ti EAGLE
--------------------------------------------------------------------------------
No2. Intel Core i7-10700K @5GHz - Msi MPG Z490 Gaming Carbon WIFI
- 32GB DDR4-3200MHz - ZOTAC RTX 2080 Ti ArcticStorm

Permalänk
Medlem
Skrivet av Yoshman:

Fast hur relevant är CPU-prestanda för något renderingsfall 2020? D.v.s. varför skulle man köra 3D-rendering på på CPU när till och med laptop-versionen av GTX 1660-Ti är ungefär 45 % snabbare än 3950X och dubbelt så snabb som i9-10900K?

Nu var det ett tag sen jag höll på med rendering, men vad jag vill minnas finns det dom som helt enkelt tycker att cpu-rendering ger bättre resultat. Har ens alla renderare stöd för grafikkort, det hade dom inte förr iaf

Permalänk
Medlem
Skrivet av qquality:

Nu var det ett tag sen jag höll på med rendering, men vad jag vill minnas finns det dom som helt enkelt tycker att cpu-rendering ger bättre resultat. Har ens alla renderare stöd för grafikkort, det hade dom inte förr iaf

För videokonvertering ger CPU bättre kvalitet, även om skillnaden har minskat i och med den nya NVENC i Turing. Men för 3D rendering känner jag inte till att det skulle vara någon kvalitets skillnad alls.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Väldigt välgjord recension! Uppskattar allt jobb ni lägger ner!

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Medlem

@JonasT Bra skriven artikel, kommer med feedback av något jag är intresserad utav nämligen lagring och streaming.

Tre saker jag kan tänka mig vara bra att ha med på recensionen (och bedömning) av CPU:er och dess plattform.
1) PCIe banor direkt från CPU till enheter utöver grafikkortet som NVMe diskar.
2) CPU - Chipset kommunikation.
3) Spelprestanda när man stream:ar live eller spelar in

Angående 1:a punkten om NVMe diskar, trots att detta chipset och cpu inte har PCIe 4.0 så har CPU:n inte heller några dedikerade PCIe 3.0 banor över till SSD lagring(*) om man inte går ner till PCIe 3.0 x8 eller lägre med grafikkortet.

Angående 2:a punkten, DMI 3.0 innebär en begränsning (idag är det en begränsning) med 4GB/s överföring totalt mellan chipset och cpu. En enda NVMe disk kan "störa ut" eller störas prestandamässigt av samtliga andra I/O enheter som befinner sig på moderkortet.

Angående 3:e punkten, både live streaming och game recording har blivit mer populärt idag och fått bättre stöd från både Nvidia och AMD. Det medföljer mjukvara från grafikkortstillverkarna samt så finns det andra externa program som OBS.
Att stream:a med h.264 eller h.265 via CPU:n eller GPU:n är intressant att se hur det ter sig prestandamässigt samt kvalitetsmässigt.
Själv händer det att jag spelar in när jag skulle få till något kul (spara de senaste 2 minuterna)
För andra så kan det vara intressant att veta hur plattformen / CPU:n fungerar om man vill börja stream:a på twitch t.ex.
.

(*) Angående "SSD lagring", ingenstans i er artikel eller i de bilder från Intel ni visar, visar någon form av stöd för NVMe/M.2. Det står antingen "Intel SSD" via CPU:n direkt eller Intel Optane via chipset.

Annars syns indirekt stöd(?) via Chipset (med DMI 3.0 begränsningen) via PCIe slot eller att man går ner till max PCIe 3.0 x8 för grafikkortet på CPU:n och där indirekt ha M.2 stöd via PCIe slot.
Indirekt via PCIe slot menas med att man behöver en sådat instickskort som har en eller flera M.2 anslutningar.

Jag ger feedback på detta då plattformen i sig är i ett högre prestandasegment, "entusiast nivå"; Att plattformen i sig verka vara begränsad I/O-mässigt men att artikeln inte kanske är så tydlig med det som i detta fall gällande lagringen.
(eller så har jag missat den delen, hittade inte i sida 2, 3 eller i sammanfattningen)

Permalänk
Skrivet av Brunsas:

Buy the way, så enkelt att välja Intel för spel, för att utan att kunna något om överklockning så rullar den i 5 ghz+ och de är fan bättre än amds 100 kärnor i 4.vad som helst alla dagar i veckan.

Man sätter upp en budget och väljer de prylar som presterar bäst för denna budget. Beroende på vad ens budget är och vad priserna på produkterna är så blir olika val bäst.
Sedan är inte spel allt folk gör vid datorn 'ven om de spelar, vilket påverkar valet av det mesta. Idag är väl skärm det tydligaste, där folk får kompromissa.

Skrivet av HappyPie:

3) Spelprestanda när man stream:ar live eller spelar in

Att datorintresserade ofta har en massa bröte i bakgrunden har jag länge påverkat, men allt eftersom processorn får fler kärnor som ej utnyttjas i de ordinarie programvarorna, så ökas möjligheterna för att köra annat i bakgrunden.
Man skulle tro att intresset av att bearbeta data skulle öka, men folk verkar få mindre intresse av detta och istället användning av datorn som en nöjesak.
Alltså hur presterar processorn i spel om man samtidigt låter den rendera film, bearbeta databaser eller annan data? Problemet med dessa tester är att de är otydliga, men nu när processorn är uppe i 10 core så täcker den en större skaras behov.

*edit*
För att ta ett exempel så importerade jag en större ifc fil i cad, det tog lite över 24h. Under denna tid kanske jag skulle vilja spela på samma dator och då är kanske inte en 4 core bästa valet.

Permalänk
Medlem

Bättre än väntat ifrån min sida faktiskt. Men det kostar.

Köper man denna för att räkna med att stoppa i ett 3080 Ti när det kommer så gör man enligt mig bort sig. Vänta till 3080 Ti kommer utifall att du även i då kan vänta till Zen 3.

Sen är nog Z490 rolig att leka med som överklockare om man har oändlig budget och köper datorer som en annan köper strumpor.

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av Sando:

Ser man på t.ex. Steam hardware survey så är de vanliga grafikkorten:

GTX 1060 (12,01%)
GTX 1050 Ti (8,48%)
GTX 1050 (5,42%)
GTX 1070 (4,22%)
GTX 1660 Ti (2,55%)

Toppkorten ligger alla duktigt under 2%. Räknar man ihop 1080 och bättre och rtx 2070 super och bättre så är det fortfarande under 10%.

Ser man på marknaden som helhet, borträknat runt 5% som spelar twitch fps och är villiga att spendera närmare 20 000kr på datorn, så är det bara de billigare i5:orna som är intressanta den här generationen, förutsatt att de hamnar i samma prisklass som Ryzen 3600 med moderkort inräknat.

Sen finns det alltid undantag, och t.ex. i5-10600KF är ju en väldigt nischad processor.

Har ett 1050ti + G4650 i min HTPC. Det går att spela typ allt, bara man inte är kräsen. Det är bara de riktigt tunga AAA spelen som man behöver se upp med. T.ex. Control behöver ner till 720p för att klara 60FPS på low-medium, 1080p 30fps går bra i typ medium-high vilket säkert är ungefär vad man får på en PS4 (ej pro) om inte bättre.

Det jag vill säga är att de som köper high-end kort är en bråkdel % av marknaden, de flesta sitter med low-mid-tear kort som du listar ovan och spelar Dota, fortnite, cs-go, minecraft etc.

Att alla spelsiter benchmarkar alla spel på 1440p Ultra skapar en inflation genom att ge ett intryck av att "oh shit inte ens ett 2080ti klarar av att driva runt detta spelet, bäst jag uppgraderar". Dessa ultrainställningar ger oftast knappt märkbart bättre visuell upplevelse mot ibland 30-40% mindre prestanda. Vi ska inte ens snacka om ray tracing

EDIT: det jag ville säga är att jag håller med dig. Kanske inte framgick

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Blir nog till att byta ut 4770k till hösten, 10900k verkar leverera.

Visa signatur

Define XL R2 || CM Silent Pro M1000 || Asus Z490-F || Intel i9 10900k || Noctua NH-D15 || RTX 2080 || 64GB DDR4 || 1TB 970 Evo Plus M.2 + 1.5TB SSD + 2TB HDD || Win10 Pro

Permalänk
Medlem

Någon här som lyckats få tag på nån Gen10 cpu idag, själv har jag förbokat en 10900K. Hade dock inte turen att få den idag tyvärr:(

Permalänk
Medlem

Om man tittar på förväntat köpsug för dessa så är moderkorts tillverkarna en bra indikation, det har annonserats 44 modeller av Z490 samtidigt som B550 kommer att komma i 60 modeller. Trots att det redan finns en uppsjö av AM4 moderkort men inga LGA1200. Lätt att se vilka man tror att man kommer att sälja fler av.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av dagas:

Egentligen har inget ändrats mot innan. Köp intel för spel annars AMD.

Tror båda funkar bra både till spel och programmering/streaming/rendering etc.

Visa signatur

SpelDator: | Asus ROG Strix XG438Q 4K 120hz| AMD Ryzen 5 5600X 3.7 GHz 35MB| B450 I AORUS PRO WIFI| MSI Radeon RX 6800 16GB | Corsair Force MP510 1920GB M.2 NVMe | Samsung EVO 860 2TB | Seagate Guardian BarraCuda 2.5 5TB| Corsair 32GB (2x16GB) DDR4 3600MHz CL18 Vengeance LPX Svart| Ghost S1 MK2| Corsair SF750 750W 80+ Platinum| Logitech MX Sound| WD My Passport V2 USB 3.0 4TB| Buffalo Mediastation Ultra-Thin Portable Blu-Ray writer| Logitech Logitech G604 Lightspeed

Permalänk
Medlem
Skrivet av the squonk:

Om man tittar på förväntat köpsug för dessa så är moderkorts tillverkarna en bra indikation, det har annonserats 44 modeller av Z490 samtidigt som B550 kommer att komma i 60 modeller. Trots att det redan finns en uppsjö av AM4 moderkort men inga LGA1200. Lätt att se vilka man tror att man kommer att sälja fler av.

Billigare priser lockar fler köpare. Vad försöker du få sagt?

Visa signatur

"De tillverkares komponenter som just jag råkar ha i min dator är bäst, det vet jag för jag var dum nog att betala för det" (:

Permalänk
Medlem

Tycker de lyckats helt okej med den begränsade 14 nm plattformen ändå.
Dock avvaktar jag 5 nm Ryzen nästa år och DDR5.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem

Sitter fortfarande på en 5820k och tänker nja ingen ny cpu detta året heller...

Visa signatur

Hemmabio ljud Denon x2700h - Dali Oberson 7 - Dali Oberson 1 - Dali Vokal - Dali Altevo - Dali Sub e-12
Kamera Sony a7r iv - Sony 16-35 - Sony 105 - Sony 100-400
Hemsida Instagram

Permalänk
Medlem
Skrivet av Yoshman:

Fast hur relevant är CPU-prestanda för något renderingsfall 2020? D.v.s. varför skulle man köra 3D-rendering på på CPU när till och med laptop-versionen av GTX 1660-Ti är ungefär 45 % snabbare än 3950X och dubbelt så snabb som i9-10900K?
https://cdn.sweclockers.com/artikel/diagram/18591?key=a41a76837d1bb225eff6b2b7a31b3af9
https://cdn.sweclockers.com/artikel/diagram/19985?key=35f7a33c4bba3d9c943a4ea517e0183a

Om man specifikt tittar på Blender så stödjer ju version 2.81 och framåt OptiX (prestanda med OptiX har ökat ännu lite till i 2.82), d.v.s. de kan använda RT-kärnorna hos RTX-korten. Visst kan man rendera på CPU, men förutom att värma rummet dator står i känns det rätt poänglöst.
https://wiki.blender.org/w/images/a/ae/Blender2.81_cycles-rtx-performance-1.png

Just detaljen att GPGPU totalt demolerar CPUer i de fall som skalar riktigt bra med kärnor kommer förhoppningsvis att styra lite vad CPU-tillverkarna använder transistorerna till i framtida CPUer. GPUer kan inte göra allt. GPUer är värdelösa på allt som kräver maximal enkeltrådprestanda, men då vi börjar få allt bättre bibliotek/verktyg kring programutveckling för GPGPU så kommer allt fler av de fall som skalar riktigt bra över kärnor allt mer köras på GPU/FPGA/NPU.

För min egen del ser jag inte så extrema skillnader när jag kör blender. Och då har jag ändå ett 2080 Ti. Jag gissar att 2080 Ti är kanske 4-5 gånger snabbare (det var ett tag sen jag klockade det, så ta inte detta som exakt vetenskap!) än 20 trådar på 3900X (sparar fyra för att systemet ska kunna göra annat under tiden), generellt sett. Processorn hjälper alltså till ganska betydligt. Det hade gått ännu snabbare om blender-renderingen hade klarat att allokera en ruta till hela processorn, i stället för en ruta per tråd. Eftersom grafikkortet bara arbetar med en ruta i taget, så kan det i vissa fall bli så att processorn "fastnar" med de sista rutorna, och de kan vara ganska många när man har många processortrådar, samtidigt som grafikkortet sitter utan jobb. Antingen kunde man göra så att renderingsmotorn förde statistik på den relativa prestandan för varje renderingsenhet (ett grafikkort, en processortråd) och om den förväntade kvarvarande beräkningstiden för en ruta är längre för den enhet som arbetar på den, så förkastas det dittills räknade och den snabbare enheten tar över. På så vis snabbas slutet av en rendering upp enormt. Alternativt, som sagt, att processorn som helhet tilldelas en ruta, som sen delas upp i mindre delar per tråd, och då når liknande renderingstider som grafikkortet, och därmed är mer i synk.

Optix-rendering stödjer för övrigt inte alla funktioner i cycles, så den är inte universellt gångbar. Fast det kanske den blir med tiden.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av Bewise:

Tror båda funkar bra både till spel och programmering/streaming/rendering etc.

Folk som vill ha max fps spelar garanterat i 800x600 low med renderscale på 5 för att få ut så hög fps som möjligt för det går inte att spela annars medans en annan casual spelare så är man nöjd bara det flyter på vilket det gör oavsett om det är AMD eller Intel, sitter inte och ränkar fps utan spelar spelet och ser hur bra det flyter på
Ungefär som att man köper en lamborghini aventador och man måste köra den i 349 km/h hela tiden för att man betalar för den prestandan som bilen klarar sen ska man helst trimma den lite till för extra power. Så går det ännu fortare

Skrivet av Henrikfotograf:

Sitter fortfarande på en 5820k och tänker nja ingen ny cpu detta året heller...

Duger fortfarande garanterat i några år till.

Permalänk
Medlem
Skrivet av ExcZist:

Folk som vill ha max fps spelar garanterat i 800x600 low med renderscale på 5 för att få ut så hög fps som möjligt för det går inte att spela annars medans en annan casual spelare så är man nöjd bara det flyter på vilket det gör oavsett om det är AMD eller Intel, sitter inte och ränkar fps utan spelar spelet och ser hur bra det flyter på
Ungefär som att man köper en lamborghini aventador och man måste köra den i 349 km/h hela tiden för att man betalar för den prestandan som bilen klarar sen ska man helst trimma den lite till för extra power. Så går det ännu fortare

Så kan och är det nog 🙂

Visa signatur

SpelDator: | Asus ROG Strix XG438Q 4K 120hz| AMD Ryzen 5 5600X 3.7 GHz 35MB| B450 I AORUS PRO WIFI| MSI Radeon RX 6800 16GB | Corsair Force MP510 1920GB M.2 NVMe | Samsung EVO 860 2TB | Seagate Guardian BarraCuda 2.5 5TB| Corsair 32GB (2x16GB) DDR4 3600MHz CL18 Vengeance LPX Svart| Ghost S1 MK2| Corsair SF750 750W 80+ Platinum| Logitech MX Sound| WD My Passport V2 USB 3.0 4TB| Buffalo Mediastation Ultra-Thin Portable Blu-Ray writer| Logitech Logitech G604 Lightspeed

Permalänk
Medlem

I verkliga laster med verkliga programvaror som används, exempelvis Office (PCMARK 10), i princip samtliga CAD-program etc är en processor som 10900K perfekt, extremt hög singeltrådsprestanda.

Spelar man syntetiska benchmarks som gör saker en GPU är bättre lämpad för eller räknar ut Pi 100ggr parallellt är en Ryzen 3xxx bättre lämpad.

Det finns undantag men man kan väl knappast kalla 7-zip ett produktivitetsprogram? I videorenderingsbenchmarks skulle man också få en skjuts om man tillät QuickSync på Intels processorer att explicit inte tillåta det gör testerna menlösa eftersom ingen i verkligheten vill ha sämre prestanda för att det röda laget saknar motsvarighet.

Jag vill bara poängtera att den sedan snart ett år cementerade myten "Intel för Spel, AMD för allt annat" är helt fel. För i princip alla användare är singeltrådsprestanda viktigast, ytterst få har behov av många kärnors maxprestanda. Dessa typer av uppgifter flyttas normalt till en server så att användaren kan arbeta vidare med den interaktiva delen som per definition är enkeltrådad. Det finns renderingsservrar, kompileringsservrar etc.

Med det sagt är det ju tråkigt att Intel inte lyckas prestera högre per kärna än vad de gör, utvecklingen har minst sagt stagnerat och om AMD fortsätter i nuvarande takt har de snart kronan i enkeltrådsprestanda.

Permalänk
Medlem
Skrivet av tellus82:

Vet inte om någon förnekat att Intel är snabbare rent generellt i spel, det är dock inte massiva marginaler i allt och det är i en del faktiskt det motsatta, det beror dock på vad man jämför. Men för att generalisera så är Intel det bättre valet för spel och speciellt när man satsar på high refreshrate gaming, alltså max fps, typ 2080ti i 1080p med låga ingame inställningar, där kommer en 10900k dra ifrån 3900x i många spel. Jag tror de billigare K processorerna ur 10 serien kommer vara ett långt mer intressant alternativ för de som enbart spelar och satsar på max FPS, satsar man däremot på att spela i över 1080p med högre ingame inställningar på mellanklass gpu så blir skillnaderna mer eller mindre obefintliga i de flesta moderna titlar (far cry/dunia baserade spel är ett undantag) och där kommer valet mellan Intel och AMD mer hamna på vad man mer använder burken till eller vad man kan få för en viss summa pengar.

När det kommer till saker som inte är spel blir det lite det motsatta rent generellt, där ligger Intel nu under över lag även med 10900k sett mot 3900x som är dess närmsta priskonkurrent, sen har vi 3950x som Intel inte har ett svar till, alls, och det syns också på priset AMD kan ta för 3950x.

Personligen är jag lite snopen över just hur lite IPC ökningar som gjorts hos Intel under förvånansvärt lång tid, jag hade faktiskt trott att vi skulle få se mer prestanda än vi idag faktiskt ser från just 10900k, denna bild är en aning deprimerande i min mening, det är rätt många år vi pratar här mellan 6700k och 10900k

https://cdn.sweclockers.com/artikel/diagram/19990?key=2f27bd329d32d8fb894395ee9fd6f25b

"Vet inte om någon förnekat att Intel är snabbare rent generellt i spel, det är dock inte massiva marginaler i allt och det är i en del faktiskt det motsatta" var är det det mot satta?

"Personligen är jag lite snopen över just hur lite IPC ökningar som gjorts hos Intel under förvånansvärt lång tid, jag hade faktiskt trott att vi skulle få se mer prestanda än vi idag faktiskt ser från just 10900k, denna bild är en aning deprimerande i min mening, det är rätt många år vi pratar här mellan 6700k och 10900k"

Väldigt depp att just du som kan ge så många bra råd inte vet vad du skriver. 6700k är samma arkitektur i botten som 10900k. Så då kan man trimma "hotspot" för att få upp frekvens och "gates" hur mycket man läcker ström på vissa ställen (sandlåda nivå jag vet). Så hur kan du bli soppen på att IPC inte ökar?

Nästa CPU för spel för stationär dator är Rocket Lake, Intel är kvar på 14+++++ men en ny arkitektur i botten. Det jag har sett är 4,6GHz 8C 16T den slår alt som nånsin har set denna värld för att förse oss spelare med max FPS.. Men vad vet jag, Kina är säkert på gång med en ny CPU som är bättre än allt....host host host

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Medlem

AMD Ryzen 5 3600 är fortfarande ett riktigt kap med andra ord. Med de nyare och billigare moderkorten blir det ännu mer så.