Intel Core i9-12900K spöar Ryzen 9 5950X i Cinebench

Permalänk
Medlem
Skrivet av sesese:

Låter som det kommer en XT modell med upp till +15% innan nyår från AMD i befintlig sockel.

Det senaste skvallret är att 15% är konservativt räknat.

Permalänk
Skrivet av anon5930:

Om du ska ha en längre tid så skadar det ju inte att invänta iallafall Intel. Med tanke på hur svår 5900X och 5950X är att hitta i handeln så kanske det blir så oavsett.

Jag måste ha en enorm bonnröta för jag hittade både 5900X och 5950X på första försöket https://www.netonnet.se/art/datorkomponenter/processor/amdsoc...

Permalänk
Avstängd
Skrivet av Chris_Kadaver:

Med den filosofin kan jag inte förstå varför folk i så fall köper annat än i3 10105f? Tricket är väl ändå att ställa ned allt på low det första man gör så slipper man känna att man slängt cpu-pengarna i sjön?!

Snarare så är det shopping-beroende och behovet av att ha det senaste och trendigaste som pushar folk att köpa snabbare saker alltför fort innan de faktiskt behöver dem.
Det är lite av en statusgrej. Som med mobiler.
Vi triggar också varandra genom ditt senaste köp tråden, trådar om deals, reklam osv. Som påverkar oss mer än vi tror.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

Konkurens är bra för utveckling!

Visa signatur

“Problems that remain persistently insoluble should always be suspected as questions asked in the wrong way.” ― Alan W. Watts

Permalänk
Medlem

Antaganden...

Jag fattar inte hur man kan skriva om nåt som är ett antagande?....
och människor ska diskutera ett antagande, för eller emot....
Sen ser man HA INTEL SMISKA Bla....Bla AMD...Bla..Blaa.
Är det här ett forum för att sprida rykten, antagande, fanboyism,
och haters?... Nä som tur finns det riktigt duktiga användare här
som inte gör antaganden utan tillräckliga bevis, fakta eller känslor.
Jag har många gånger skakat på huvudet... AMD är skit!, deras
drivrutiner är skit osv...INTEL är skit Bla..Bla, Xbox är skit, PS5 är skit
haha jag är skittrött på allt skitsnack!... Nvidia Bla...Bla... Förklara
gärna varför istället, med fakta... Ni får ursäkta men jag kunde inte
hålla käf..n längre... Have a good one!.

Permalänk
Medlem
Skrivet av Loke66:

Jag fattar inte hur man kan skriva om nåt som är ett antagande?....
och människor ska diskutera ett antagande, för eller emot....
Sen ser man HA INTEL SMISKA Bla....Bla AMD...Bla..Blaa.
Är det här ett forum för att sprida rykten, antagande, fanboyism,
och haters?... Nä som tur finns det riktigt duktiga användare här
som inte gör antaganden utan tillräckliga bevis, fakta eller känslor.
Jag har många gånger skakat på huvudet... AMD är skit!, deras
drivrutiner är skit osv...INTEL är skit Bla..Bla, Xbox är skit, PS5 är skit
haha jag är skittrött på allt skitsnack!... Nvidia Bla...Bla... Förklara
gärna varför istället, med fakta... Ni får ursäkta men jag kunde inte
hålla käf..n längre... Have a good one!.

Annars då?

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av Loke66:

Jag fattar inte hur man kan skriva om nåt som är ett antagande?....
och människor ska diskutera ett antagande, för eller emot....
Sen ser man HA INTEL SMISKA Bla....Bla AMD...Bla..Blaa.
Är det här ett forum för att sprida rykten, antagande, fanboyism,
och haters?... Nä som tur finns det riktigt duktiga användare här
som inte gör antaganden utan tillräckliga bevis, fakta eller känslor.
Jag har många gånger skakat på huvudet... AMD är skit!, deras
drivrutiner är skit osv...INTEL är skit Bla..Bla, Xbox är skit, PS5 är skit
haha jag är skittrött på allt skitsnack!... Nvidia Bla...Bla... Förklara
gärna varför istället, med fakta... Ni får ursäkta men jag kunde inte
hålla käf..n längre... Have a good one!.

Visa signatur

AMD Ryzen 5 7600X (Arctic Liquid Freezer II 280) | MSI RTX 4090 Gaming Trio | 32 GB G.Skill Trident Z5 RGB DDR5-6400 C32 | ASRock B650E PG-ITX WiFi | Asus Loki 850 W | Cooler Master NR200P (Galleri)

Permalänk
Skrivet av Loke66:

Jag fattar inte hur man kan skriva om nåt som är ett antagande?....
och människor ska diskutera ett antagande, för eller emot....
Sen ser man HA INTEL SMISKA Bla....Bla AMD...Bla..Blaa.
Är det här ett forum för att sprida rykten, antagande, fanboyism,
och haters?... Nä som tur finns det riktigt duktiga användare här
som inte gör antaganden utan tillräckliga bevis, fakta eller känslor.
Jag har många gånger skakat på huvudet... AMD är skit!, deras
drivrutiner är skit osv...INTEL är skit Bla..Bla, Xbox är skit, PS5 är skit
haha jag är skittrött på allt skitsnack!... Nvidia Bla...Bla... Förklara
gärna varför istället, med fakta... Ni får ursäkta men jag kunde inte
hålla käf..n längre... Have a good one!.

Se det mer som ett tidsfördriv. Är man ute efter mer ren fakta finns garanterat andra kanaler som ej översvämmas av vanliga användare.

Problemet jag tycker med Big-Little är att man i praktiken får se hur bra den är. Det fins en poäng om windows endast klarar sig på de små kärnorna vid lätta laster så man kan få bättre batteritid etc.

Permalänk
Medlem
Skrivet av Yoshman:

Ändå har saker rejält börjat spåra ur för x86. Ett annat rykte gör gällande att Golden Cove består av ~4 gånger så många transistorer jämfört med Gracemont. Om ryktena kring IPC stämmer för båda ger denna 4x ökning i transistorbudget endast 40-50 % högre IPC.

I isolation är det ändå rätt coolt, Golden Cove kommer ha vara världens snabbast CPU-kärna när den släpps (för allt pekar på att den går att klocka >5 GHz).

Ställd mot framförallt Apples Firestorm känns det ändå meh, Firestorm utför 80-100 % mer per cykel jämfört med Skylake, så fortfarande ~30 % mer per cykel jämfört med Golden Cove. Om Apple, precis som x86-gänget, helt slänger perf/W ut ur fönstret skulle rimligen även de kunna klocka betydligt högre än de 3,2 GHz man stannat på nu (och vid den frekvensen matchar man Cypress Cove / Zen3 när dessa kör >5 GHz).

Fast är det rättvist att jämföra mängden transistorer mellan Golden Cove och Gracemont? Golden Cove borde väl jämföras med Skylake? Detta då båda är optimerade för frekvens.

Skillnaden mellan Skylake och Gracemont är väl hur mycket extra hårdvara som behövs för att få upp samma IPC i högre frekvens. Mycket möjligt att Apples kärnor i nuvarande form inte klockar nämnvärt högre, och att det krävs en omstrukturering med fler transistorer för att möjliggöra det.

Permalänk
Medlem

SNÄLLA....
Cinebench säger inte ett skit om hur bra processorn är, alla pinsamma teknikredaktioner som fortsätter använde detta benchmark driver i värsta fall fram processorer optimerade för det. Det finns redan grafikprocessorer. Låt CPUn arbeta med sådant den är lämpad för.

Permalänk
Datavetare
Skrivet av ajp_anton:

Fast är det rättvist att jämföra mängden transistorer mellan Golden Cove och Gracemont? Golden Cove borde väl jämföras med Skylake? Detta då båda är optimerade för frekvens.

Skillnaden mellan Skylake och Gracemont är väl hur mycket extra hårdvara som behövs för att få upp samma IPC i högre frekvens. Mycket möjligt att Apples kärnor i nuvarande form inte klockar nämnvärt högre, och att det krävs en omstrukturering med fler transistorer för att möjliggöra det.

Hur man väljer att designa en CPU påverkar självklart kraftigt vilken dess realistiska maximala frekvens kommer bli.

Men är ingen större korrelation mellan antalet transistorer och hur högt det går att klocka.

Ta Pentium 4 som exempel, den gick för sin tid att "klocka till månen", sett till komplexitet och antal transistorer var det en relativt enkelt CPU. Hela grundtanken med P4 var ju en smal och "djup" design som därmed medvetet utförde rätt lite per cykel. Faktiskt prestanda är frekvens * IPC, planen för P4 var ju att låta den första faktorn dra lasset.

Det som fick P4, Bulldozer och POWER6 (alla försök till "frequency demons") att haverera var att strömförbrukningen verkar rejält börja spåra ur när man passerar ~4 GHz och perf/W verkar vara som mest optimalt mellan 2-3 GHz (är ju där servers håller sig vid all-core last, där telefoner håller sig och där bärbara går ned till för att maximera sin effektivitet).

Ska man hålla sig <4 GHz måste ju den andra faktorn dra lasten, d.v.s. man måste maximera IPC. Att öka IPC är långt mer komplicerat än att öka frekvens, framförallt för "gamla" ISA som 32-bit ARM och x86 då dessa är HW-världens motsvarighet till att försöka skriva effektiva multitrådade program med massvis med delat tillstånd mellan kärnor. Det fungerar inte precis optimalt!

Gracemont kan inte klocka lika högt som Skylake, huvudorsaken är att man "by design" har prioriterat en relativt kort pipeline i Atom-serien. En kortare pipeline gör CPUn mer effektiv när den spekulera fel, vilket dels höjer IPC något men framförallt ökar det perf/W (kostar mindre ström oavsett hur spekuleringen går). Hur mycket transistorer som går åt beror långt mer på hur "bred" man väljer att göra designen, samt hur mycket cache man stoppar i.

Gracemont har i princip lika mycket cache som "big core", den har 64 kB L1I$ (både Golden Cove/Zen3 har 32 kB), 32 kB L1D$ (Golden Cove har 48 kB, Zen3 har 32 kB), 2 MB L2$ per två kärnor (Golden Cove har 1,25 MB och Zen 3 har 512 kB per kärna).

L3$ ligger rent tekniskt utanför CPU-kärnan och lite oklart om alla kärnor i Alder Lake kan använda hela L3$, men det känns väl rätt troligt (L3$ storleken verkar hamnar på 30 MB, det är i alla fall vad som rapporterats i läckta GB5 resultat).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Ökningar i singeltrådprestanda i cinebench brukar väl gå att översätta till ökad spelprestanda rakt av typ? Däremot riskerar väl DDR5 bli så dyrt att man kanske ändå kommer vilja välja en äldre plattform. Jag ångrar att jag inte slog till på en Ryze. 5 5600X för 2300:- som dom såldes för av amazon härom dagen.

Ja, blir svårt för många att motivera en uppgradering i början.
Förutom hemska priser så är det alltid barnsjukdomar.
Min 5900X från release började ge upp redan efter ett halvår.

Visa signatur

Ryzen 5800X3D | 64 GB Ram | 7900 XTX | Samsung 990 Pro 4 TB + Seagate FireCuda 520 2TB * 2
Laptop: Core 9 Ultra 185H | 24GB Ram | RTX 4060 | 3 TB NVME

Permalänk
Medlem
Skrivet av Kaleid:

Nja, AMD var krossade under många år. Intel låg på toppen för länge och började ta det lungt lite väl mycket dock.

Man gjorde en del affärer som gjorde att AMD fick svårt att få ut sina prylar. Men Intel fick några miljoner/miljarder i böter och det har jämnat ut konkurrensen en del. Sen kan Intel fortfarande göra en del fula affärer även om ingen kommit på dem ännu.

Permalänk
Medlem
Skrivet av JonkenPonken:

Jag måste ha en enorm bonnröta för jag hittade både 5900X och 5950X på första försöket https://www.netonnet.se/art/datorkomponenter/processor/amdsoc...

Kan du hitta grafikkort också, men till normala priser ?

Permalänk
Skrivet av abki:

Kan du hitta grafikkort också, men till normala priser ?

Penningfråga 😉

Permalänk
Skrivet av anon333222:

Hade de misslyckats så borde ingenjörerna få sparken och VDn avgå. Med så mycket resurser och know-how. Då måste man bräcka Lill-konkurrenten AMD.

Skall alla ingenjörer avgå? , skall de som gör kapslingen, masken etc. också avgå?
Du verkar ha en viss övertro över vad en vanlig ingenjör kan påverka, men mest troligt vet du inte ett jotabarr om pruduktutveckling

Permalänk
Inaktiv
Skrivet av ZaaphodBleebronx:

Skall alla ingenjörer avgå? , skall de som gör kapslingen, masken etc. också avgå?
Du verkar ha en viss övertro över vad en vanlig ingenjör kan påverka, men mest troligt vet du inte ett jotabarr om pruduktutveckling

Misslyckas man med målen så får man väl gå. Eller tycker du att man ska få vara kvar oavsett hur dåligt man sköter sitt jobb?

AMD på grafikkortssidan har varit en typiskt organisation där man föredrar häftig ny teknik ala HBM. Så istället för att använda sig av beprövad gddr så hoppade man på det.

Permalänk
Inaktiv
Skrivet av anon333222:

Misslyckas man med målen så får man väl gå. Eller tycker du att man ska få vara kvar oavsett hur dåligt man sköter sitt jobb?

AMD på grafikkortssidan har varit en typiskt organisation där man föredrar häftig ny teknik ala HBM. Så istället för att använda sig av beprövad gddr så hoppade man på det.

Möjligen VDn om ägarna kräver det. Men att sparka ingenjörerna på dagens arbetsmarknad vore riskabelt, Intel likt konkurrenterna håller så hårt i dessa de kan.

Permalänk
Medlem

Blir intressant å se hur den presterar i Blender eller andra videoredigeringsprogram..

Visa signatur

"Saints are in Hell!"
Cooler Master Cosmos II || ASUS P8Z77-V-PRO TB ||Gainward 680 Phantom 4GB|| I7-3770K ||
G-Skill Ares 1866 MHZ 16 GB||BeQuiet! Dark Rock 2||OCZ Vertex 4 256 GB||Samsung 830 120GB||WD Enterprise 1TB||
Plextor PX-LB950SA||Dell U2410||Corsair AX 1200

Permalänk
Inaktiv
Skrivet av anon5930:

Möjligen VDn om ägarna kräver det. Men att sparka ingenjörerna på dagens arbetsmarknad vore riskabelt, Intel likt konkurrenterna håller så hårt i dessa de kan.

Ytterst ansvarig är ju VDn. Men med den devisen så håller man hellre i en dålig ingenjör istället för att konkurrenten ska få en. Så är det mycket möjligt.

Permalänk
Medlem
Skrivet av Mordekai:

SNÄLLA....
Cinebench säger inte ett skit om hur bra processorn är, alla pinsamma teknikredaktioner som fortsätter använde detta benchmark driver i värsta fall fram processorer optimerade för det. Det finns redan grafikprocessorer. Låt CPUn arbeta med sådant den är lämpad för.

Det säger massor om hur bra processorn är. Jag jobbar med rendering på CPU dagligen. Det är så all animation och VFX i filmer och TV görs idag. Självklart ska CPU:n vara bra på fler saker än Cinebench men att upphöra med det testet är bland det dummaste jag hört.

En annan lika dum sak från t.ex Linux-grundaren är att han önskar att AVX-512 skulle försvinna för att det är en gimmick som bara existerar för att göra bra benchmarks. https://www.sweclockers.com/nyhet/29982-linus-torvalds-jag-ho...
Men när dessa "benchmarks" (renderare / raytracing) är ens liv, då spelar Cinebench-tester och AVX en väldigt stor roll.
https://www.youtube.com/watch?v=-WqrP50nvN4

Visa signatur

Workstation: i7 2600K @ 4.2GHz - Zalman 9900 MAX | MSI P67A-GD65 B3 | Corsair XMS3 1600 (16GB) | MSI GTX 1070 Gaming X | Samsung 860 EVO 1TB | Antec P280 | Corsair HX 850W
Server: Atom C2750 (ASRock C2750D4I) | Kingston 2x8GB 1600 ECC | Intel S3500 160GB | 26TB WD Red | Silverstone DS380 | Silverstone SFX ST45SF-G

Permalänk
Medlem
Skrivet av Jenus:

Det säger massor om hur bra processorn är. Jag jobbar med rendering på CPU dagligen. Det är så all animation och VFX i filmer och TV görs idag. Självklart ska CPU:n vara bra på fler saker än Cinebench men att upphöra med det testet är bland det dummaste jag hört.

En annan lika dum sak från t.ex Linux-grundaren är att han önskar att AVX-512 skulle försvinna för att det är en gimmick som bara existerar för att göra bra benchmarks. https://www.sweclockers.com/nyhet/29982-linus-torvalds-jag-ho...
Men när dessa "benchmarks" (renderare / raytracing) är ens liv, då spelar Cinebench-tester och AVX en väldigt stor roll.
https://www.youtube.com/watch?v=-WqrP50nvN4

Får man fråga varför ni inte använder någon GPU-renderade? De flesta 3d-grafiker jag känner och arbetaplatser jag vart på har gått över till t ex Octane, redshift, V-Ray eller Arnold. När vi började byta för bra många år sedan så sprang liksom konsumentkort cirklar runt våra dual xeon system som fortfarande med dagens mått hade bra många trådar.

Visst det finns fortfarande anledningar att köra på CPU, speciellt om man redan har flöden där man kan utnyttja stora datacenterkluster och där man behöver väldigt mycket RAM för sina scener. Men att branschen som helhet skulle vara kvar på CPU-rendering delar jag inte. Speciellt inte på platser där man renderar lokalt.

Permalänk
Medlem
Skrivet av sKRUVARN:

Får man fråga varför du inte använder någon GPU-renderade? Alla 3d-grafiker jag känner och arbetaplatser jag vart på har gått över till t ex Octane, redshift, V-Ray eller Arnold. När vi började byta för bra många år sedan så sprang liksom konsumentkort cirklar runt våra dual xeon system som fortfarande med dagens mått hade bra många trådar.

Visst det finns fortfarande anledningar att köra på CPU, speciellt om man redan har flöden där man kan utnyttja stora datacenterkluster och där man behöver väldigt mycket RAM för sina scener. Men att branschen som helhet skulle vara kvar på CPU-rendering delar jag inte. Speciellt inte på platser där man renderar lokalt.

En väldigt bra fråga! GPU-rendering funkar utmärkt till många saker så länge scenen rymms i minnet på GPU. Majoriteten av småföretagare som syslar med arc-viz, reklamfilm, och andra små scener går alltså helt ok på GPU.

Men när man ska rendera scener på blockbuster-nivå så räcker helt enkelt inte GPU-minnet till. Vi pratar om scendata på flera terabyte ibland. Bara skeppet Razor Crest i Mandalorian är över 600 GB data. Lägg sedan till resten av scenen på det. Eller en vattensimulering på någon terabyte.
Vi kör just nu Arnold på alla dessa scener. Men inte Arnold GPU. Visst hoppas vi någon gång i framtiden att GPU:er ska kunna hantera all denna data lika bra som CPU, men vi är inte riktigt där ännu. Och inte förrän vi kan göra samma saker på GPU som vi kan på CPU så finns det ingen anledning att börja prata om att det är onödiga features.
Renderman 24, och med det Renderman XPU släpptes bara för någon månad sedan med AVX-512 support och hybrid CPU/GPU rendering som kör vissa funktioner på GPU. Det är alltså det bästa och snabbaste vi har i dagsläget för att rendera dessa tunga scener. Arnolds GPU saknar fortfarande många features + att hela scenen måste rymmas i minnet = not gonna work for us.
Så ja, branschen som jag är i, dvs. high-end VFX, är i helhet kvar på CPU och kommer nog vara det några år till. Men vi följer såklart utvecklingen väldigt noga.

Visa signatur

Workstation: i7 2600K @ 4.2GHz - Zalman 9900 MAX | MSI P67A-GD65 B3 | Corsair XMS3 1600 (16GB) | MSI GTX 1070 Gaming X | Samsung 860 EVO 1TB | Antec P280 | Corsair HX 850W
Server: Atom C2750 (ASRock C2750D4I) | Kingston 2x8GB 1600 ECC | Intel S3500 160GB | 26TB WD Red | Silverstone DS380 | Silverstone SFX ST45SF-G

Permalänk
Medlem
Skrivet av Jenus:

En väldigt bra fråga! GPU-rendering funkar utmärkt till många saker så länge scenen rymms i minnet på GPU. Majoriteten av småföretagare som syslar med arc-viz, reklamfilm, och andra små scener går alltså helt ok på GPU.

Men när man ska rendera scener på blockbuster-nivå så räcker helt enkelt inte GPU-minnet till. Vi pratar om scendata på flera terabyte ibland. Bara skeppet Razor Crest i Mandalorian är över 600 GB data. Lägg sedan till resten av scenen på det. Eller en vattensimulering på någon terabyte.
Vi kör just nu Arnold på alla dessa scener. Men inte Arnold GPU. Visst hoppas vi någon gång i framtiden att GPU:er ska kunna hantera all denna data lika bra som CPU, men vi är inte riktigt där ännu. Och inte förrän vi kan göra samma saker på GPU som vi kan på CPU så finns det ingen anledning att börja prata om att det är onödiga features.
Renderman 24, och med det Renderman XPU släpptes bara för någon månad sedan med AVX-512 support och hybrid CPU/GPU rendering som kör vissa funktioner på GPU. Det är alltså det bästa och snabbaste vi har i dagsläget för att rendera dessa tunga scener. Arnolds GPU saknar fortfarande många features + att hela scenen måste rymmas i minnet = not gonna work for us.
Så ja, branschen som jag är i, dvs. high-end VFX, är i helhet kvar på CPU och kommer nog vara det några år till. Men vi följer såklart utvecklingen väldigt noga.

Jag förstår, och ja det ligger i linje med min uppfattning också, att just i high-end segmentet så är CPU-rendering fortfarande aktuellt, så är det där du opererar så hänger jag med.

Edit.
Angående avx512 har du sett några siffror på prestandaökningen i renderman? Enda avx512 lasten jag testat har varit för x265 och iaf på Cascade lake så tappade jag prestanda pga frekvenstappet. Och ska man gå till en ny plattform så är frågan om inte Epyc Milan slår Ice Lake-SP ändå.

Permalänk
Medlem
Skrivet av Lodisen:

Ja, blir svårt för många att motivera en uppgradering i början.
Förutom hemska priser så är det alltid barnsjukdomar.
Min 5900X från release började ge upp redan efter ett halvår.

Vad menar du med "ge upp"? Klockade den gradvis sämre?

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem
Skrivet av Aeig:

Vad menar du med "ge upp"? Klockade den gradvis sämre?

Mvh

Började ge random WHEA-errors och datorn kraschade inom 12-48 timmar under load.

Visa signatur

Ryzen 5800X3D | 64 GB Ram | 7900 XTX | Samsung 990 Pro 4 TB + Seagate FireCuda 520 2TB * 2
Laptop: Core 9 Ultra 185H | 24GB Ram | RTX 4060 | 3 TB NVME

Permalänk
Medlem
Skrivet av sKRUVARN:

Jag förstår, och ja det ligger i linje med min uppfattning också, att just i high-end segmentet så är CPU-rendering fortfarande aktuellt, så är det där du opererar så hänger jag med.

Edit.
Angående avx512 har du sett några siffror på prestandaökningen i renderman? Enda avx512 lasten jag testat har varit för x265 och iaf på Cascade lake så tappade jag prestanda pga frekvenstappet. Och ska man gå till en ny plattform så är frågan om inte Epyc Milan slår Ice Lake-SP ändå.

I videon jag postade förut så visar dom 1.5x-2x speed-up i Renderman XPU: https://youtu.be/-WqrP50nvN4?t=2674
Videon är ju ett år gammal och nu när det är släppt på riktigt så hoppas jag att dom optimerat ytterliggare.
Weta använder också AVX-512 i deras in-house renderare Manuka.
Arnold tror jag inte har några specifika optimeringar med AVX 😢

Visa signatur

Workstation: i7 2600K @ 4.2GHz - Zalman 9900 MAX | MSI P67A-GD65 B3 | Corsair XMS3 1600 (16GB) | MSI GTX 1070 Gaming X | Samsung 860 EVO 1TB | Antec P280 | Corsair HX 850W
Server: Atom C2750 (ASRock C2750D4I) | Kingston 2x8GB 1600 ECC | Intel S3500 160GB | 26TB WD Red | Silverstone DS380 | Silverstone SFX ST45SF-G

Permalänk
Inaktiv

Ja ifall den inte slår tidigare generation så är det ju inte mycket att marknadsföra så detta borde väl inte vara en överraskning för någon?

Permalänk
Medlem

Blir väl Alder mot 6000 serien från AMD. Inte så underligt att den klår en redan existerande serie. Hur som helst verkar den bli bättre än väntat. Vid rätt pris så är det ju bra. Men två konkurrenter på hög nivå har ju än så länge inte inneburit lägre priser på grafikkort. Så mina förhoppningar på bra pris är rätt låga.

Visa signatur

AMD RYZEN 5 5600X | RTX 3060Ti | MSI B450 GAMING PRO CARBON AC

I ett tidigare liv:
AMD 2600X | AMD 8350 | AMD Phenom II X2 555 Black edition | AMD Athlon 64 3700+ | Intel® Pentium® II | Intel® 486DX2-66

Permalänk
Medlem
Skrivet av Jenus:

Det säger massor om hur bra processorn är. Jag jobbar med rendering på CPU dagligen. Det är så all animation och VFX i filmer och TV görs idag. Självklart ska CPU:n vara bra på fler saker än Cinebench men att upphöra med det testet är bland det dummaste jag hört.

En annan lika dum sak från t.ex Linux-grundaren är att han önskar att AVX-512 skulle försvinna för att det är en gimmick som bara existerar för att göra bra benchmarks. https://www.sweclockers.com/nyhet/29982-linus-torvalds-jag-ho...
Men när dessa "benchmarks" (renderare / raytracing) är ens liv, då spelar Cinebench-tester och AVX en väldigt stor roll.
https://www.youtube.com/watch?v=-WqrP50nvN4

Då kanske du borde ha en egen renderingsfarm eller använda en molntjänst istället för att ockupera en desktop-dator med arbetsuppgifter den formligen suger på.