Test: Ryzen 9 3900X och Core i9-9900K i överklockat läge

Permalänk
Medlem
Skrivet av Nikodemous:

Enligt din länk så är det mesta singeltrådat i AutoCAD men inte allt tydligen. Dom skrev att bland annat rendering i programmet använder fler kärnor men det mesta som sagt använder enbart 1 kärna.

Om nu autodesk klarar av vissa operationer med fler kärnor så tror jag det bara är en tidsfråga innan dom ser till att kunna använda sej av det i de andra falken med. Det har börjat ploppa upp en hel del andra likvärdiga program och konkurrensen är hård inom de olika ritprogrammen så jag tror helt enkelt inte autodesk kommer ha råd att inte följa med. Jag vet inte hur det är med tex teklas program osv.

Skickades från m.sweclockers.com

Autocad har varit uträknat i 30 år. Det handlar inte om att programmera bättre, vissa saker (de flesta med ett användargränssnitt) går inte att parallellisera. Rendering... pust ja det är jättelätt att parellellisera för det har inga förändringar under körning, man skickar iväg en datamängd och får tillbaka en annan i en körning som tar lång tid utan att trådarna måste utbyta data med varandra (synkroniseras). Så länge du inte ritar i 3d i en renderade preview kommer inte något konstruktionsprogram kunna dra nytta av fler trådar. Av Autodesks produkter har 3d Studio Max störst potential och det är också mest flertrådat. Ingen ritar i Revit i något halvrenderat läge men skulle man göra det är det helt GPU-accelererat. GPUer är totalt parallelliserade av just den anledningen så om utvecklingen går åt något håll så är det att man använder GPU vid behov.

Permalänk
Skrivet av tozz:

Jag tror inte du lyssnade ordentligt, det var inte bortförklaringar, det var förklaringar. Först går han igenom alla fel i BIOS defaults, men det är bara för att sparka på ASUS som valt helt sjuka defaults, sen handlar det om hur lite (men ändå till viss del) det faktiskt går att klocka dom olika delarna (infinity fabric samt chiplets). Det intressanta med 3900X är att ett chiplet inte kan ha två cores på olika speed, vilket han gör ett långt utlägg om.
Jag håller med om att det vore bättre om AMD skyltade med all core och single core separat, ju mer korrekt information man kan få från tillverkar ju bättre. Men å andra sidan ser jag inte att Intel skyltar med att man måste stänga av HT för att mitigera MDS på sina SKU's heller
Att man inte vinner något på att överklocka minnen har ju varit klart ett bra tag, så länge man inte kommer upp runt 4800+, vilket inte är helt lätt, jag tycker det är skönt, köpte ett par 3600 CL15 stickor och så slipper jag tänka på det något mer

Kanske kommer AMD anordna kurser runt om i världen hur man får deras ZEN2 att fungera som den ska

Zen2 blev precis som jag trodde. Kommer att vara buggigt som fan första månaderna.
Har redan läst artiklarna om dessa. Sweclockers kommer INTE att skriva om dessa, som t.ex om Nvidias RTX-kort som jävlades(?) i början.

Bara användarna blir nöjda så är ZEN2 välkommet av alla.

Permalänk
Medlem
Skrivet av Ratatosk:

Ja stenkoll!
Dög det åt farfar duger det väl åt oss, antar att det är så de tänker.

Nu har Mordekai redan svarat på det, men förklaringen är att det handlar om linjära beräkningar i hög grad d.v.s. det finns inget tekniskt sätt att utilisera multi-core och ingenting att tjäna på det.

Permalänk
Medlem
Skrivet av htbtoma:

Det handlar ju bara om att spel ska optimeras för fler kärnor vilket jag absolut tror att vi kommer se. Intels processorer ligger på max load där AMD har massor med headroom kvar redan idag. Många reviewers nämner dessutom att de upplever gameplay mer "smooth" med ryzen pga färre dippar än med intel så även om avg och max fps ligger något efter så upplevs ett jämnare flyt. Med handen på hjärtat är det nog få som märker skillnad på 130 eller 136 fps i ett spel men om den ena dippar ner mot 1% low oftare är det mer märkbart.

jag kommer definitivt att satsa på en zen 2 till hösten även om jag idag inte får det "bästa" för spel. Jag byter inte prylar så ofta och tror att zen 2 kommer åldras bättre.

Ok ett litet fel med det, konsoller (PS och Xbox) som bara är gjorda för spel har haft åtta kärnor senaste generationen, det har lett till att AAA spel är extremt multitrådade. Det finns ingen stor utvecklingspotential kvar för multitrådning i spel. Att köpa en processor idag i tron att den ska bli bättre i framtiden är bara att lura sig själv.

Tom CS:GO är multitrådat...

Permalänk
Medlem
Skrivet av Nikodemous:

Enligt din länk så är det mesta singeltrådat i AutoCAD men inte allt tydligen. Dom skrev att bland annat rendering i programmet använder fler kärnor men det mesta som sagt använder enbart 1 kärna.

Om nu autodesk klarar av vissa operationer med fler kärnor så tror jag det bara är en tidsfråga innan dom ser till att kunna använda sej av det i de andra falken med. Det har börjat ploppa upp en hel del andra likvärdiga program och konkurrensen är hård inom de olika ritprogrammen så jag tror helt enkelt inte autodesk kommer ha råd att inte följa med. Jag vet inte hur det är med tex teklas program osv.

Skickades från m.sweclockers.com

Jag har skrivit lite plugins till Photoshop och det är skrämmande att se koden där. Hiskeligt rörig och gammaldags kod. I deras fall skulle de behöva kasta det mesta och skriva om helt och hållet. Tror inte det kommer hända i första taget. Vet inte hur det är med AutoCAD, men finns risk att det är samma situation där då det också är ett program som är en riktig längkörare.

Ang rendering så kör nog de flesta detta på GPUn och inte på CPUn då GPUn är väldigt mycket snabbare (vilket gör testen med tex Blender lite meningslösa).

Permalänk
Medlem
Skrivet av Ratatosk:

Ja stenkoll!
Dög det åt farfar duger det väl åt oss, antar att det är så de tänker.

Oj du skulle nog kunna tjäna några miljarder om du berättade hemligheten för Autodesk som svarat på den här frågan varje år i snart 20 år.

Permalänk
Medlem
Skrivet av Mordekai:

Oj du skulle nog kunna tjäna några miljarder om du berättade hemligheten för Autodesk som svarat på den här frågan varje år i snart 20 år.

Nu är jag inte kunnig på hur mjukvara kodas osv men autodesk har jag inte mycket till övers för i vart fall. Vi har Inventor och deras Vault på jobbet och...det verkar ju inte gå i många knyck hos dem om vi säger så.

Ser massvis med jättebra förslag på saker som skulle vara super till Inventor...men i det händer ju inte ett skit...men med Inventor 2019 kan man välja färger på saker mer fritt än de låsta teman som 2018 och äldre dras med bland annat (plus lite andra småsaker som är typ irrelevanta för oss iaf). Jorå såateh...det är ju fint

Visst, de måste garantera kompatibilitet osv men vafan...ändå liksom. Sen tvivlar jag inte på det du skriver. Ville bara ge autodesk en känga

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem
Skrivet av Zemlan:

Nu är jag inte kunnig på hur mjukvara kodas osv men autodesk har jag inte mycket till övers för i vart fall. Vi har Inventor och deras Vault på jobbet och...det verkar ju inte gå i många knyck hos dem om vi säger så.

Ser massvis med jättebra förslag på saker som skulle vara super till Inventor...men i det händer ju inte ett skit...men med Inventor 2019 kan man välja färger på saker mer fritt än de låsta teman som 2018 och äldre dras med bland annat (plus lite andra småsaker som är typ irrelevanta för oss iaf). Jorå såateh...det är ju fint

Visst, de måste garantera kompatibilitet osv men vafan...ändå liksom. Sen tvivlar jag inte på det du skriver. Ville bara ge autodesk en känga

Skickades från m.sweclockers.com

Kan inte hålla med mer, hatar Autodesk med passion men just multitrådning av deras applikationer ser jag inte som ett praktiskt problem, det är ett teoretiskt problem. Just Inventor ska ju dessvärre vara deras Star Player, har hört folk som bytt från SolidWorks till Inventor och inte varit helt missnöjda.

Permalänk
Medlem
Skrivet av Zemlan:

Såvitt jag vet nyttjar wow mer än 1-2 kärnor numera så quad core-prestanda är väl snarare kung? Kräver dock DX12 tror jag, kanske det som är haken. Dvs utan manuell OC kommer ju både AMD och Intel ligga under sin maximala boost pga fler än två kärnor belastas och därmed tappar ju Intel lite för mainstream-användare som inte OC:ar.

Kör man DX11 stämmer det kanske än iofs. Men utanför W7 vad är vitsen? DX12-optimeringarna som gör att iaf 4 kärnor nyttjas ska ju ge uppåt 25% fps boost vill jag minnas? Så är ju skevt att stanna kvar vid DX11, speciellt om man kör manuell all core OC.

Vid 1-2 kärnor är det ju däremot inte mkt man tjänar i OC på varken AMD eller Intel iaf eftersom de boostar typ så högt man kan OCa iaf. Från 4,7ghz till 4,8-5ghz typ på 9900k vid 1-2 kärnor är ju knappt någon OC alls liksom. När fler kärnor nyttjas ger OC desto mer för Intel dock. Så jag förstår inte varför alla är så låsta vid Singeltråd och Intel? Intel med OC tjänar ju inget där typ? Är ju all core load OC på riktigt ger ngt.

(4,7 var single core boost på 9900k va? Annars bortse från det sista stycket för jag talar ur nattmössan bara om det var fel )

Skickades från m.sweclockers.com

Helt fel, eller inte helt fel, det gav faktiskt en prestanda skjuts när dom förbättrade multitrådad stödet i ett par patcher sedan, dock är SC fortfarande det som du vinner mest på i Wow.

Källa: https://www.youtube.com/watch?v=c5fHtDZehmw

Kommer även dyka upp tester från 3000 Ryzen senare.

Visa signatur

Samsung Odyssey G9 240Hz HDR1000 5120x1440 9900K 5,3GHz 1,335v adaptive Asus Z390-I
Asus RTX 2070 Dual EVO Advanced 8GB G.Skill Trident Z RGB B-Die 3200MHz CL16 2x16GB Samsung 970 Evo 1TB
Seasonic Focus Plus Gold 850W 2 x Dell U2715H Corsair K65 Speed SteelSeries Rival 500 Bose Companion 5
Secretlab TITAN 2020 SoftWeave Corsair H100i RGB Platinum Noctua NF-A12x25 x 4 PnP Neo G Mini GB4: 6869 CB15: 233

Permalänk
Medlem

Jag är lite nyfiken hur 9900k oc står sig mot 3900x oc i csgo. är det någon som har sett ett sån test?

Permalänk
Medlem
Skrivet av muSashi:

Helt fel, eller inte helt fel, det gav faktiskt en prestanda skjuts när dom förbättrade multitrådad stödet i ett par patcher sedan, dock är SC fortfarande det som du vinner mest på i Wow.

Källa: https://www.youtube.com/watch?v=c5fHtDZehmw

Kommer även dyka upp tester från 3000 Ryzen senare.

Hmm, fast vänta nu. Det enda testerna visar är ju att 4C/4T ger god prestanda att 8C/8T ytterligare lite till sen nada. T.om ngt tapp vid 8C/16T där i ngn av graferna. Säger ju inget om single core prestanda egentligen? Alla testerna påvisade ju multi-core prestanda?

Om det enbart är single core prestanda som är viktigt i WoW som du nämner hade ju en 9900k@5,2Ghz 1C/2T haft samma prestanda som 4C@5,2 eller 8C/8T. Det som var min poäng och videon du länkar till säger ju inget om detta. Eller är jag helt ute på grönbete ang. vad som påvisar vikten bakom single core vs multi-core prestanda?

Att spelet går snabbare med en CPU som har åtta snabbare kärnor än en annan som har åtta långsammare är ju liksom självklart. Men om enbart single core spelat roll hade 1C eller 8C kvittat. Det som är min poäng. Annars är det ju multi-core prestanda som är king? Till en viss nivå då. Inget spel nyttjar ju oändligt med kärnor men ända upp till 8C gav ju vinster över processorer med lägre antal kärnor i videon.

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem
Skrivet av Mordekai:

Lite det jag frågat efter, samma minnen, samma så långt som möjligt, vältrådade cpu-intensiva spel och några applikationer som inte var rendering. SMT avstängt ger en rejäl prestandaökning i vissa spel med högre lägstanivå. Att HT/SMT kan ställa till det är ju väl känt men förklarar också varför 9700K är så grymt stabil på mycket höga lägsta framerates. Överklockning ger väldigt lite i båda lägren och kostnaden i form av energiförbrukning och därmed kostnad, ljudnivå och slitage gör det till ett dåligt val. Testet i Adobe premiere verkar bara vara rendering och inte när man sitter och scrubbar/editerar så det skiljer sig inte mycket från annan rendering, skalar bra med flera cores.
https://www.youtube.com/watch?v=0GjSiLbCtHU

Vet inte om du sett denna video?
Han pratar om scrubbing och timeline performance, tas upp runt 4:30 in i videon!

Permalänk
Medlem
Skrivet av Chrisj:

En del av oss spelar saker som inte är förprogrammerade testslingor där balansen mellan CPU/GPU behov skiftar beroende på ett antal faktorer, bland annat hur många andra spelare man interagerar med. I de fallen så börjar CPUn helt plötsligt flaska oftare, även vid högre upplösningar och då är Intel det bättre valet eftersom deras enkeltrådsprestanda fortfarande är ganska överlägsen.

Du missade poängen där. Det är ju ingen som sitter och spelar i 720p när man har ett 2080Ti, och om det är någon som gör det så krävs det att man har en monitor som klarar av att visa 180fps, dvs en 240hz monitor.
och om det nu är någon som gör det, så vågar jag påstå att dom inte kommer märka skillnad mellan 150fps och 180fps.

Jag är själv jävligt kräsen när jag sitter och spelar pinball fx3, för minsta lilla dip under 120fps på min 120hz monitor märks. Men jag skulle nog inte inte märka skillnad på 150fps och 180fps på en 240hz monitor. (jag skulle nog bara bli irriterad att det inte är 240fps.)

Så jag törs lova att ingen kommer märka någon skillnad mellan en AMD cpu och en Intel cpu, för när man går upp till 1080p så är det ju kanske 3fps skillnad, vilket gör ingenting på en vanlig monitor, då båda cpu'erna klarar av att maxa vad en vanlig 60hz monitor klarar av att visa. mao, det blir ingen skillnad i praktiken för båda klarar av 60fps utan problem.

Det är ingen skillnad helt enkelt.

Permalänk
Medlem
Skrivet av Oaktree:

Vet inte om du sett denna video?
Han pratar om scrubbing och timeline performance, tas upp runt 4:30 in i videon!

https://www.youtube.com/watch?v=oFziOWzVFwI

Troligen den största anledningen till X570, CPUn är knappast varför han kan scrubba sådär. Så trött på alla tekniknördar som bara vill motivera sin kärlek för AMD. Inte menat som en dig på någon på forumet, men att alla recensioner så gärna vill att AMD ska vara bäst. "The slaughter continues" säger han och avslöjar ogenerat sin bias. Att en 12-kärnig processor slår en 8-kärnig i statiska laster är ju helt självklart. Mycket mer intressant är ju exempelvis NVMe PCIe 4.0 och det enorma cachet samt såklart den oerhörda IPC AMD lyckats få fram. Nu saknas bara en konkurrenskraftig klockfrekvens.

Permalänk
Medlem
Skrivet av MinscS2:

TLDR: Spelar man i 1080p eller högre och stänger av FPS-mätaren så märker man ingen skillnad mellan 3900X och 9900k i dessa spelen, inte ens om man parar processorn med ett RTX 2080 Ti.

TLDR: Testare använder RTX 2080 Ti i uppösningar som 1080p och lägre endast för att mäta processor prestanda i situationer som garanterat ej är GPU begränsade.

Permalänk
Medlem
Skrivet av Lordsqueak:

Du missade poängen där. Det är ju ingen som sitter och spelar i 720p när man har ett 2080Ti, och om det är någon som gör det så krävs det att man har en monitor som klarar av att visa 180fps, dvs en 240hz monitor.
och om det nu är någon som gör det, så vågar jag påstå att dom inte kommer märka skillnad mellan 150fps och 180fps.

Du missade poängen där, testet är inte till för att visa hur bra processorn är i 720p med ett 2080Ti, poängen är att ta bort GPUn som begränsande faktor och enbart mäta CPUn. Sedan att blanda in bildskärmsfrekvensen blir fel eftersom exempelvis CS:GO bara mäter input en gång per frame får man betydligt bättre rörelseupplösning på musen om spelet går i 300 fps på en 60Hz skärm än om spelet skulle gå i 60fps. Jag är inte en av dem men jag har sett många trådar i forumet från CS:GO spelare som upplever en skillnad på om spelmotorn går i 300Hz istället för 250Hz. Framförallt vill man åt en hög lägstanivå för att muskelminnet ska stämma.

Permalänk
Medlem
Skrivet av Heymelon:

TLDR: Testare använder RTX 2080 Ti i uppösningar som 1080p och lägre endast för att mäta processor prestanda i situationer som garanterat ej är GPU begränsade.

Säger du det?

(Finns f.ö. antagligen en hel del som använder RTX 2080 Ti ihop med 1080p-skärmar, dock snackar vi nog inte 60 Hz-skärmar här. 720p är däremot mer eller mindre en ren test-svits-upplösning idag, helt klart.)

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av MinscS2:

Finns f.ö. antagligen en hel del som använder RTX 2080 Ti ihop med 1080p-skärmar, dock snackar vi nog inte 60 Hz-skärmar här.

Tja, de får ju skylla sig själva att de inte tar del av all information på forumet i så fall. Det går inte att hjälpa alla.

Permalänk
Medlem
Skrivet av Nikodemous:

Jag fattar inte att utvecklingen inte kommit längre, men vem vet nu när kärnutvecklingen tagit fart. autodesk måste väl fatta att detta är framtiden.

Skickades från m.sweclockers.com

Finns lite vits. Autocad är generellt ganska lättdrivet särskilt om du arbetar mest 2D. Ska du hålla på med tyngre grejor så kommer dom trycka på dig Inventor ;). Iallafall i mech CAD världen.

Visst kommer det säkert men är säkert 10år innan vi är där.

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Medlem
Skrivet av Mordekai:

Du missade poängen där, testet är inte till för att visa hur bra processorn är i 720p med ett 2080Ti, poängen är att ta bort GPUn som begränsande faktor och enbart mäta CPUn. Sedan att blanda in bildskärmsfrekvensen blir fel eftersom exempelvis CS:GO bara mäter input en gång per frame får man betydligt bättre rörelseupplösning på musen om spelet går i 300 fps på en 60Hz skärm än om spelet skulle gå i 60fps. Jag är inte en av dem men jag har sett många trådar i forumet från CS:GO spelare som upplever en skillnad på om spelmotorn går i 300Hz istället för 250Hz. Framförallt vill man åt en hög lägstanivå för att muskelminnet ska stämma.

Det du säger är korrekt och riktigt. men du missar fortfarande poängen.
Det är ingen som sitter och spelar i 720p om dom inte måste, och har man ett 2080Ti i burken så är chansen ganska liten att man sitter och spelar på en monitor som bara klarar 720p. har man råd med ett 2080Ti så har dom garanterat redan uppgraderat sin monitor.

Så... att jämnföra 150fps mot 180fps i 720p är helt enkelt något som aldrig kommer att ske när någon sitter och spelar på riktigt.

Går man upp till 1080p så är det ingen skillnad, 3 fps när man ligger runt 100fps är det fan ingen som kan märka någon skillnad på. och det är DET som är poängen. I 1080p så är det fan ingen märkbar skillnad.
Jag är skitkräsen när det gäller input delay och jag kan lova att varken jag eller någon annan skulle greja ett blindtest.

Så jaa, om någon sitter och säger att Intel spöar AMD för att den har mer fps i 720p så kommer jag göra mig lustig över det. för det är en upplösning som ingen seriöst använder, speciellt inte med den hårdvaran som krävs för att nå upp till den skillnaden. Och i andra upplösningar så är skillnaden så pass liten att det rent praktiskt inte är någon skillnad.

Permalänk
Medlem
Skrivet av Implor:

Finns lite vits. Autocad är generellt ganska lättdrivet särskilt om du arbetar mest 2D. Ska du hålla på med tyngre grejor så kommer dom trycka på dig Inventor ;). Iallafall i mech CAD världen.

Visst kommer det säkert men är säkert 10år innan vi är där.

AutoCAD är höplöst segt vid större modeller, mekanisk CAD tror jag ingen gör i AutoCAD idag.

Permalänk
Medlem
Skrivet av Lordsqueak:

Det du säger är korrekt och riktigt. men du missar fortfarande poängen.
Det är ingen som sitter och spelar i 720p om dom inte måste, och har man ett 2080Ti i burken så är chansen ganska liten att man sitter och spelar på en monitor som bara klarar 720p. har man råd med ett 2080Ti så har dom garanterat redan uppgraderat sin monitor.

Så... att jämnföra 150fps mot 180fps i 720p är helt enkelt något som aldrig kommer att ske när någon sitter och spelar på riktigt.

Går man upp till 1080p så är det ingen skillnad, 3 fps när man ligger runt 100fps är det fan ingen som kan märka någon skillnad på. och det är DET som är poängen. I 1080p så är det fan ingen märkbar skillnad.
Jag är skitkräsen när det gäller input delay och jag kan lova att varken jag eller någon annan skulle greja ett blindtest.

Så jaa, om någon sitter och säger att Intel spöar AMD för att den har mer fps i 720p så kommer jag göra mig lustig över det. för det är en upplösning som ingen seriöst använder, speciellt inte med den hårdvaran som krävs för att nå upp till den skillnaden. Och i andra upplösningar så är skillnaden så pass liten att det rent praktiskt inte är någon skillnad.

majoriteten av cs go proffsen spelar fortfarande inte i 1080p.
det är antagligen för att man får mer fps.
jag skulle iallafall greja ett blind test i cs go på 200fps och 300fps.
samma sak med 64 tick och 128 tick.
men tror inte majoriteten märker skillnad utan bara dom som spelar för mycket cs go
https://prosettings.net/cs-go-pro-settings-gear-list/

Visa signatur

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Permalänk
Medlem
Skrivet av Oskar80:

majoriteten av cs go proffsen spelar fortfarande inte i 1080p.
det är antagligen för att man får mer fps.
jag skulle iallafall greja ett blind test i cs go på 200fps och 300fps.
samma sak med 64 tick och 128 tick.
men tror inte majoriteten märker skillnad utan bara dom som spelar för mycket cs go
https://prosettings.net/cs-go-pro-settings-gear-list/

Majoriteten av personerna som spelar CS Go spelar i lägre upplösningar för att andra gör det. Spelar själv i 1080P och har en bra bit över 500 FPS i CS Go. Folk spelar i lägre upplösningar och 4:3 bara för att professionella spelare gör det och dessa gör det för att dessa spelare gjort det sedan 1.6.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Xinpei:

Majoriteten av personerna som spelar CS Go spelar i lägre upplösningar för att andra gör det. Spelar själv i 1080P och har en bra bit över 500 FPS i CS Go. Folk spelar i lägre upplösningar och 4:3 bara för att professionella spelare gör det och dessa gör det för att dessa spelare gjort det sedan 1.6.

Alla har gjort ett aktivt val att sänka upplösningen dom har inte suttit kvar på samma dator sedan 90 talet.

Skickades från m.sweclockers.com

Visa signatur

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Permalänk
Datavetare
Skrivet av Lordsqueak:

Det du säger är korrekt och riktigt. men du missar fortfarande poängen.
Det är ingen som sitter och spelar i 720p om dom inte måste, och har man ett 2080Ti i burken så är chansen ganska liten att man sitter och spelar på en monitor som bara klarar 720p. har man råd med ett 2080Ti så har dom garanterat redan uppgraderat sin monitor.

Så... att jämnföra 150fps mot 180fps i 720p är helt enkelt något som aldrig kommer att ske när någon sitter och spelar på riktigt.

Går man upp till 1080p så är det ingen skillnad, 3 fps när man ligger runt 100fps är det fan ingen som kan märka någon skillnad på. och det är DET som är poängen. I 1080p så är det fan ingen märkbar skillnad.
Jag är skitkräsen när det gäller input delay och jag kan lova att varken jag eller någon annan skulle greja ett blindtest.

Så jaa, om någon sitter och säger att Intel spöar AMD för att den har mer fps i 720p så kommer jag göra mig lustig över det. för det är en upplösning som ingen seriöst använder, speciellt inte med den hårdvaran som krävs för att nå upp till den skillnaden. Och i andra upplösningar så är skillnaden så pass liten att det rent praktiskt inte är någon skillnad.

Ett exempel på hur resultat i 1280x720 faktisk är relevant givet lämplig tidshorisont är jämförelsen 7700K vs 1800X. Läs kommentararena till 1800X testet, samma gnäll där om hur 720p är irrelevant. Vad det visade är ett klart övertag för 7700K i spel när man tittade på 720p, i detta fall med ett GTX1080. I 1440p var det rätt minimal skillnad.

Spola fram till 3700X/3900X, inte så många som nu kanske kikade på hur 7700K står sig mot 1800X. Men vad ser vi nu? Jo att den skillnad i spelprestanda som bara visade sig i 720p på ett GTX1080 nu visar sig även i 1440p när man använder ett RTX2080Ti.

På 2,5 år hinner inte Gustafsons lag göra någon relevant skillnad kring hur väl spel börjat skala med kärnor, att 1800X har dubbelt så många kärnor som 7700K spelar därför med den tidshorisonten minimal roll. Däremot fortsätter spel att bli mer CPU-krävande p.g.a. snabbare GPUer.

Sätter vi i stället tidshorisonten till ett decennium kommer de som hävdar att 1800X är mer "framtidssäker" garanterat få rätt, det p.g.a. att spel kommer fortsätta bli allt större och mer komplexa -> Gustafsons lag beskriver hur det kommer betyda bättre skalning för med kärnor.

Svårt att se hur något annat kommer hända med 9900K mot 3900X. Dels blir det exponentiellt svårare att skala saker som inte är embarrassingly parallel ju fler kärnor man använder som utgångspunkt, dels är det "bara" 50 % fler kärnor i 3900X över 9900K.

I det korta loppet, typ <5 år, kommer vi se samma utveckling som för 7700K vs 1800X. D.v.s. 9900K bättre prestanda i 720p idag kommer krypa upp i högre upplösningar.

Givet startpunkten kommer det med största sannolikhet ta längre tid för 3900X att gå förbi 9900K i spel än det kommer ta för 1800X att gå om 7700K. Vidare är en intressant observation för just 3900X och 9900K att det nu är stört fördel för Intel i lägsta FPS, i fallet 1800X vs 7700K var det mer likartad skillnad i lägsta FPS som genomsnittlig FPS.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Zemlan:

Hmm, fast vänta nu. Det enda testerna visar är ju att 4C/4T ger god prestanda att 8C/8T ytterligare lite till sen nada. T.om ngt tapp vid 8C/16T där i ngn av graferna. Säger ju inget om single core prestanda egentligen? Alla testerna påvisade ju multi-core prestanda?

Om det enbart är single core prestanda som är viktigt i WoW som du nämner hade ju en 9900k@5,2Ghz 1C/2T haft samma prestanda som 4C@5,2 eller 8C/8T. Det som var min poäng och videon du länkar till säger ju inget om detta. Eller är jag helt ute på grönbete ang. vad som påvisar vikten bakom single core vs multi-core prestanda?

Att spelet går snabbare med en CPU som har åtta snabbare kärnor än en annan som har åtta långsammare är ju liksom självklart. Men om enbart single core spelat roll hade 1C eller 8C kvittat. Det som är min poäng. Annars är det ju multi-core prestanda som är king? Till en viss nivå då. Inget spel nyttjar ju oändligt med kärnor men ända upp till 8C gav ju vinster över processorer med lägre antal kärnor i videon.

Skickades från m.sweclockers.com

Det är i wow, som så många andra spel 1 cpu thread som flaskar och maxas. De klarar inte att sprida ut lasten då mycket måste gå i sync i 1 tråd.

Så prioriteringen blir i stil med;
1. Ha "många" cores (vet inte exakt brytpunkt, men säg tex 4 eller fler). Om du inte uppfyller detta ganska lösa kravet, får du dålig prestanda. Nästan alla uppfyller ju det så inte så intressant att diskutera.
2. Ha så stark som möjligt single core då detta alltid blir flaskhals i WoW förutsatt att 1. är uppfyllt.

cpu av både intel och amd har rätt så många cores, så antalet blir inte viktigt. (kanske på vissa laptops).

Eftersom nästan alla nuförtiden har quadcore eller bättre, så säger man att det bara är singlecore-prestanda som spelar roll även om det inte tekniskt är sant.

I stil med att jämföra bilar. denna har 300 hästkrafter, denna har 600. Men har den 4 hjul?!??!?! 3 hjul presterar väldigt dåligt, typ.

Permalänk
Medlem
Skrivet av Oskar80:

Alla har gjort ett aktivt val att sänka upplösningen dom har inte suttit kvar på samma dator sedan 90 talet.

Skickades från m.sweclockers.com

Det beror mer på känslan än FPS. Det var min poäng.

Skrivet av Oskar80:

majoriteten av cs go proffsen spelar fortfarande inte i 1080p.
det är antagligen för att man får mer fps.
jag skulle iallafall greja ett blind test i cs go på 200fps och 300fps.
samma sak med 64 tick och 128 tick.
men tror inte majoriteten märker skillnad utan bara dom som spelar för mycket cs go
https://prosettings.net/cs-go-pro-settings-gear-list/

Även om du har rätt i sak så har du fel i orsaken bakom. De flesta proffsen sitter faktiskt på ganska välutrustade datorer utan det är helt enkelt pga. känslan de gör detta. De är vana vid 4:3 och i 720p så de spelar i den upplösningen.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Sveklockarn:

Det kanske bara är så att Autodesk har koll på det helt enkelt, och att det finns någon väldigt bra anledning till att multi-core inte stöds?

Här är f.ö. länken till infon de publicerade i ämnet den 1/7 2019, så man kan nog anta att det inte är något som ligger i deras pipeline för överskådlig framtid.
https://knowledge.autodesk.com/support/autocad/learn-explore/...

Generell kommentar, det är samma anledning som vanligt.
Alla befintliga algoritmer (metoder som olika delar av en mjukvara jobbar enligt för att lösa en/flera uppgift/er) går inte magiskt att "porta" till multicore, så att de kan göra saker parallellt.
Det har inte i första hand att göra med lathet eller inkompetens från mjukvaruutvecklarnas sida.

Nån tråd måste också sitta och vänta in vad användaren gör, förstås, innan programmet kan "gissa" hur den ska lägga upp nästa del av arbetet.

Det kan/kommer givetvis dyka upp nya koncept efterhand som utvecklingen går framåt men folk har liksom klurat på implementera olika metoder på datorer i 5 decennier, minst, så idéerna började inte kläckas först när Intel och AMD började prångla ut multi-core till konsumenterna för rimliga priser.

Edit: Det finns givetvis äldre mjukvaror (återigen allmänt sett) som kan filas på, men då måste ägarna se att det lönar sig att gå in och trimma till dom, det kan ju vara ett rätt omfattande arbete, om det ens går. Och i praktiken "behöver" många mjukvaror inte mer än en tråd heller.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem
Skrivet av Lordsqueak:

Du missade poängen där. Det är ju ingen som sitter och spelar i 720p när man har ett 2080Ti, och om det är någon som gör det så krävs det att man har en monitor som klarar av att visa 180fps, dvs en 240hz monitor.
och om det nu är någon som gör det, så vågar jag påstå att dom inte kommer märka skillnad mellan 150fps och 180fps.

Jag är själv jävligt kräsen när jag sitter och spelar pinball fx3, för minsta lilla dip under 120fps på min 120hz monitor märks. Men jag skulle nog inte inte märka skillnad på 150fps och 180fps på en 240hz monitor. (jag skulle nog bara bli irriterad att det inte är 240fps.)

Så jag törs lova att ingen kommer märka någon skillnad mellan en AMD cpu och en Intel cpu, för när man går upp till 1080p så är det ju kanske 3fps skillnad, vilket gör ingenting på en vanlig monitor, då båda cpu'erna klarar av att maxa vad en vanlig 60hz monitor klarar av att visa. mao, det blir ingen skillnad i praktiken för båda klarar av 60fps utan problem.

Det är ingen skillnad helt enkelt.

Fast du missar min poäng. Flaskhalsen från CPU flyttas markant beroende på spel. I just deras testslinga kanske CPUerna levererar 170 eller 190fps och då har du rätt, det märks inte. Medans i en WoW raid så kanske du skiftas mellan 50 och 70 fps med dippar ännu lägre och då börjar man plötsligt märka det. Du kanske går från 60 till 45 i en 20manna eldstrid i BF:V och då märks det också. Poängen är att testet visar vilken CPU som kan leverera bäst prestanda i spel och Intel vinner där, de vinner dessutom ganska övertygande då de har väldigt snarlik IPC men mycket högre maxklock. Det krävs dessutom inget 2080Ti för att märka den skillnaden utan den framträder mycket tidigare.

Sen kan man diskutera hur pass dåligt/bra optimerade spelen är som hamnar den sitsen, men som slutkonsument är det skit samma eftersom du behöver förhålla dig till vilken hårdvara som ger dig den upplevelse du vill ha, inte varför den gör det.

Permalänk
Medlem
Skrivet av MinscS2:

Säger du det?

(Finns f.ö. antagligen en hel del som använder RTX 2080 Ti ihop med 1080p-skärmar, dock snackar vi nog inte 60 Hz-skärmar här. 720p är däremot mer eller mindre en ren test-svits-upplösning idag, helt klart.)

Kollar man CS:GO proffsen finns det ju en hel del som det spelet på ett 2080Ti i upplösningar under 1080p.