Ang Ryzen's spelprestanda (matchar 7700K idag, presterar bättre i morgondagen)

Permalänk
Medlem

En intressant sak är ju hur spelutvecklare ska hantera att Ryzen har två CCX, hur dom skall kunna använda mer än 4 kärnor/8 trådar utan att introducera ordentlig latens:

https://arstechnica.co.uk/gadgets/2017/03/amd-ryzen-gaming-pe...
The other piece of the puzzle is the games themselves. AMD says that it has identified "some simple changes that can improve a game's understanding of the "Zen" core/cache topology," though the company has said that it will not share what those details are with us. The operating system may be doing things right, but the operating system doesn't inspect the workload of each individual thread, so it can still make mistakes.

For example, if two threads are operating on the same set of shared data, they should probably be put on the same CCX to avoid having to transfer data across that relatively slow link. Windows can't readily detect this shared data and won't see that the two threads are spending an excessive amount of time waiting for memory. If there are enough compute-bound threads that Windows has to schedule them on both CCXes, there's a chance that these two threads will be separated, one on one CCX, the other on the other. The developer who created the app, however, can do things such as restricting the pair of threads to one CCX or the other, ensuring that they'll always be on the same side of the Infinity Fabric link.

As an added complication, the right strategy may well vary depending on the nature of an application. Software that's hungry for bandwidth might be better off using some threads on one CCX, some threads on the other CCX, so that it has two sets of threads that can use the full bandwidth of the level 3 cache. Software that's highly sensitive to latency, however, may be better placing all its threads on one CCX and ignoring the other entirely. Doing the right thing will require careful examination of the software and how it uses cache, threading, and memory.

Permalänk
Datavetare
Skrivet av tellus82:

Du har helt enkelt inte fattat problemet, jag kan inte förklara det bättre för dig, kika på de övriga videor som släppts angående detta, adoredtv och Hardware Unboxed. Att du sedan Inte förstår att buggen enbart uppstår med nv/ryzen kombon och dx12 där prestanda absolut inte motsvarar vad som de fakto bör vara.

Du låter mer och mer som någon som ursäktar nVidia in i det sista...
Tänk på detta, om det vore ett enkelt overhead problem som drabbar alla processorer på samma sätt så skulle Intel cpun reagera exakt likadant, varför? Jo därför att bägge plattformarna jobbar redan under konstant CPU limiterade förhållanden. Använd en smula logik... Att jag sedan Inte enbart kikar på frametime mätningen beror på att väldigt få ställen rapporterar just dessa under cpu benchmarks, då denna bugg ger störst genomslag på medel och max fps som man av en händelse normalt använder vid testande så ger buggen direkt ofördelaktigt negativa resultat för ryzen i CPU benchmarks. Ett resultat som garanterat kan förbättras genom att nVidia ser över buggen/problemet.
Vad i detta förstår du inte?

Edit:Om nVidia valt en design i mjuk och hårdvara som skapar en ohållbart hög overhead på just Ryzen, är det då AMDs fel eller nVidias fel? Vem bör fixa denna oproportionerligt stora overhead, AMD eller nVidia?
Om man gör CPU benchmark testande vilken gpu bör man då använda för att påvisa processorns riktiga och ovinklade prestanda, AMD eller nVidia?

Du skrev detta tidigare

"Alltså, i 720p testerna med cpu limitering presterar nvidia sämre i dx12 än det borde relativt dx11 bara på ryzen samtidigt som detta inte händer på intel, dessutom presterar nvidia sämre relativt amd på ryzen med lägre minneshastighet även i dx11, deltat mellan rx480 och 1060 ökar, med AMD gpu så sker detta inte på intel eller ryzen, deltat mellan gpuerna krymper/ökar på ett sätt som det inte ska göra, kom ihåg bägge var kraftigt cpu limiterade och fps skulle inte dykt på kombon nvidia/ryzen om allt funkar bra."

Vilket överhuvudtaget inte stämmer överens med den video du själv länkade som referens. Den relativa skillnaden mellan DX12 och DX11 är väldigt snarlik för 7700K och 1700X.

Och nu hävdar du att jag inte förstår problemet, dina svar är rätt inkoherenta med data du själv postar. Din försvar för detta är alltså att jag tydligen borde fattat att det inte var DEN videon man ska titta på utan något helt annat som tydlige visar problemet i "rätt" ljus.

På vilket sätt ursäktar jag Nvidia? Det är ett torrt konstaterande att Nvidia gör delar i programvara som AMD gör i HW. Är ju knappast någon nyhet att programvarubaserade lösningar är långt mer flexibla, men de kräver självklart med CPU-kraft då det är, well, programvara... Vad det gäller DX11 borde det vid det här laget vara rätt välkänd fakta att AMD aldrig kunnat utnyttja CGN på ett bra sätt i den APIn.

Både Nvidia (Fermi) och AMD (GCN) trodde ju väldigt hårt på att GPGPU skulle bli rejält populärt, båda dessa GPU-arkitekturer var väldigt inriktade på GPGPU (då aktuell DX-version inte kunde använda en rad funktioner man introducerade i dessa designer). Verkar som Nvidia rätt tidigt insåg att GPGPU inte kom att användas i någon relevant utsträckning på konsument GPUer, så man strippade bort dessa finesser till stor del för att kunna lägga transistorer på annat. AMD verkar ta det steget först med Vega (vi vet snart).

Skrivet av Stoff3th3m4n:

Vi har i flera år sett en viss person vända och vrida på precis allt till Intels och Nvidias fördel. Så är du förvånad? Blir väldigt svårt med trovärdigheten tycker jag. Kör själv enbart Intel och Nvidia i dagsläget, och t om jag ser hur det ser ut i argumentationen.

Tycker också att det är extremt tydligt att något är "off" gällande Ryzen tillsammans med Nvidiakort. Det behöver man inte vara någon raketforskare för att se i de test som länkats.

Vi får helt enkelt se om fler testare och recensenter plockar upp detta och utreder. Hade personligen gärna sett Sweclockers göra ett nytt test med andra minneshastigheter samt grafikkort nu när det är så mycket snack om detta.

Hur ser det ut i argumentationen då? Peka ut vilka påståenden som är fel. Och för den delen, påverkas din trovärdighet av att du "Kör själv enbart med Intel och Nvidia"?

Själv är jag övertygad att ARM kommer "vinna" i slutändan, jag tjänar brutalt mycket pengar på att skriva kod just för ARM system. ARM är Intels värsta fiende. Förändrar det på något sätt de fakta jag pekar på? Ser överhuvudtaget inte varför det skulle ändra något alls.

Några fakta som tydligen sticker i ögonen och enligt dig gör det väldigt svårt med trovärdigheten:

  • Spel jobbar främst med skalära heltal, Skylake har ~40 % högre IPC där jämfört med Zen. Går bl.a. att se i WebXPRT (enkeltrådat) och kompilering (perfekt skalning över kärnor).

  • Spel skalar inte i närheten perfekt med ökande antal CPU-kärnor

  • Nvidia gör mer i programvara jämfört med AMD på GPU-sidan, system med Nvidia GPUer kommer därför tidigare bli CPU-bundna

Vad av ovan är skrämmande kontroversiellt att det tydligen helt äventyrar min trovärdighet?

Om ovan ändå kan accepteras som att vara korrekt: är inte det överlägset enklaste förklaring för de observationer vissa youtuber då gjort helt enkelt att om man gör ett spel CPU-bundet så kommer 7700K prestera bättre då en 7700K i stock är ~50 % starkare per CPU-kärna jämfört med Ryzen 7 @ 4,0 GHz?

Då AMD gör mer i HW kommer man bli CPU-bunden vid högre FPS.

Att det inte krävs en fullskalig komplott mot datorvärldens Messias verkar för vissa vara en total omöjlighet.

Skrivet av tellus82:

Fast det är inte mer rimligt än någon annan teori, det kan likagärna vara att nvidia sprider ut någon form av cpu arbete för dx12 på för många trådar med just Ryzen vilket skapar en onödigt stor overhead, så stor att den ger negativ prestanda jämfört med 4-8 trådar vid cpu limiterade förhållanden. Antingen att det äter för mycet minesbandbredd eller ren cpu tid eller att det bara orsakar stalls i köerna. En enkel lösning här är att nvidia limiterar antalet trådar som skapas så att overhead hålls nere på en nivå så det inte orsakar negativ prestandaökning.

Ingen av oss här kan säga att vi vet exakt varför detta sker men ingen här kan säga att det inte sker, det är mer än överbevisat just nu av helt fristående testare som inte har något med varandra att göra, dom har till och med varit direkt osams.

En lösning på detta problem/bug från nVidias sida är väl ändå inget som skulle kunna vara negativt för någon, eller tycker ni det? Om förhållandena vore rakt motsatta och det var bara intel processorer som var drabbade skulle ni se det på samma sätt då?

Det som gör den teorin rätt osannolik, d.v.s. Nvidia sprider ut arbete för DX12, är ju att det finns en rad officiella uttalande från Nvidia som säger att applikationen måste göra all form av balansering mellan CPU-kärnor i DX12 för drivern kommer aldrig skapa egna trådar. Varför skulle det fungera på något annat sätt än vad Nvidia hävdar i sina egna optimeringsguider?

Vad är det för fel på den betydligt mycket enklare förklaringen ovan? Eller konspirerar kompilatortillverkare och de som tillverkar webbläsare också mot AMD.

OBS: säger inte att det finns optimeringar att göra som kan gynna Ryzen, säger bara att de resultat kring DX12 som presenteras känns ju så uppenbart enkla att förklara om man bara accepterar att Nvidias GPUer är designande på ett sätt som gör dem mer beroende av en snabb CPU + Ryzen har inte alls lika bra IPC relativt Core-serien när det handlar om skalära heltal som den har för skalära flyttal, spel använder nästan bara skalära heltal.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Entusiast
Skrivet av Yoshman:

Nvidia gör mer i programvara jämfört med AMD på GPU-sidan, system med Nvidia GPUer kommer därför tidigare bli CPU-bundna

Nu ger jag mig in direkt i korselden här men i så fall undrar jag hur det kom sig att GTX 1060 ibland presterade avsevärt bättre än RX 480 vid launch med samma CPU när det gällde lite äldre CPU'er.
Det talar i så fall emot det? https://www.youtube.com/watch?v=pjZ3MmxP0Fg

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Datavetare
Skrivet av Uzanar:

Nu ger jag mig in direkt i korselden här men i så fall undrar jag hur det kom sig att GTX 1060 ibland presterade avsevärt bättre än RX 480 vid launch med samma CPU när det gällde lite äldre CPU'er.
Det talar i så fall emot det? https://www.youtube.com/watch?v=pjZ3MmxP0Fg

Så länge man inte är CPU-bunden finns det egentligen bara fördelar med Nvidias design. Den är mer flexibel (gäller ju för alla lösningar, HW-implementation är mer effektiv när den är en perfekt match medan en lösning i programvara kan anpassas till alla tänkbara fall) och man kunde lägga transistorer på andra saker än en HW-scheduler.

Videon visar ju att även med riktigt krävande spel är det först vid 1280x720 med "medium" inställningar som man blir CPU-bunden. I princip alla tester av 1060 och 480 gjordes ju i 1920x1080 "ultra" och uppåt, typiskt med väldigt starka CPUer. Man är i det läget inte i närheten av att vara CPU-bunden.

BTW: TomsHardware har precis gjort en revisit av 480 och 1060, där mäter man prestanda för dessa modeller idag för den som är intresserad.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Entusiast
Skrivet av Yoshman:

Videon visar ju att även med riktigt krävande spel är det först vid 1280x720 med "medium" inställningar som man blir CPU-bunden. I princip alla tester av 1060 och 480 gjordes ju i 1920x1080 "ultra" och uppåt, typiskt med väldigt starka CPUer. Man är i det läget inte i närheten av att vara CPU-bunden.

Hmmm, tittade du verkligen på videon nu? Samtliga tester är gjorda i just 1080p@Ultra eller motsvarande.
Skillnader syns väldigt väl med dessa inställningar som till exempel vid 2:44 https://youtu.be/pjZ3MmxP0Fg?t=2m44s där GTX 1060/i5 750 levererar en stadig 60FPS+ utan någon drop under 60FPS medans ett RX 480 med samma CPU levererar suboptimal prestanda.

Nu är det här gamla CPU'er för all del, men det jag ville åt var helt enkelt att du påstod en nackdel för Nvidia med hänsyn till CPU-kraften man behöver. Videon säger precis tvärtom med en fördel för Nvidia.

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Medlem
Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Datavetare
Skrivet av axello:

En intressant sak är ju hur spelutvecklare ska hantera att Ryzen har två CCX, hur dom skall kunna använda mer än 4 kärnor/8 trådar utan att introducera ordentlig latens:

https://arstechnica.co.uk/gadgets/2017/03/amd-ryzen-gaming-pe...
The other piece of the puzzle is the games themselves. AMD says that it has identified "some simple changes that can improve a game's understanding of the "Zen" core/cache topology," though the company has said that it will not share what those details are with us. The operating system may be doing things right, but the operating system doesn't inspect the workload of each individual thread, so it can still make mistakes.

For example, if two threads are operating on the same set of shared data, they should probably be put on the same CCX to avoid having to transfer data across that relatively slow link. Windows can't readily detect this shared data and won't see that the two threads are spending an excessive amount of time waiting for memory. If there are enough compute-bound threads that Windows has to schedule them on both CCXes, there's a chance that these two threads will be separated, one on one CCX, the other on the other. The developer who created the app, however, can do things such as restricting the pair of threads to one CCX or the other, ensuring that they'll always be on the same side of the Infinity Fabric link.

As an added complication, the right strategy may well vary depending on the nature of an application. Software that's hungry for bandwidth might be better off using some threads on one CCX, some threads on the other CCX, so that it has two sets of threads that can use the full bandwidth of the level 3 cache. Software that's highly sensitive to latency, however, may be better placing all its threads on one CCX and ignoring the other entirely. Doing the right thing will require careful examination of the software and how it uses cache, threading, and memory.

Fetmarkerade låter bekant...

Just ja, var exakt vad jag skrev när när folk hävdade att Windows scheduler var totalpaj för Ryzen. D.v.s. ett OS kan inte veta vilka OS-trådar som kommunicerar med varandra och är därför totalt omöjligt för en OS-scheduler att göra mycket mer än att se till att jämt sprida lasten så en CPU-tråd per fysisk kärna är lastad för att sedan börja använda den andra tråden. Ändå blev man dumförklarad där också, begrep tydligen inte i vilken maskopi Microsoft och andra hade mot AMD kring Windows scheduler.

Är inte alltid optimalt att första sprida över alla fysiska kärnor, har man två trådar som jobbar väldigt tight så kan det vara en fördel att alltid lägga dem på samma fysiska kärna (har skrivit mellanprogramvara för backbone routers som gör just sådana saker). För alla dessa mindre vanliga fall har ju både Windows och Linux standardfunktioner så applikationer kan styra hur trådar schemaläggs på existerande uppsättning CPU-trådar.

Sista stycket känns ändå: ja, det är teoretiskt möjligt men väldigt dyrt då det bara är relevant för en CPU-mikroarkitektur. Är ju inte ens säkert att sådana optimeringar är vettiga för nästa generation Zen (även om det är rätt sannolikt).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Du skrev detta tidigare

"Alltså, i 720p testerna med cpu limitering presterar nvidia sämre i dx12 än det borde relativt dx11 bara på ryzen samtidigt som detta inte händer på intel, dessutom presterar nvidia sämre relativt amd på ryzen med lägre minneshastighet även i dx11, deltat mellan rx480 och 1060 ökar, med AMD gpu så sker detta inte på intel eller ryzen, deltat mellan gpuerna krymper/ökar på ett sätt som det inte ska göra, kom ihåg bägge var kraftigt cpu limiterade och fps skulle inte dykt på kombon nvidia/ryzen om allt funkar bra."

Vilket överhuvudtaget inte stämmer överens med den video du själv länkade som referens. Den relativa skillnaden mellan DX12 och DX11 är väldigt snarlik för 7700K och 1700X.

Och nu hävdar du att jag inte förstår problemet, dina svar är rätt inkoherenta med data du själv postar. Din försvar för detta är alltså att jag tydligen borde fattat att det inte var DEN videon man ska titta på utan något helt annat som tydlige visar problemet i "rätt" ljus.

På vilket sätt ursäktar jag Nvidia? Det är ett torrt konstaterande att Nvidia gör delar i programvara som AMD gör i HW. Är ju knappast någon nyhet att programvarubaserade lösningar är långt mer flexibla, men de kräver självklart med CPU-kraft då det är, well, programvara... Vad det gäller DX11 borde det vid det här laget vara rätt välkänd fakta att AMD aldrig kunnat utnyttja CGN på ett bra sätt i den APIn.

Både Nvidia (Fermi) och AMD (GCN) trodde ju väldigt hårt på att GPGPU skulle bli rejält populärt, båda dessa GPU-arkitekturer var väldigt inriktade på GPGPU (då aktuell DX-version inte kunde använda en rad funktioner man introducerade i dessa designer). Verkar som Nvidia rätt tidigt insåg att GPGPU inte kom att användas i någon relevant utsträckning på konsument GPUer, så man strippade bort dessa finesser till stor del för att kunna lägga transistorer på annat. AMD verkar ta det steget först med Vega (vi vet snart).

Hur ser det ut i argumentationen då? Peka ut vilka påståenden som är fel. Och för den delen, påverkas din trovärdighet av att du "Kör själv enbart med Intel och Nvidia"?

Själv är jag övertygad att ARM kommer "vinna" i slutändan, jag tjänar brutalt mycket pengar på att skriva kod just för ARM system. ARM är Intels värsta fiende. Förändrar det på något sätt de fakta jag pekar på? Ser överhuvudtaget inte varför det skulle ändra något alls.

Några fakta som tydligen sticker i ögonen och enligt dig gör det väldigt svårt med trovärdigheten:

  • Spel jobbar främst med skalära heltal, Skylake har ~40 % högre IPC där jämfört med Zen. Går bl.a. att se i WebXPRT (enkeltrådat) och kompilering (perfekt skalning över kärnor).

  • Spel skalar inte i närheten perfekt med ökande antal CPU-kärnor

  • Nvidia gör mer i programvara jämfört med AMD på GPU-sidan, system med Nvidia GPUer kommer därför tidigare bli CPU-bundna

Vad av ovan är skrämmande kontroversiellt att det tydligen helt äventyrar min trovärdighet?

Om ovan ändå kan accepteras som att vara korrekt: är inte det överlägset enklaste förklaring för de observationer vissa youtuber då gjort helt enkelt att om man gör ett spel CPU-bundet så kommer 7700K prestera bättre då en 7700K i stock är ~50 % starkare per CPU-kärna jämfört med Ryzen 7 @ 4,0 GHz?

Då AMD gör mer i HW kommer man bli CPU-bunden vid högre FPS.

Att det inte krävs en fullskalig komplott mot datorvärldens Messias verkar för vissa vara en total omöjlighet.
Det som gör den teorin rätt osannolik, d.v.s. Nvidia sprider ut arbete för DX12, är ju att det finns en rad officiella uttalande från Nvidia som säger att applikationen måste göra all form av balansering mellan CPU-kärnor i DX12 för drivern kommer aldrig skapa egna trådar. Varför skulle det fungera på något annat sätt än vad Nvidia hävdar i sina egna optimeringsguider?

Vad är det för fel på den betydligt mycket enklare förklaringen ovan? Eller konspirerar kompilatortillverkare och de som tillverkar webbläsare också mot AMD.

OBS: säger inte att det finns optimeringar att göra som kan gynna Ryzen, säger bara att de resultat kring DX12 som presenteras känns ju så uppenbart enkla att förklara om man bara accepterar att Nvidias GPUer är designande på ett sätt som gör dem mer beroende av en snabb CPU + Ryzen har inte alls lika bra IPC relativt Core-serien när det handlar om skalära heltal som den har för skalära flyttal, spel använder nästan bara skalära heltal.

Om du nu tittar på bilden så ska du tänka på följande, det är cpu limiterat för alla konfigurationer. Alltså endera cpu kan inte leverera fler fps än vad dom gör oavsett hur bra respektive gpu presterar. Taket är nått. Vi vet att spelet kan utnyttja ryzens fler kärnor i detta spel då rx480 fps i dx12 verifierar detta, vi vet att ryzen är kapabel att ge mer fps än det gör med ett 1060 i dx12.

Så tittar vi på hur 7700k och 1700x bägge överklockade presterar med ett rx480 i dx12, det skiljer 3,2 fps i medel fps. med ett 1060 skiljer det 13,6fps.
Tittar vi sedan på dx11 resultatet med rx480 ser vi en stor minskning för 1700x, ganska väntat då dx12 ska prestera bättre på fler kärnor, det är en av poängerna med dx12. 7700k tjänar inte alls lika mycket på att gå över till dx12, också väntat med färre kärnor.

Sen kikar vi på nvidia kortet hur det presterar, på 1700x ligger rx480 jämt med 1060 i dx11, går vi över till dx12 ligger helt plötsligt rx 480 10% före ett 1060. Går vi över till 7700k så ligger nu ett 1060 precis före ett rx480 i dx12. Här har vi alltså ganska uppenbart något som inte rimmar med vad som borde ha hänt.

Är detta svårt att förstå?

Om bägge processorerna hade utsatts för exakt samma mängd overhead av nvidiakortet så hade dom levererat praktiskt taget samma fps (3 färre...), detta oavsett skalär heltalsprestanda. Här nedanför ser du vad som händer med kraftigare gpu'er i ett mycket tungt område.

Lite underligt resultat no?

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av Yoshman:

Du skrev detta tidigare

"Alltså, i 720p testerna med cpu limitering presterar nvidia sämre i dx12 än det borde relativt dx11 bara på ryzen samtidigt som detta inte händer på intel, dessutom presterar nvidia sämre relativt amd på ryzen med lägre minneshastighet även i dx11, deltat mellan rx480 och 1060 ökar, med AMD gpu så sker detta inte på intel eller ryzen, deltat mellan gpuerna krymper/ökar på ett sätt som det inte ska göra, kom ihåg bägge var kraftigt cpu limiterade och fps skulle inte dykt på kombon nvidia/ryzen om allt funkar bra."

Vilket överhuvudtaget inte stämmer överens med den video du själv länkade som referens. Den relativa skillnaden mellan DX12 och DX11 är väldigt snarlik för 7700K och 1700X.

Och nu hävdar du att jag inte förstår problemet, dina svar är rätt inkoherenta med data du själv postar. Din försvar för detta är alltså att jag tydligen borde fattat att det inte var DEN videon man ska titta på utan något helt annat som tydlige visar problemet i "rätt" ljus.

På vilket sätt ursäktar jag Nvidia? Det är ett torrt konstaterande att Nvidia gör delar i programvara som AMD gör i HW. Är ju knappast någon nyhet att programvarubaserade lösningar är långt mer flexibla, men de kräver självklart med CPU-kraft då det är, well, programvara... Vad det gäller DX11 borde det vid det här laget vara rätt välkänd fakta att AMD aldrig kunnat utnyttja CGN på ett bra sätt i den APIn.

Både Nvidia (Fermi) och AMD (GCN) trodde ju väldigt hårt på att GPGPU skulle bli rejält populärt, båda dessa GPU-arkitekturer var väldigt inriktade på GPGPU (då aktuell DX-version inte kunde använda en rad funktioner man introducerade i dessa designer). Verkar som Nvidia rätt tidigt insåg att GPGPU inte kom att användas i någon relevant utsträckning på konsument GPUer, så man strippade bort dessa finesser till stor del för att kunna lägga transistorer på annat. AMD verkar ta det steget först med Vega (vi vet snart).

Hur ser det ut i argumentationen då? Peka ut vilka påståenden som är fel. Och för den delen, påverkas din trovärdighet av att du "Kör själv enbart med Intel och Nvidia"?

Själv är jag övertygad att ARM kommer "vinna" i slutändan, jag tjänar brutalt mycket pengar på att skriva kod just för ARM system. ARM är Intels värsta fiende. Förändrar det på något sätt de fakta jag pekar på? Ser överhuvudtaget inte varför det skulle ändra något alls.

Några fakta som tydligen sticker i ögonen och enligt dig gör det väldigt svårt med trovärdigheten:

  • Spel jobbar främst med skalära heltal, Skylake har ~40 % högre IPC där jämfört med Zen. Går bl.a. att se i WebXPRT (enkeltrådat) och kompilering (perfekt skalning över kärnor).

  • Spel skalar inte i närheten perfekt med ökande antal CPU-kärnor

  • Nvidia gör mer i programvara jämfört med AMD på GPU-sidan, system med Nvidia GPUer kommer därför tidigare bli CPU-bundna

Vad av ovan är skrämmande kontroversiellt att det tydligen helt äventyrar min trovärdighet?

Om ovan ändå kan accepteras som att vara korrekt: är inte det överlägset enklaste förklaring för de observationer vissa youtuber då gjort helt enkelt att om man gör ett spel CPU-bundet så kommer 7700K prestera bättre då en 7700K i stock är ~50 % starkare per CPU-kärna jämfört med Ryzen 7 @ 4,0 GHz?

Då AMD gör mer i HW kommer man bli CPU-bunden vid högre FPS.

Att det inte krävs en fullskalig komplott mot datorvärldens Messias verkar för vissa vara en total omöjlighet.
Det som gör den teorin rätt osannolik, d.v.s. Nvidia sprider ut arbete för DX12, är ju att det finns en rad officiella uttalande från Nvidia som säger att applikationen måste göra all form av balansering mellan CPU-kärnor i DX12 för drivern kommer aldrig skapa egna trådar. Varför skulle det fungera på något annat sätt än vad Nvidia hävdar i sina egna optimeringsguider?

Vad är det för fel på den betydligt mycket enklare förklaringen ovan? Eller konspirerar kompilatortillverkare och de som tillverkar webbläsare också mot AMD.

OBS: säger inte att det finns optimeringar att göra som kan gynna Ryzen, säger bara att de resultat kring DX12 som presenteras känns ju så uppenbart enkla att förklara om man bara accepterar att Nvidias GPUer är designande på ett sätt som gör dem mer beroende av en snabb CPU + Ryzen har inte alls lika bra IPC relativt Core-serien när det handlar om skalära heltal som den har för skalära flyttal, spel använder nästan bara skalära heltal.

Det viset du argumenterar på är en del av problemet.

Var har jag påstått något om att en Ryzen 7 CPU runt 4GHz på något magiskt vis just nu rent teoretiskt skulle vara bättre än en 7700K i spel? På något märkligt vis tar du alltid upp en massa extra i argumentationen som dina meningsmotståndare eller vanliga forumkamrater inte alls pratat om och så blir det en wall of text där det oftast bara är en liten del som faktiskt är relevant i just den diskussionen.

Det rent tekniska diskussionen och problematiken löser vi knappast här och nu då kunskapen ser väldigt olika ut gällande de som diskuterar. Men Det är ganska enkelt att se vilka som åtminstone verkar ha ett uns av objektivitet och vilka som inte verkar ha det.

Edit: Är inte på något vis perfekt själv i diskussioner, så om jag förvränger det någon säger eller verkar otrevlig så är det bara att säga det.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem

@yoshman Tycker också det är konstigt att det blir sådana vansinniga diskussionen varenda gång vissa aktörer kommer på tapeten. Ändå har jag aldrig sagt att du glorifierar saker som du däremot sagt att jag gör för att jag skriver en ärlig uppfattning baserad på min erfarenhet och kompetens. En av dom mest vitala saker som du motsatt dig är när jag sagt att spel behöver optimeras för Ryzen där du varenda gång svarat att i stil med "jaha hur skulle man optimera ett spel för Ryzen" eller "det görs inte och det är inget som optimeras till Intel-processorer heller". Att du dessutom kommer med sådana påståenden när du själv gillar att knacka kod är för mig väldigt konstigt. Du kan läsa vad Dan Baker på Oxide själv uttalar sig om, och detta är en av många aktörer som optimerar sina spel för Ryzen:

“- Every processor is different on how you tune it, and Ryzen gave us some new data points on optimization,” Oxide’s Dan Baker told PCWorld. “We’ve invested thousands of hours tuning Intel CPUs to get every last bit of performance out of them, but comparatively little time so far on Ryzen.

http://www.pcworld.com/article/3185466/hardware/heres-proof-t...

Denna bild ljuger enligt yoshman då det "inte är möjligt":

Bethesda och fler utvecklare är på gång också med optimeringar. Valve släppte Dota2 patch som gav mig dom påstådda 20% högre FPS in game.

Quake 2 som är gammel MMX/SSE visade högre IPC på Ryzen än Kaby Lake och det testades med både software rendering och OGL.

I 4GHz ihop snabbt RAM utpresterade Ryzen Kaby Lake ganska rejält med tanke på att den snurrade i 5GHz.

Tror det finns en ganska god fingervisning på den potential som jag tidigt snackade om och sa att Ryzen ÄR en mycket stark spel-cpu på grund av sin design. Aggressiv branch predictor och prefetcher samt en mycket lyckad cachedesign som du i princip bara vart skeptisk till och varenda gång vi snackat om det i en jämförelse bara lyft fram vad som var bättre på Intel's cachesystem och varför det i teorin skulle bli så mycket sämre resultat på Zen i en del tillämpningar. AIDA64 finns i en ny version. Du kan bara våga gissa hur snabb cachen är om du inte sett på senare resultat med senaste version. Jag beskrev flera gånger hur Intel är ledande på SRAM men efter att ha testat Zen mer ingående så vet jag inte längre.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Datavetare
Skrivet av tellus82:

http://i621.photobucket.com/albums/tt297/Tellus82/Mindblank_zpswtsqqqyz.jpg

Om du nu tittar på bilden så ska du tänka på följande, det är cpu limiterat för alla konfigurationer. Alltså endera cpu kan inte leverera fler fps än vad dom gör oavsett hur bra respektive gpu presterar. Taket är nått. Vi vet att spelet kan utnyttja ryzens fler kärnor i detta spel då rx480 fps i dx12 verifierar detta, vi vet att ryzen är kapabel att ge mer fps än det gör med ett 1060 i dx12.

Så tittar vi på hur 7700k och 1700x bägge överklockade presterar med ett rx480 i dx12, det skiljer 3,2 fps i medel fps. med ett 1060 skiljer det 13,6fps.
Tittar vi sedan på dx11 resultatet med rx480 ser vi en stor minskning för 1700x, ganska väntat då dx12 ska prestera bättre på fler kärnor, det är en av poängerna med dx12. 7700k tjänar inte alls lika mycket på att gå över till dx12, också väntat med färre kärnor.

Sen kikar vi på nvidia kortet hur det presterar, på 1700x ligger rx480 jämt med 1060 i dx11, går vi över till dx12 ligger helt plötsligt rx 480 10% före ett 1060. Går vi över till 7700k så ligger nu ett 1060 precis före ett rx480 i dx12. Här har vi alltså ganska uppenbart något som inte rimmar med vad som borde ha hänt.

Är detta svårt att förstå?

Om bägge processorerna hade utsatts för exakt samma mängd overhead av nvidiakortet så hade dom levererat praktiskt taget samma fps (3 färre...), detta oavsett skalär heltalsprestanda.

Har skrivit flera gånger att Amdahls lag är en överskattning av skalningen med CPU-kärnor, orsaken är att kostnaden för synkronisering av CPU-trådar är inte konstant (vilket Amdahls lag förutsätter) utan ökar med antalet CPU-kärnor.

Om nu Nvidia gör sin schemaläggning av kernels i programvara (skapar en optimal DAG), vilket vi vet att man gör, så är detta en process där alla CPU-trådar som postar jobb till GPUn måste synkroniseras. D.v.s. det förväntande utfallet, förutsatt att man inte lyckats göra något som ingen annan i branschen lyckats med, är att overhead för att schemalägga kernels kommer öka ju flera CPU-trådar som används.

Nvidia skriver till och med specifikt i sin "Do's and don'ts" att man inte ska använda allt för mycket parallellism då det kan påverka prestanda negativt. I detta fall är det ändå ett positivt tillskott för både Ryzen 7 och 7700K, det förväntade utfallen är dock högre overhead för en CPU med fler kärnor (det borde vara självklart för alla som någonsin skrivit prestandakritiskt multitrådad kod för SMP-system).

Vet allt för lite om exakt hur AMDs driver använder köerna i GCN. Vad jag vet (då jag skrivit drivers för en del NICs) är att moderna nätverkskort har multipla HW-köer just för att kunna sprida ut trådar över olika HW-köer. Optimalt är en kö per CPU-tråd, är typiskt vad man ser i lite mer avancerade servers, i det läget behöver man överhuvudtaget inte synkronisera mellan programtrådar då de har en kö var. Finns sedan HW i NIC som serialiserar alla sänd/mottagar jobb.

Så ovanpå att Nvidia garanterat kommer få en högre overhead för att posta jobb ju flera CPU-trådar som används för detta, finns även möjligheten att AMDs driver utnyttjar ACE för att kunna göra en liknande optimering som nätverkskort gör med multipla RX/TX-ringar (kallas RSS).

Och hur stor är denna skillnad då i RoTR med DX?
Med 7700K presterar 1060 2 % bättre jämfört med 480
Med 1700X presterar 480 9 % bättre jämfört med 1060

Är absolut en skillnad, men på det stora hela rätt liten och kan utan problem enbart förklaras med att overhead för synkronisering kommer öka med fler CPU-kärnor.

Eller vad är den alternativa förklaringen? Nvidia och Intel är i makopi? Tror inte de företagen är polare precis, de är bittra konkurrenter inom HPC (CUDA vs Xeon Phi) och numera även inom autonoma bilar. Nvidia har inte heller något att vinna på att missgynna AMDs CPUer.

Finns det ett problem specifikt till CPUer med många CPU-kärnor (utöver det uppenbara som kommer av fysikens lagar) är det i så fall mer en effekt av att modeller med fler än fyra kärnor stör för någon enstaka procent på skrivbordet. Men vad det än är har det inget med "preemption", inget med "drivertrådar" eller andra saker som föreslagits i denna tråd, ingen av det används ens i detta fall.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av Enigma:

@yoshman Tycker också det är konstigt att det blir sådana vansinniga diskussionen varenda gång vissa aktörer kommer på tapeten. Ändå har jag aldrig sagt att du glorifierar saker som du däremot sagt att jag gör för att jag skriver en ärlig uppfattning baserad på min erfarenhet och kompetens. En av dom mest vitala saker som du motsatt dig är när jag sagt att spel behöver optimeras för Ryzen där du varenda gång svarat att i stil med "jaha hur skulle man optimera ett spel för Ryzen" eller "det görs inte och det är inget som optimeras till Intel-processorer heller". Att du dessutom kommer med sådana påståenden när du själv gillar att knacka kod är för mig väldigt konstigt. Du kan läsa vad Dan Baker på Oxide själv uttalar sig om, och detta är en av många aktörer som optimerar sina spel för Ryzen:

“- Every processor is different on how you tune it, and Ryzen gave us some new data points on optimization,” Oxide’s Dan Baker told PCWorld. “We’ve invested thousands of hours tuning Intel CPUs to get every last bit of performance out of them, but comparatively little time so far on Ryzen.

http://www.pcworld.com/article/3185466/hardware/heres-proof-t...

Denna bild ljuger enligt yoshman då det "inte är möjligt":

http://core0.staticworld.net/images/article/2017/03/ryzen_ashes_of_the_singularity_escalation_amd_beta_2-100715815-orig.jpg

Bethesda och fler utvecklare är på gång också med optimeringar. Valve släppte Dota2 patch som gav mig dom påstådda 20% högre FPS in game.

Quake 2 som är gammel MMX/SSE visade högre IPC på Ryzen än Kaby Lake och det testades med både software rendering och OGL.

I 4GHz ihop snabbt RAM utpresterade Ryzen Kaby Lake ganska rejält med tanke på att den snurrade i 5GHz.

Tror det finns en ganska god fingervisning på den potential som jag tidigt snackade om och sa att Ryzen ÄR en mycket stark spel-cpu på grund av sin design. Aggressiv branch predictor och prefetcher samt en mycket lyckad cachedesign som du i princip bara vart skeptisk till och varenda gång vi snackat om det i en jämförelse bara lyft fram vad som var bättre på Intel's cachesystem och varför det i teorin skulle bli så mycket sämre resultat på Zen i en del tillämpningar. AIDA64 finns i en ny version. Du kan bara våga gissa hur snabb cachen är om du inte sett på senare resultat med senaste version. Jag beskrev flera gånger hur Intel är ledande på SRAM men efter att ha testat Zen mer ingående så vet jag inte längre.

Och vad var speciellt med AoS och även Dota 2?

Jo, i AoS presterade R7-1800X väsentligt mycket sämre än i7-6900K jämfört med hur det såg ut i andra spel. En orsak här verkar vara att man "optimerat" vissa delar med något som kallas "non-temporal stores", en typ av instruktioner som gör det möjligt att skriva data utan att blanda in cache. Att använda detta på ett sätt som faktiskt ger en vinst är extremt svårt och kan mycket väl fungera OK på en modell och uselt på en annan. Så Oxide misslyckades uppenbarligen med sin "optimering".

Så verkar ha varit fallet här. När man fixat ovan prestera nu R7-1800X relativt i7-6900K ungefär som vi ser i många andra spel. Optimeringen här var alltså att lyfta Ryzen från en omotiverat låg nivå till den nivå andra spel visade. Exakt detta har jag redan nämnt kring detta spel.

Men men, Ryzen 1800X är ju snabbare än i7-7700K här!!!
Det är den, i alla fall i CPU-testet. Och kompileringsfallet visar också att i den bästa av världar (perfekt skalning med CPU-kärnor) så kan 1800X prestera ~25 % bättre jämfört med i7-7700K (gäller bara heltal, för flyttal kan fördelen blir klart större för 1800X). Ställer man i7-7700K mot i7-6900K i AoS CPU-test är den senare 25 % snabbare, så när det kommer till skalning med CPU-kärnor är AoS ett väldigt avvikande värde (är inte alls samma skillnad när man kör den "riktiga" benchmarken där även GPUn är med).

Svårt att hitta data på Dota 2, de få fall jag lyckades hitta visade ju att i7-7700K initialt prestanda 40-50 % bättre än R7-1800X, åter igen ett fall där det var orimligt stor skillnad initialt (hittade inga resultat med i7-6900K men letade inte heller jättemycket). Efter fixen verkar prestanda där vara ungefär vad vi ser i andra spel.

Jag säger inte att ingen optimerar, vad jag säger är att "ingen" optimerar för specifika modeller. Oxide verkar ha försökt och det gick ju rätt dåligt, när man tog bort (eller vad man nu gjorde) blev det väsentligt mycket snabbare på Ryzen och i princip ingen skillnad på Intel (även om nästan alla resultat visar på marginell ökning för Core).

Den optimering i praktiken fungerar är att göra sådant som är generellt bra. Finns absolut sådana optimeringar som ger mer på en viss CPU-modell jämfört med en annan, eller ger olika utfall beroende på antal kärnor. Men det är just generella optimeringar man ska sträva efter.

Dagens Core är i princip meningslös att optimera mot, det är också en dålig modell att testa saker på på just då den är så extremt förlåtande. I veckan har vi suttit med ett system som ska köras på ARM, det hela är multitrådat men på ARM-plattformen (fyra kärnor) får man bäst prestanda om man kör med single CPU OS-kärna (koden är illa designat bara på några få ställen men det räcker). Kör man samma sak på Sandy Bridge får man faktiskt en boost på 30-40 % över single-core fallet av att slänga in fyra kärnor.

R7-1700 kan inte ens teoretisk gå förbi i7-7700K i spel, de två andra modellerna kan göra det förutsatt att spelet skalar i princip perfekt med CPU-kärnor. Borde också gå att skapa fall där i7-7700K presterar sämre genom att ge den rätt lågt klockat minne och ställa den mot ett Ryzen-system med väldigt snabba minnen. Detta borde inte vara kontroversiellt, det är bara en logisk konsekvens av hur dessa CPUer presterar relativt varandra i helt CPU-bundna benchmarks/program som främst använder skalära heltal.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av Yoshman:

Själv är jag övertygad att ARM kommer "vinna" i slutändan, jag tjänar brutalt mycket pengar på att skriva kod just för ARM system. ARM är Intels värsta fiende. Förändrar det på något sätt de fakta jag pekar på? Ser överhuvudtaget inte varför det skulle ändra något alls.

Tänker du på att datorerna mer blir tunna klienter eller att Arm kommer vinna i prestandan?
Jag har hört många prata om att x86 arkitekturen är dålig. Och bara genom att tänka på att x86 kom från slutet av 70talet, där varenda ny cpu i princip skulle kunna köra all kod som den äldre kunde köra med minimala förändringar. Så är det logisk om x86an inte är lika effektiv byggd för dagens behov, som om man helt från scratch idag skulle få bygga en cpu för dagens behov.

Problemet jag ser för AMD är väl att Intel snart lanserar en vettig 8 core cpu och då får AMD tufft och det gäller att Ryzen 2 har kommit innan detta. Tänkt er 7700K med bortslängd GPU och istället 4 extra core, det hade blivit en riktig killer cpu för många.

Permalänk
Medlem
Skrivet av Yoshman:

Har skrivit flera gånger att Amdahls lag är en överskattning av skalningen med CPU-kärnor, orsaken är att kostnaden för synkronisering av CPU-trådar är inte konstant (vilket Amdahls lag förutsätter) utan ökar med antalet CPU-kärnor.

Om nu Nvidia gör sin schemaläggning av kernels i programvara (skapar en optimal DAG), vilket vi vet att man gör, så är detta en process där alla CPU-trådar som postar jobb till GPUn måste synkroniseras. D.v.s. det förväntande utfallet, förutsatt att man inte lyckats göra något som ingen annan i branschen lyckats med, är att overhead för att schemalägga kernels kommer öka ju flera CPU-trådar som används.

Nvidia skriver till och med specifikt i sin "Do's and don'ts" att man inte ska använda allt för mycket parallellism då det kan påverka prestanda negativt. I detta fall är det ändå ett positivt tillskott för både Ryzen 7 och 7700K, det förväntade utfallen är dock högre overhead för en CPU med fler kärnor (det borde vara självklart för alla som någonsin skrivit prestandakritiskt multitrådad kod för SMP-system).

Vet allt för lite om exakt hur AMDs driver använder köerna i GCN. Vad jag vet (då jag skrivit drivers för en del NICs) är att moderna nätverkskort har multipla HW-köer just för att kunna sprida ut trådar över olika HW-köer. Optimalt är en kö per CPU-tråd, är typiskt vad man ser i lite mer avancerade servers, i det läget behöver man överhuvudtaget inte synkronisera mellan programtrådar då de har en kö var. Finns sedan HW i NIC som serialiserar alla sänd/mottagar jobb.

Så ovanpå att Nvidia garanterat kommer få en högre overhead för att posta jobb ju flera CPU-trådar som används för detta, finns även möjligheten att AMDs driver utnyttjar ACE för att kunna göra en liknande optimering som nätverkskort gör med multipla RX/TX-ringar (kallas RSS).

Och hur stor är denna skillnad då i RoTR med DX?
Med 7700K presterar 1060 2 % bättre jämfört med 480
Med 1700X presterar 480 9 % bättre jämfört med 1060

Är absolut en skillnad, men på det stora hela rätt liten och kan utan problem enbart förklaras med att overhead för synkronisering kommer öka med fler CPU-kärnor.

Eller vad är den alternativa förklaringen? Nvidia och Intel är i makopi? Tror inte de företagen är polare precis, de är bittra konkurrenter inom HPC (CUDA vs Xeon Phi) och numera även inom autonoma bilar. Nvidia har inte heller något att vinna på att missgynna AMDs CPUer.

Finns det ett problem specifikt till CPUer med många CPU-kärnor (utöver det uppenbara som kommer av fysikens lagar) är det i så fall mer en effekt av att modeller med fler än fyra kärnor stör för någon enstaka procent på skrivbordet. Men vad det än är har det inget med "preemption", inget med "drivertrådar" eller andra saker som föreslagits i denna tråd, ingen av det används ens i detta fall.

Men vänta här nu, går du helt plötsligt med på att ryzen får mer overhead av nvidiakort i dx12 än en 7700k får? Säg mig, vems "fel" är det att denna overhead blir så stor? Vem är det som bör se över detta, är det nVidia kanske? (Jo till slut blir man spydig...)

Innan du säger att det inte är så stor skillnad så ber jag dig kolla följande bilder igen.

Här pratar vi inte längre 10%...

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

Men vänta här nu, går du helt plötsligt med på att ryzen får mer overhead av nvidiakort i dx12 än en 7700k får? Säg mig, vems "fel" är det att denna overhead blir så stor? Vem är det som bör se över detta, är det nVidia kanske? (Jo till slut blir man spydig...)

Innan du säger att det inte är så stor skillnad så ber jag dig kolla följande bilder igen.

http://i621.photobucket.com/albums/tt297/Tellus82/adored1070_zpslbeo78fk.png
http://i621.photobucket.com/albums/tt297/Tellus82/adored480_zpsubvwjcld.png

Här pratar vi inte längre 10%...

Är inte längre "medium" utan "very high". Det är en sak som nämns kring detta att göra CPUn till flaskhals genom att sänka upplösning. Det är jämförbara siffror om man BARA ändrar upplösning, ändrar man inställningar kan det skilja väldigt mycket i CPU-last för att nå en viss FPS.

Här skulle t.ex. förklaringen kunna vara att man nu gör något som resulterar i en/flera väldigt dyra kernels, d.v.s. det är väldigt dyrt att göra "kompileringssteget" av kerneln. I ett sådant läge är i7-7700K ~50 % högre prestanda i enkeltrådprestanda en enorm fördel.

I "ultra" lär man också har generellt sett fler kernels, det betyder att komplexiteten att få fram den optimala DAG:en ökar (det endast på Nvidias GPUer, AMD gör detta i HW). Om den ökar kommer varje CPU-tråd spendera mer tid i en sektion som måste serialiseras. Om den seriella delen ökar minskar skalningen med flera kärnor.

Finns en anledning varför effektiv programmering av multicore CPUer anses svårt, det är ett fundamental svårt problem. Att skala saker som inte alls är "embarrassingly parallel" till 8C/16 T på något vettigt sätt är något som kommer ta många år att få till bra strategier för. Positiva är att det är ett generellt problem och inte begränsat till bara Ryzen, så finns absolut en drivkraft till att gräva i detta.

För DX11 fallet är det inte alls omöjligt att Nvidia lagt in specialhantering av det fallet just för RoTR. Spelspecifika optimeringar i drivers är absolut möjligt i DX11, men att göra sådana är väldigt dyrt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Är inte längre "medium" utan "very high". Det är en sak som nämns kring detta att göra CPUn till flaskhals genom att sänka upplösning. Det är jämförbara siffror om man BARA ändrar upplösning, ändrar man inställningar kan det skilja väldigt mycket i CPU-last för att nå en viss FPS.

Här skulle t.ex. förklaringen kunna vara att man nu gör något som resulterar i en/flera väldigt dyra kernels, d.v.s. det är väldigt dyrt att göra "kompileringssteget" av kerneln. I ett sådant läge är i7-7700K ~50 % högre prestanda i enkeltrådprestanda en enorm fördel.

I "ultra" lär man också har generellt sett fler kernels, det betyder att komplexiteten att få fram den optimala DAG:en ökar. Om den ökar kommer varje CPU-tråd spendera mer tid i en sektion som måste serialiseras. Om den seriella delen ökar minskar skalningen med flera kärnor.

Finns en anledning varför effektiv programmering av multicore CPUer anses svårt, det är ett fundamental svårt problem. Att skala saker som inte alls är "embarrassingly parallel" till 8C/16 T på något vettigt sätt är något som kommer ta många år att få till bra strategier för. Positiva är att det är ett generellt problem och inte begränsat till bara Ryzen, så finns absolut en drivkraft till att gräva i detta.

För DX11 fallet är det inte alls omöjligt att Nvidia lagt in specialhantering av det fallet just för RoTR. Spelspecifika optimeringar i drivers är absolut möjligt i DX11, men att göra sådana är väldigt dyrt.

Du, nu tror jag att du inte förstår konceptet cpu limiterad, även i 1080p/high kan du vara cpu limiterad, du förstår det va? Detta är ett test med helt annan hårdvara på en helt annan del av spelet. Här visas exakt samma sak som tidigare men bara väldigt mycket mer pga kraftigare gpu'er och ökad upplösning/inställningar, du bör nog kika noga på bilderna innan du häver ur dig allt för mycket text.

Allt detta borde du redan sett om du kikat på de filmer som länkats och som folk bett dig titta på.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av Yoshman:

Och vad var speciellt med AoS och även Dota 2?

Jo, i AoS presterade R7-1800X väsentligt mycket sämre än i7-6900K jämfört med hur det såg ut i andra spel. En orsak här verkar vara att man "optimerat" vissa delar med något som kallas "non-temporal stores", en typ av instruktioner som gör det möjligt att skriva data utan att blanda in cache. Att använda detta på ett sätt som faktiskt ger en vinst är extremt svårt och kan mycket väl fungera OK på en modell och uselt på en annan. Så Oxide misslyckades uppenbarligen med sin "optimering".

Så verkar ha varit fallet här. När man fixat ovan prestera nu R7-1800X relativt i7-6900K ungefär som vi ser i många andra spel. Optimeringen här var alltså att lyfta Ryzen från en omotiverat låg nivå till den nivå andra spel visade. Exakt detta har jag redan nämnt kring detta spel.

Men men, Ryzen 1800X är ju snabbare än i7-7700K här!!!
Det är den, i alla fall i CPU-testet. Och kompileringsfallet visar också att i den bästa av världar (perfekt skalning med CPU-kärnor) så kan 1800X prestera ~25 % bättre jämfört med i7-7700K (gäller bara heltal, för flyttal kan fördelen blir klart större för 1800X). Ställer man i7-7700K mot i7-6900K i AoS CPU-test är den senare 25 % snabbare, så när det kommer till skalning med CPU-kärnor är AoS ett väldigt avvikande värde (är inte alls samma skillnad när man kör den "riktiga" benchmarken där även GPUn är med).

Svårt att hitta data på Dota 2, de få fall jag lyckades hitta visade ju att i7-7700K initialt prestanda 40-50 % bättre än R7-1800X, åter igen ett fall där det var orimligt stor skillnad initialt (hittade inga resultat med i7-6900K men letade inte heller jättemycket). Efter fixen verkar prestanda där vara ungefär vad vi ser i andra spel.

Jag säger inte att ingen optimerar, vad jag säger är att "ingen" optimerar för specifika modeller. Oxide verkar ha försökt och det gick ju rätt dåligt, när man tog bort (eller vad man nu gjorde) blev det väsentligt mycket snabbare på Ryzen och i princip ingen skillnad på Intel (även om nästan alla resultat visar på marginell ökning för Core).

Den optimering i praktiken fungerar är att göra sådant som är generellt bra. Finns absolut sådana optimeringar som ger mer på en viss CPU-modell jämfört med en annan, eller ger olika utfall beroende på antal kärnor. Men det är just generella optimeringar man ska sträva efter.

Dagens Core är i princip meningslös att optimera mot, det är också en dålig modell att testa saker på på just då den är så extremt förlåtande. I veckan har vi suttit med ett system som ska köras på ARM, det hela är multitrådat men på ARM-plattformen (fyra kärnor) får man bäst prestanda om man kör med single CPU OS-kärna (koden är illa designat bara på några få ställen men det räcker). Kör man samma sak på Sandy Bridge får man faktiskt en boost på 30-40 % över single-core fallet av att slänga in fyra kärnor.

R7-1700 kan inte ens teoretisk gå förbi i7-7700K i spel, de två andra modellerna kan göra det förutsatt att spelet skalar i princip perfekt med CPU-kärnor. Borde också gå att skapa fall där i7-7700K presterar sämre genom att ge den rätt lågt klockat minne och ställa den mot ett Ryzen-system med väldigt snabba minnen. Detta borde inte vara kontroversiellt, det är bara en logisk konsekvens av hur dessa CPUer presterar relativt varandra i helt CPU-bundna benchmarks/program som främst använder skalära heltal.

Och som vanligt så ignorerar du mycket av det man skriver och använder dig av samma skrift gång på gång som svar. Gällande Ryzen 1700 så har den en boost på 3.1GHz när man lastar fler kärnor medans 7700K har boost på 4.4GHz när man lastar alla kärnor. Det är en enorm frekvensskillnad på 1.3GHz. Bortsett från frekvensen så har den dubbelt så många kärnor och allt måste inte skala perfekt med kärnor för att visa att Ryzen är stark för INGET spel skalar ännu perfekt med kärnor eller är optimerat för Ryzen. Du har just FLERA utvecklare som talar emot dig som optimerar just med hänsyn till Ryzen's existens. Vi har IPC och vi har klockfrekvens så skilj dom två åt då vi snackar styrkor i en design/arkitektur. Dom flesta som köper en 1700 kör en lätt klock på den, och ihop med snabbare RAM så ser vi att Ryzen utpresterade Intel i flera spel på 3.97GHz och redan vid DDR3200.

1700X är i princip i samma prisklass (~3-400kr dyrare) som 7700K om man ska göra en mer matchande jämförelse ang frekvens/pris. Om du tror att 25% högre prestanda för Ryzen är best case över en 7700K så är det bara sorligt. Inte nog med att du ignorerar att den har dubbelt så många kärnor, utan en design som tjänar mer på SMT. Tiden kommer äta upp dina teorier. Det har gått en månad sedan release med en extremt begränsad budget från AMD att göra en så smärtfri lansering som möjligt gällande testing och optimerande och du gör inget annat än att frenetiskt ställa Ryzen mot intel utan minsta hänsyn till vad som är möjligt och vad som faktiskt är på väg för utnyttja Ryzen med den kapacitet som finns. Åhh förresten Quake2 är ett perfekt svar på ditt eviga tjat om skalära heltal. Hade Ryzen vart svag hade den ALDRIG kunnat prestera väl i såpass många spel som den visat att den KAN göra, så problemet ligger någon annan stans, något som visats ganska uppenbart länge nu. Du vill dock inte se övriga problem utan ignorera dom eller ogiltigförklara dom och skylla på exekveringskapacitet i alla lägen varenda gång du får chansen. Jag förresten glorifierar Ryzen sa du? Nä jag har bara skrivit och länkat till nästan alla mina påståenden alla gånger och det jag sagt har visat sig stämma väl. Sen att jag råkade få en CPU för 3700kr med 8 kärnor och 16 trådar och lite klock på som utpresterar Kaby Lake i 5GHz enligt tester som gjorts, det klagar jag inte på. Jag hade Intel innan och bytte av en anledning, och jag bytte knappast ner mig.

Ang kapacitet, vänta tills vi har applikationer med lite högre kvalité än dagens sunkportar till spel eller allmänt trasig kod, dåliga drivare med katastrofalt dåliga implementationer av API stödet. Då snackar vi mer professionella tillämpningar, server och HPC laster. Toms hade en del fina test på detta där man i många fall kunde se vilken kapacitet arkitekturen kan ge. Men nej, taket ligger på 25% mot en Intel quad i alla lägen enligt dig och kommer alltid göra. Spelprestanda kommer inte bli bättre och Ryzen's cachedesign suger.

Jag kan också vara med i långa diskussioner men du tar rekordet i både längd/mängd på inlägg och med antal personer som det blir ett jäkla liv med, för att du vägrar se eller förstå nått annat än din egna teori alla gånger. Förstår inte hur du har varken tid eller ork när mycket av det du skriver många gånger har varit väldigt konstruktivt. Samlingstråden om Zen började rätt bra för att sen börja rista din teori i sten. Det har vart andra fall på GPU sidan också där det blivit ett jäkla liv om AMD versus nvidia där jag vart med en del gånger.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Datavetare
Skrivet av anon159643:

Tänker du på att datorerna mer blir tunna klienter eller att Arm kommer vinna i prestandan?
Jag har hört många prata om att x86 arkitekturen är dålig. Och bara genom att tänka på att x86 kom från slutet av 70talet, där varenda ny cpu i princip skulle kunna köra all kod som den äldre kunde köra med minimala förändringar. Så är det logisk om x86an inte är lika effektiv byggd för dagens behov, som om man helt från scratch idag skulle få bygga en cpu för dagens behov.

Problemet jag ser för AMD är väl att Intel snart lanserar en vettig 8 core cpu och då får AMD tufft och det gäller att Ryzen 2 har kommit innan detta. Tänkt er 7700K med bortslängd GPU och istället 4 extra core, det hade blivit en riktig killer cpu för många.

Är inte arkitekturen som är problemet. Både AMD och Intels high-end CPUer är ju nästan rena RISC designer, är en kort bit av front-end som hanterar x86 efter det jobbar man med en RISC-design. Finns till och med vissa fördelar med x86 ISA, koden är kompaktare än RISC-maskinkod så bättre utnyttjandegrad av instruktionscache hos x86.

Stora problemet med dagens x86 är att det är enormt svårt att validera en design, det går långt snabbare på t.ex. ARM. Vidare har x86 en minneskonsistensmodell som är lätt för programmerare att förstå, men den är väldigt svår/dyr att implementera i HW och den begränsar hur "bred" design man kan göra med ett rimligt antal transistorer.

64-bitars ARM har en "perfekt" minneskonsistensmodell i bemärkelsen: den fungerar i HW exakt så C++/Java/C# m.fl. definierat att dessa miljöer kräver att det ska fungera i programvara (32-bitars ARM har inte denna fördel).

Apple har idag en mobil CPU som i alla fall matchar Haswell i heltals IPC. Precis som Zen har Apple en distribuerad scheduler (det för alla delar, Ryzen har det för heltal och minnesoperationer). En distribuerad scheduler är mindre effektiv sett till IPC, men den är mer effektiv sett till perf/W. Zen är lika bred i heltalsdelen som Haswell/Broadwell och får därför helt väntat något lägre heltals IPC.

Apple kompenserar med att ha en extremt bred design, finns element i ARM som gör det enklare att gå brett jämfört med x86 (samma gäller POWER, dessa är långt bredare än konkurrerande x86). Rätt säker att nästa Apple CPU kommer matcha Skylake i heltals IPC, dock kan Apple inte klocka sina designer i närheten lika högt som Intel. I alla fall inte än...

Fast detta blev väldigt off-topic, men för mig ett mycket intressant område!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Ett test av Amd vs Nvidia gpu:er med Ryzen http://www.techspot.com/article/1374-amd-ryzen-with-amd-gpu/ Testaren där stöder Yoshman`s uppfattning. Verkar som om allt är en storm i ett vattenglas som vanligt.

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Medlem
Skrivet av tEan:

Ett test av Amd vs Nvidia gpu:er med Ryzen http://www.techspot.com/article/1374-amd-ryzen-with-amd-gpu/ Testaren där stöder Yoshman`s uppfattning. Verkar som om allt är en storm i ett vattenglas som vanligt.

Ja förutom att pappskallarna har kört ROTR's inbyggda benchmark, *suck*. Med den förminskas problemen rejält, för att se mest realistiska prestanda måste man spela spelet som sådant, inte den inbyggda benchmarken. Detta har tagits upp i varenda video om detta. Och som vi nämnde tidigare så syns det som allra tydligast med 2667 i minneshastighet på Ryzen, här drar man av en ren händelse till med 3200... (gissa vilken minnesfrekvens som var vanligast att testa med på Ryzen i cpu benchmarks? 2133-2400). Dessutom så blir problemet bara exponentiellt värre med kraftigare gpu'er vilket man valt att inte testa heller. Och dessutom blandar man in renodlade dx11 titlar för att undersöka ett fel som visar sig i dx12 titlar. jag börjar skönja ett mönster här...

Men om vi går vidare

Nope nothing to see, move along...

still nothing to see, keep moving damnit!

I told you to move on, oh well cant hide it anymore...

Edit, efter detta med en mindre kavalkad av bevismaterial så har Steven Walton mage att säga;
"So, are Nvidia GPUs limiting Ryzen's gaming performance? Well, we didn't find any evidence of that. In some DX12 scenarios, the 1800X performs better than the 7700K when paired with a RX 480 over the GTX 1060, but that doesn't prove Nvidia is handicapping Ryzen."
Allvarligt talat, vad skulle killen behöva se i dx12?

Problemet är som vi sagt vi sagt in absurdum;
Vid benchmark av cpu används oftast nvidia kort för att dom har dom nu starkaste korten och man vill undvika gpu flaskhalsar när man testar processorer och vid benchmarks av processorer så ser man alltid till att vara cpu limiterad (om man inte gör fel...) Detta fel uppträder tydligast just i situationer som dessa vilket i sin tur ger Ryzen en oförtjänt dålig fps pga nVidia, inte pga sin faktiska prestanda.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av Enigma:

Och som vanligt så ignorerar du mycket av det man skriver och använder dig av samma skrift gång på gång som svar. Gällande Ryzen 1700 så har den en boost på 3.1GHz när man lastar fler kärnor medans 7700K har boost på 4.4GHz när man lastar alla kärnor. Det är en enorm frekvensskillnad på 1.3GHz. Bortsett från frekvensen så har den dubbelt så många kärnor och allt måste inte skala perfekt med kärnor för att visa att Ryzen är stark för INGET spel skalar ännu perfekt med kärnor eller är optimerat för Ryzen. Du har just FLERA utvecklare som talar emot dig som optimerar just med hänsyn till Ryzen's existens. Vi har IPC och vi har klockfrekvens så skilj dom två åt då vi snackar styrkor i en design/arkitektur. Dom flesta som köper en 1700 kör en lätt klock på den, och ihop med snabbare RAM så ser vi att Ryzen utpresterade Intel i flera spel på 3.97GHz och redan vid DDR3200.

1700X är i princip i samma prisklass (~3-400kr dyrare) som 7700K om man ska göra en mer matchande jämförelse ang frekvens/pris. Om du tror att 25% högre prestanda för Ryzen är best case över en 7700K så är det bara sorligt. Inte nog med att du ignorerar att den har dubbelt så många kärnor, utan en design som tjänar mer på SMT. Tiden kommer äta upp dina teorier. Det har gått en månad sedan release med en extremt begränsad budget från AMD att göra en så smärtfri lansering som möjligt gällande testing och optimerande och du gör inget annat än att frenetiskt ställa Ryzen mot intel utan minsta hänsyn till vad som är möjligt och vad som faktiskt är på väg för utnyttja Ryzen med den kapacitet som finns. Åhh förresten Quake2 är ett perfekt svar på ditt eviga tjat om skalära heltal. Hade Ryzen vart svag hade den ALDRIG kunnat prestera väl i såpass många spel som den visat att den KAN göra, så problemet ligger någon annan stans, något som visats ganska uppenbart länge nu. Du vill dock inte se övriga problem utan ignorera dom eller ogiltigförklara dom och skylla på exekveringskapacitet i alla lägen varenda gång du får chansen. Jag förresten glorifierar Ryzen sa du? Nä jag har bara skrivit och länkat till nästan alla mina påståenden alla gånger och det jag sagt har visat sig stämma väl. Sen att jag råkade få en CPU för 3700kr med 8 kärnor och 16 trådar och lite klock på som utpresterar Kaby Lake i 5GHz enligt tester som gjorts, det klagar jag inte på. Jag hade Intel innan och bytte av en anledning, och jag bytte knappast ner mig.

Ang kapacitet, vänta tills vi har applikationer med lite högre kvalité än dagens sunkportar till spel eller allmänt trasig kod, dåliga drivare med katastrofalt dåliga implementationer av API stödet. Då snackar vi mer professionella tillämpningar, server och HPC laster. Toms hade en del fina test på detta där man i många fall kunde se vilken kapacitet arkitekturen kan ge. Men nej, taket ligger på 25% mot en Intel quad i alla lägen enligt dig och kommer alltid göra. Spelprestanda kommer inte bli bättre och Ryzen's cachedesign suger.

Jag kan också vara med i långa diskussioner men du tar rekordet i både längd/mängd på inlägg och med antal personer som det blir ett jäkla liv med, för att du vägrar se eller förstå nått annat än din egna teori alla gånger. Förstår inte hur du har varken tid eller ork när mycket av det du skriver många gånger har varit väldigt konstruktivt. Samlingstråden om Zen började rätt bra för att sen börja rista din teori i sten. Det har vart andra fall på GPU sidan också där det blivit ett jäkla liv om AMD versus nvidia där jag vart med en del gånger.

Enda anledningen att jag orkar är för att jag har ett ASD-likt specialintresse för programmering och CPU-design. Programmering är och har varit min största hobby i över 30 år, visade sig att man även kunde få folk att betala för den kunskapen (den trots att jag är utbildad Civing kemi med inriktning mot kvantkemi)

Inläggen må vara långa, finns dock flera fall när jag läst på i timmar innan jag skriver ett inlägg. Möjligen kan en del av inläggen som kommer av sådana undersökningar uppfattas som rätt aggressiva, inte min mening men är inte heller någon hejare på att ta människor rent generellt. Grejen i de fallen är att jag i princip vet svaret, men kan ju knappast skriva ett inlägg som säger: det är så, punkt.

Kollar du i samlingstråden är det trots allt så att de flesta saker jag hävdat blev sant, även de som det var ett herrans liv om som t.ex. att heltals IPC kommer vara lägre än Haswell/Broadwell (gissade på matcha Ivy, men är faktiskt lägre än så i enkeltrådfallet).

Vi bråkade en del om cache-designen också, nu ser vi att för program där trådar behöver kommunicera så är en monolitisk cache med en LLC som är inkluderande mer effektiv. Precis som distribuerad vs global schemaläggare missuppfattades mina påpekade som att den ena är bättre än den andra, men även för cachen finns det fall där Zen har fördel. Typfallet är ju när man kör minst lika många enkeltrådade program som det finns CPU-trådar, dessa är oberoende av varandra och då är en icke-inkluderande cache en fördel då effektiva storleken blir större. Till och med två CCX är en fördel där, två separata L3$-block får verkligen 2x i bandbredd mot ett block. Intels ringdesign skalar bandbredd med antal kärnor, men det blir i praktiken mindre än linjärt (är linjärt i teorin).

Har aldrig sagt att taket ligger på 25 % rakt över, det gäller endast för laster som är begränsade av skalära heltal. För flyttal kan det bli en bra bit över 50 % fördel för 1800X. Å andra sidan kan det så ungefär lika långt till fördel för 7700K om det handlar om vektoriserade flyttal.

Har har jag klargjort att min åsikt är ju baserad på vad som är en optimal CPU-design för vad jag själv använder datorn till. Nu är det rätt mycket, men i praktiken är allt sådant som främst beror av prestanda för skalära heltal (och där prestanda spelar roll) och som har viss skalning med CPU-kärnor men inte alls perfekt. CPU-bunden spelprestanda blir därför väldigt intressant, inte för att det är relevant för spelet i sig utan det är en relevant måttstock för andra laster som också beror av skalära heltal och skalar liknande som spel.

Men börjar faktiskt bli rätt less på Ryzen-diskussionerna, så lägger kanske ner snart. Ingenting nytt av större värde har framkommit på ett tag nu. Ni får lägga champagnen på kylning

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av tellus82:

Ja förutom att pappskallarna har kört ROTR's inbyggda benchmark, *suck*. Med den förminskas problemen rejält, för att se mest realistiska prestanda måste man spela spelet som sådant, inte den inbyggda benchmarken. Detta har tagits upp i varenda video om detta. Och som vi nämnde tidigare så syns det som allra tydligast med 2667 i minneshastighet, här drar man av en ren händelse till med 3200...

https://www.youtube.com/watch?v=nLRCK7RfbUg&t=6s C:a 5.10 min in i videon testas ett annat benchmark av spelet med Ryzen och furyX vs gtx 1070,ser inte ut som några problem med Nvidia kortet där. Och det här med minneshastigheten.Är du säker på att testet utfördes på tisdags-morgon med solen i ryggen,jesus,snart klagar du väl på om testaren är vänsterhänt också?

Om det nu skulle visa sej att problemen bara skulle uppkomma vid en speciell minneshastighet så tror jag inte du ska leta efter fel hos Nvidia utan högst troligt ligger felet i den skakiga Am4 plattformen.

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Medlem
Skrivet av tEan:

https://www.youtube.com/watch?v=nLRCK7RfbUg&t=6s C:a 5.10 min in i videon testas ett annat benchmark av spelet med Ryzen och furyX vs gtx 1070,ser inte ut som några problem med Nvidia kortet där. Och det här med minneshastigheten.Är du säker på att testet utfördes på tisdags-morgon med solen i ryggen,jesus,snart klagar du väl på om testaren är vänsterhänt också?

Om det nu skulle visa sej att problemen bara skulle uppkomma vid en speciell minneshastighet så tror jag inte du ska leta efter fel hos Nvidia utan högst troligt ligger felet i den skakiga Am4 plattformen.

Tittade du ens på bilderna jag länkade? Sen ber jag dig kolla videon längre in där, det kan hända att du får äta upp lite av dina kommentarer... dra mig baklänges...

Angående minneshastigheten så har jag redan kommenterat detta och varför, begriper du fortfarande inte så lär ingen förklaring i världen hjälpa.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Hjälpsam

@tEan: I DX12 verkar det finnas en skillnad, vad den beror på vet jag inte, tror inte på någon medveten elakhet från Nvidia.
https://forum.beyond3d.com/posts/1975531/

Lade in länken till rätt post och inte bara sida.
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

@tEan: I DX12 verkar det finnas en skillnad, vad den beror på vet jag inte, tror inte på någon medveten elakhet från Nvidia.
https://forum.beyond3d.com/threads/no-dx12-software-is-suitab...

Nej inte behöver det vara en medveten elakhet men likväl är det nVidia som kan ordna till det hela.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av Ratatosk:

@tEan: I DX12 verkar det finnas en skillnad, vad den beror på vet jag inte, tror inte på någon medveten elakhet från Nvidia.
https://forum.beyond3d.com/threads/no-dx12-software-is-suitab...

Absolut inget medvetet men problem finns, och dom jobbar tydligen på att minska eller lösa problemet. DX12 har rent allmänt inte vart något som gynnar nvidia. Minskad overhead är möjligt men dom har redan plöjt ner enorma resurser för att få ner detta i DX11. Det är många faktorer som kan ställa till det enormt för en CPU som Ryzen är.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av Yoshman:

Och vad var speciellt med AoS och även Dota 2?

Jo, i AoS presterade R7-1800X väsentligt mycket sämre än i7-6900K jämfört med hur det såg ut i andra spel. En orsak här verkar vara att man "optimerat" vissa delar med något som kallas "non-temporal stores", en typ av instruktioner som gör det möjligt att skriva data utan att blanda in cache. Att använda detta på ett sätt som faktiskt ger en vinst är extremt svårt och kan mycket väl fungera OK på en modell och uselt på en annan. Så Oxide misslyckades uppenbarligen med sin "optimering".

Så verkar ha varit fallet här. När man fixat ovan prestera nu R7-1800X relativt i7-6900K ungefär som vi ser i många andra spel. Optimeringen här var alltså att lyfta Ryzen från en omotiverat låg nivå till den nivå andra spel visade. Exakt detta har jag redan nämnt kring detta spel.

Att endast nämna optimering är att ta en genväg då det även diskuterades om en bugg i MSVC2015 vilken är ordnad i MSVC2017.
Jag antar att det är denna källa du har angående "non-temporal" som lätt till en del diskussioner på nätet.
https://twitter.com/FioraAeterna/status/847472586581712897
http://x86.renejeschke.de/html/file_module_x86_id_194.html

Permalänk
Medlem

@Yoshman @Enigma @tellus82

Tänker mig att den här videon kan vara ganska intressant, med tanke på att många som spelar även streamar samt att det här ämnet behandlats tidigare.

https://www.youtube.com/watch?v=jludqTnPpnU

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Hjälpsam

Mycket intressant!
Den tekniken bör mao inte vara okänd för AMD, kommer vi få se något liknande på Vega eller deras APUr? kanske implementerat via en programerbar FPGA-krets.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Stoff3th3m4n:

@Yoshman @Enigma @tellus82

Tänker mig att den här videon kan vara ganska intressant, med tanke på att många som spelar även streamar samt att det här ämnet behandlats tidigare.

https://www.youtube.com/watch?v=jludqTnPpnU

Länkade den i zen tråden då jag tyckte att alla som inbillade sig att quicksync hade bäst kvalité skulle kika på den. Många tjatade om att mjukvarukodning absolut inte kunde vara bättre vilket gick stick i stäv med vad folk använde. Då fanns tyvärr inte mycket tester förutom på statisk batch kodning vilket inte är samma sak som spelstreaming.

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::