Ang Ryzen's spelprestanda (matchar 7700K idag, presterar bättre i morgondagen)

Permalänk
Medlem
Skrivet av scimanyD:

Motsvarigheten 6600GT var det snabbare kortet.

minns jag inte fel släpptes 6600gt ett par år senare och slogs mer mot 800 serien eller snarare budget varianten eftersom 6800 var den värre. bytte nämligen till 850xt och kikade på 6800 serien

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Aka_The_Barf:

minns jag inte fel släpptes 6600gt ett par år senare och slogs mer mot 800 serien eller snarare budget varianten eftersom 6800 var den värre. bytte nämligen till 850xt och kikade på 6800 serien

Stämmer, 6600GT kom ca 2 år efter. Kommer ihåg bara att 9600/9700 pro jämfördes mot den.
Om vi går efter årtal så är Geforce 5000-serien som ( FAIL ) blir närmast att jämföra. ^^

Visa signatur

ASUS Rog Strix X-570 E-Gaming | AMD R9 3900X 12 Cores @ 4.3GHz @ 1.28Vcore, 24/7 Stable | 16GB DDR4 Corsair Vengance @ 3600MHz CL16, 21, 21, 38 | Asus RX 6800 TUF Gaming @ 2450/2130 Mhz | Corsair AX 1200W | Custom vattenkylning av EKWEB och Phobya (CPU) | ASUS Essence STX II Ljudkort | Sennheiser HD598 | Corsair Force GT 120GB SSD (OS Drive) | Samsung 850 Pro 256GB SSD (Some Games) | WD Black SN750 NVMe 1TB SSD @ game mode | 4x WDC diskar 3.8TB |

Permalänk
Medlem
Skrivet av scimanyD:

Stämmer, 6600GT kom ca 2 år efter. Kommer ihåg bara att 9600/9700 pro jämfördes mot den.
Om vi går efter årtal så är Geforce 5000-serien som ( FAIL ) blir närmast att jämföra. ^^

köpte 6600gt till min bror, han var nöjd med det iallafall ja 5000 serien var rätt fail haha!

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av scimanyD:

ATI/AMD har sedan länge tillbaka haft bättre specs på papper, med hästlängder. Prestandan i verkligheten har visat annat, alltid.

Om jag ej missminner mig har det väl inte varit så länge? Jag kommer ihåg exempelvis 5870 from amd som ägde sönder nvidias. till och med slogs bra med nvidias näst kommande kort 480. Sen 7970GHz var väl mycket bättre även där än 680 och hade ej mycket högre specs och det är inte så länge sen? eller kommer jag ihåg fel nu?

Skrivet av Aka_The_Barf:

minns jag inte fel släpptes 6600gt ett par år senare och slogs mer mot 800 serien eller snarare budget varianten eftersom 6800 var den värre. bytte nämligen till 850xt och kikade på 6800 serien

har för mig de samma. har för mig att x800 pro släpptes typ våren 2004 och 6600gt släpptes typ sen sommar 2004?

det som 800 serien failade dock på var shader model 3. då dom hade bara sm 2.0b och jag kunde ej spela exmepelvis rainbow six vegas på lan med vänner för spelet krävde sm 3.0

Permalänk
Medlem
Skrivet av Aka_The_Barf:

köpte 6600gt till min bror, han var nöjd med det iallafall ja 5000 serien var rätt fail haha!

Japp 5000 serien presterade sämre än en stor sten haha

Visa signatur

ASUS Rog Strix X-570 E-Gaming | AMD R9 3900X 12 Cores @ 4.3GHz @ 1.28Vcore, 24/7 Stable | 16GB DDR4 Corsair Vengance @ 3600MHz CL16, 21, 21, 38 | Asus RX 6800 TUF Gaming @ 2450/2130 Mhz | Corsair AX 1200W | Custom vattenkylning av EKWEB och Phobya (CPU) | ASUS Essence STX II Ljudkort | Sennheiser HD598 | Corsair Force GT 120GB SSD (OS Drive) | Samsung 850 Pro 256GB SSD (Some Games) | WD Black SN750 NVMe 1TB SSD @ game mode | 4x WDC diskar 3.8TB |

Permalänk
Medlem
Skrivet av Fatty:

Om jag ej missminner mig har det väl inte varit så länge? Jag kommer ihåg exempelvis 5870 from amd som ägde sönder nvidias. till och med slogs bra med nvidias näst kommande kort 480. Sen 7970GHz var väl mycket bättre även där än 680 och hade ej mycket högre specs och det är inte så länge sen? eller kommer jag ihåg fel nu?

har för mig de samma. har för mig att x800 pro släpptes typ våren 2004 och 6600gt släpptes typ sen sommar 2004?

det som 800 serien failade dock på var shader model 3. då dom hade bara sm 2.0b och jag kunde ej spela exmepelvis rainbow six vegas på lan med vänner för spelet krävde sm 3.0

480 var oftast snabbare än 5870 - https://forums.anandtech.com/threads/hd5870-vs-gtx480-two-yea... Men även den hade såklart sina egna problem, ägde 1 sådan.
Nu är det 5 år sedan 680 och 7970 kom ut, minns inte exakt specs så fick kolla upp det här http://www.game-debate.com/gpu/index.php?gid=670&gid2=576&com....

Ang 800 serien så ja det var synd med deras S.M, var ju en stark gpu och allt i sig.

Visa signatur

ASUS Rog Strix X-570 E-Gaming | AMD R9 3900X 12 Cores @ 4.3GHz @ 1.28Vcore, 24/7 Stable | 16GB DDR4 Corsair Vengance @ 3600MHz CL16, 21, 21, 38 | Asus RX 6800 TUF Gaming @ 2450/2130 Mhz | Corsair AX 1200W | Custom vattenkylning av EKWEB och Phobya (CPU) | ASUS Essence STX II Ljudkort | Sennheiser HD598 | Corsair Force GT 120GB SSD (OS Drive) | Samsung 850 Pro 256GB SSD (Some Games) | WD Black SN750 NVMe 1TB SSD @ game mode | 4x WDC diskar 3.8TB |

Permalänk
Medlem
Skrivet av Fatty:

Om jag ej missminner mig har det väl inte varit så länge? Jag kommer ihåg exempelvis 5870 from amd som ägde sönder nvidias. till och med slogs bra med nvidias näst kommande kort 480. Sen 7970GHz var väl mycket bättre även där än 680 och hade ej mycket högre specs och det är inte så länge sen? eller kommer jag ihåg fel nu?

7970 hade rätt mycket högre teoretisk kapacitet än 680 (3.8Tflops mot 3.1, och 3GB vram mot 2GB med högre bandbredd), och vid release var 680 snabbare och billigare. Men ja 7970Ghz var snabbare, och allt eftersom så blev Tahiti korten rätt mycket bättre än gk104 korten. Men vid release så slog 680 7970, och 770 7970Ghz, dock var AMD först med sina kort så det är väl lite som sig bör.

Permalänk
Medlem
Skrivet av sKRUVARN:

7970 hade rätt mycket högre teoretisk kapacitet än 680 (3.8Tflops mot 3.1, och 3GB vram mot 2GB med högre bandbredd), och vid release var 680 snabbare och billigare. Men ja 7970Ghz var snabbare, och allt eftersom så blev Tahiti korten rätt mycket bättre än gk104 korten. Men vid release så slog 680 7970, och 770 7970Ghz, dock var AMD först med sina kort så det är väl lite som sig bör.

Enligt mig borde verkligen inte attamd har mer "vram" räknas in. Med tanke på att 3GB räcker ännu idag medans 2GB är för lite och 7970GHz funkar fortfarande ok idag.
Sen kostade väl 7970GHz mindre än vad 680 gjorde runt launch? 7970GHz kostade runt 4400kr medans 680 kostade 5000kr typ?

Permalänk
Medlem

Tråden verkar ha spårat ur.

Så. Vilka nyheter finns det på horisonten? Vad ser Ryzen-ägarna fram emot?

UEFI-uppdateringar eller nåt annat?

Permalänk
Medlem
Skrivet av Fatty:

Enligt mig borde verkligen inte attamd har mer "vram" räknas in. Med tanke på att 3GB räcker ännu idag medans 2GB är för lite och 7970GHz funkar fortfarande ok idag.
Sen kostade väl 7970GHz mindre än vad 680 gjorde runt launch? 7970GHz kostade runt 4400kr medans 680 kostade 5000kr typ?

7970 kostade faktiskt mer än 5000kr

Visa signatur

GTX 1080 STRIX - Intel 8700K 4,9Ghz - Gigabyte Z370 Ultra Gaming- Noctua NH-D15 - EVGA 650W G2 - Corsair Vengeance 16GB 3000 MHz - Fractal Design Define S Window - SSD 500GB - HDD 1 TB

Permalänk
Medlem
Skrivet av cubeR:

7970 kostade faktiskt mer än 5000kr

Du tänker bara på 7970 nu och inte 7970 GHz va ? För 7970 var dyrare än 7970GHz vid launch.

Permalänk
Medlem
Skrivet av brillorm:

Tråden verkar ha spårat ur.

Så. Vilka nyheter finns det på horisonten? Vad ser Ryzen-ägarna fram emot?

UEFI-uppdateringar eller nåt annat?

Där är nog bios uppdateringar så man får upp sitt minne i rätt hastighet utan trixande med volt timings mm.
Sen får vi se om amd har förberett mkt inför ryzen genom sammarbete med mjukvaru företag. Det sa dom att dom lagt tid på. Det gynnar säkert ryzen.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Avstängd
Skrivet av scimanyD:

ATI/AMD har sedan länge tillbaka haft bättre specs på papper, med hästlängder. Prestandan i verkligheten har visat annat, alltid.

och sen testat man korten i vulkan och ser dess fulla kraft i Doom.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Hjälpsam
Skrivet av brillorm:

Tråden verkar ha spårat ur.

Så. Vilka nyheter finns det på horisonten? Vad ser Ryzen-ägarna fram emot?

UEFI-uppdateringar eller nåt annat?

  • Japp uppdateringar av UEFI, AMD släpper Agesa kod under April och Maj den skall in under tillverkarnas UEF, kommer troligtvis göra mycket för klockningen av minne.

  • Hoppas på lite grejer i Windows inför dess stora uppdatering elfte April, främst strömsparfunktionerna säger AMD att de vill skruva på.

  • AMD och Nvidia bör kunna ha anpassningar till Ryzen i senare versioner av sina drivrutiner.

  • Tillkommer en del spelpatchar här och där, finns en del spel där Ryzen går sämre än den borde.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

@cubeR: jag köpte mitt 7970 för 3562:- i maj 2012. Pressar kortet i spel än idag utan större problem. Bra köp alltså!

Visa signatur

5900X & 6700 XT

Xperia 1 mk. V

Permalänk
Medlem

En vidare koll hur ryzen/amd/nvidia kombo ter sig, det finns definitivt något underligt vid cpu limiterade/ icke gpu limiterade situationer.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

@Yoshman: Du pratar om en sak jag om en annan och du blandar ihop saker rätt friskt. Sen att du försöker förlöjliga på den nivån är en aning pinsamt.

Igen skilj på äpplen och päron.

Vad jag tror vi i grunden diskuterar är varför Nvidia verkar äta mer CPU-kraft och framförallt: kan Nvidia göra något åt detta i DX12 (utöver det uppenbara att göra deras drivers generellt snabbare)?

Är inte helt stolt över förra inlägget, men ett visst mått av frustration inställer sig ändå när du flera gånger hävdar att det jag skriver är fel, det trots att länkarna (som bl.a. är den officiella beskrivningen från Nvidia, ingen random youtuber) visar på motsatsen.

Du har så här långt överhuvudtaget inte styrkt det du påstår med någon artikel eller white paper som beskriver det hela.

Tog ett tag att svara, min gamla laptop hade tydligen fått nog. Tangentbordet var på fallrepen och blev ohållbart till slut, men sitter nu med ny fin maskin.

Skrivet av tellus82:

AMD har hårdvarustöd i sin gpu scheduler för async compute, detta har inte nvidia, inte ens på pascal, där gör man en fullösning som egentligen inte hanterar async compute som det är tänkt. Detta i sak är separat från den arbetsfördelning som sedan sker av denna hantering.

Förstår vad du menar här och håller till största del med på den punkten. Är dock VÄLDIGT svårt att föra en diskussion när felaktiga termer används.

ALLA DX12 GPUer stödjer "async compute" då två operationer är asynkrona om de är oberoende på tidsaxeln. Vad du menar är att AMD har HW stöd för parallell exekvering av compute och 3d-shaders (rätt term är egentligen "kernel" för ett GPU-program).

Delen med om det saknas HW-stöd är fel i sak: både Pascal och Maxwell gen 2 har stöd för att samtidigt köra compute- och 3d-kernels. Till skillnad från GCN kan dock Pascal/Maxwell gen 2 endast köra compute- ELLER 3d-kernel per SM, däremot kan man vid ett visst tillfälle ha vissa SMs konfigurerade att ta jobb från grafik-kön medan de andra plockar jobb från beräkningskön.

Skillnaden är att uppdelningen är statisk i Maxwell och dynamisk i Pascal, den statiska uppdelningen gjorde det i praktiken värdelöst att köra compute- och 3d-kernels parallellt då det blev långsammare om man råkar göra en icke-optimal split. Så numera fungerar Maxwell gen 2 precis som Maxwell gen 1 och tidigare samt som Intels GPUer. D.v.s. finns fortfarande stöd för separata köer på DX12 nivå (direct and compute), men allt stoppas in i en och samma GPU-kö.

Hittade detta, är tydligen fler än jag som stör sig på att folk inte kan hålla isär "parallel" och "async". Här påpekas också helt korrekt att folk väldigt ofta använder termen "concurrent" på fel sätt. "Parallel execution" kräver minst två fysiska kärnor, "concurrent execution" går alldeles utmärkt att göra även på ett system med en CPU-tråd (multitrådning i Windows 95 t.ex.).

Några axplock vad som sägs i inlägget jag hittade:

"Pascal solves this problem with 'dynamic load balancing' ; the 8 SMs assigned to A can be reassigned to other tasks while Task B is still running; thus saturating the SMs and improving utilization.

For some reason many people have decided that Pascal uses preemption instead of async compute.

This makes no sense at all. Preemption is the act of telling a unit to halt execution of its running task. Preemption latency measures the time between the halt command being issued and the unit being ready for another assignment."

Han håller uppenbarligen med mig om punkten kring "preemption", finns liksom noll teknisk anledning varför man skulle implementera samtidig körning av compute- och 3d-kernels på det sättet. Är ju betydligt effektivare att bara köra dem sekventiellt, det är HELT tillåtet enligt både i DX12 och Vulkan (är fortfarande "async compute", dock inte parallell exekvering av compute/3d).

Har även plöjt denna Beyond3D tråd. Mycket matnyttigt där, bl.a. klarläggning av skillnaden på "async" och "parallel". Ser inte att något som framkommer där motsäger något jag skrivit om Nvidias DX12 drivare i den tråden.

En sak som nämndes i tråden om "context-switch" är att Nvidias GPUer har två kontext: ett för grafik och ett för compute. Detta kan nog förvirrat vissa till att dra slutsatsen att man aktivt hoppar mellan dessa i DX12. Så är inte fallet, kör man CUDA/OpenCL använder GPUn compute-läget (då har Kepler och framåt 32 köer). Kör man däremot DX12/Vulkan är man alltid i grafikläget, grafikkön är ett grundmängd av beräkningsköerna så allt som kan köras i compute-läget kan även köras i grafikläget.

Även om det tekniskt finns 1 grafikkö och 31 beräkningsköer från Maxwell gen 2 och framåt i grafikläget pekar det mesta på att man bara använder 1 + 1 för Pascal (i Maxwell gen 2 användes 1 + 1 ett tag men nu är det 1 + 0, d.v.s. allt går till 3d-kön på HW-nivå).

Skrivet av tellus82:

Problemet är att cpu belastningen av denna hantering och generell arbetstråd för gpu är på nvidia betydligt större än på AMD, dessutom så sprids detta cpu-arbete ut i dx11 på kärnor på ett vettig sätt så där märker man det inte speciellt mycket förutom i extremt cpu begränsade scenarion, där kommer en AMD GPU med samma prestanda annars vara betydligt snabbare då cpu inte blir en flaskhals för AMD gpu'n (trots högre fps). Edit: Kan tillägga att det tillkommer ännu en komplicerad vinkel på prestanda här och det är att trots AMD's lägre overhead så finns i dx11 problemet att deras huvudarbetstråd inte fördelas över mer än en tråd. Detta gör att prestanda vid cpu flaskhals blir extremt vansklig att bedömma mellan AMD & nV och skiljer från spel till spel beroende på t.ex. draw calls och geometri.
Fördelningen av detta arbete i dx11 på cpu'n står nVidias drivare för som det förklaras ganska ingående i videon, problemet kommer i dx12 där nVidia vill lägga över ansvaret på utvecklare att hantera deras fullösning till async shader/compute som tilkommer i dx12 titlar med async stöd. Detta orsakar en del problem som kan ses extremt tydligt i ROTR i just dx12 med Ryzen. Lösningen till problemen här ligger enbart hos nVidia då det defakto är deras mjukvarulösning som ställer til det. Om det vore spelet i sig eller OS så skulle man se samma resultat med en AMD gpu men det gör man inte, det sker enbart med nvidia gpu.

Frågor på detta?

Nu verkar vi långt mer överens än tidigare! Har hela tiden hävdat att Nvidia inte kan göra speciellt mycket i DX12 då drivern där inte har någon möjlighet alls att lägga ut jobbet på flera trådar. Det finns en form av schemaläggning som utförs, men den har absolut inget med "preemption" att göra (vilket du hävdat innan och jag hängt upp mig på).

Nvidia når långt närmare sina GPUers teoretiska kapacitet jämfört med AMD, en orsak av detta är garantera att Nvida lägger långt mer CPU-tid på att konstruera en optimal kernel för varje jobb. Att skapa en kernel kan förenklat liknas vid att kompilera ett program, bara att detta måste ske på millisekundnivå! Så länge man är GPU-bunden är Nvidias lösning lysande, man offrar mer CPU-cykler för att få ut mer av GPUn som är primär flaskhals.

Problemet med vad Nvidia gör är att det blir viktigare att endera ha väldigt hög prestanda per CPU-kärna alt. sprida jobbet väldigt jämnt mellan CPU-trådar. I DX11 gör Nvidia ett lysande jobb här, i DX12 måste detta göra i varje spel.

En viktig sak som skiljer här är att man vill hitta en optimal ordning att köra alla compute- och 3d-kernels. Inte alls säkert att man vill köra saker i samma ordning de postades till DX12/Vulkan köerna, båda dessa APIer innehåller explicita synkroniseringspunkter i form av barriärer (barriers) och uppsamlingspunkter (fences) som beskriver vad en viss kernel förutsätter ska vara färdigt när den når en viss barrier/fence.

AMD löser detta problem i HW via ACE medan Nvidia löser detta i drivers. Notera att CPUn endast bestämmer vilken ordning kernels ska köra och vilka som eventuellt kan köra parallellt, detta läggs in i en (eller i Pascal, potentiellt två 3d/compute queue) kö som processas av GPUn. När en kernel väl börja köra är CPUn helt ute ur ekvationen oavsett GPU (gäller även Intel).

Skrivet av tellus82:

Edit: Det går att slå av flertrådad optimering i nVidias drivare på pascal även för dx12, inte enbart dx11 (spelprofil, trådad optimering/threaded optimization). Körde nyss en benchmark i ROTR med trådat och otrådad optimering och det gav en rätt bra prestandaskjuts i dx12 med trådad optimering (25% på vissa ställen). Med andra ord så sköter drivarn fortfarande en utspridning av jobbet även i dx12, frågan som uppstår här är vad som sprids ut då drivarn egentligen inte ska ha med detta att göra i just dx12 enligt allas utsago...

Om det vore fallet stämmer ju inte Nvidias egna information. Rätt säker att man har olika optimeringspunkter för hur man synkroniserar anrop som görs från olika trådar, alla dessa ska ju serialiseras ner till underliggande en/två GPU-köer. Nvidia har en punkt kring detta i deras "do's and don'ts for DX12"

"don’t create too many threads or too many command lists
Too many threads will oversubscribe your CPU resources, whilst too many command lists may accumulate too much overhead
"

Detta är generellt sant, använder man för mycket parallellism kommer man till slut till en punkt där fler CPU-kärnor minskar prestanda i stället för att öka den. Det här fenomenet ser man i alla applikationer där trådarna måste kommunicera med varandra, är också därför Amdahls lag inte blir exakt utan det är en övre gräns på hur väl något kan skala.

Amdahls förutsätter att den seriella delen är konstant, i praktiken ökar den ju fler CPU-kärnor man slänger på då kostnad för synkronisering ökar, ännu en orsak varför jag har svårt att se 6-8 kärnor bli speciellt relevant på skrivbordet inom överskådlig tid. De flesta desktop-program är inte "embarrassingly parallel", så maximal prestanda per kärna trumfar nästan alltid fler långsammare kärnor (gick själv från fyra kärnor till två kärnor på min huvudlaptop, den nya är i praktiken snabbare på nästan allt jag gör och du snurrar ändå saker som Hyper-V/Ubuntu konstant i bakgrunden).

Är vi inte överens egentligen? Nvidia har en GPU-design som lägger mer ansvar på driverprogramvara, i DX12 är det helt upp till applikationer att sprida lasten -> Nvidia kan inte göra något utöver att generellt minska CPU-overhead (i DX11 kan de däremot själva bättre sprida lasten).

I slutändan är detta rätt mycket ett icke-problem, i alla fall med i7-7700K. Flaskhalsen är ju ändå nästan alltid GPU-delen och för tillfället har Nvidia monopol på high-end segmentet. D.v.s. även om AMD GPUer äter mindre CPU kommer ändå totalresultatet bli bättre med GTX 1070 eller bättre, det även om man har en Ryzen CPU. Problemet är att man inte kan veta hur mycket DX12/Vulkan utvecklingen tar far och framtida spel blir väsentligt mer CPU-tunga. DX12/Vulkan lär inte vara i majoritet än på något år i alla fall.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av _Merc_:

och sen testat man korten i vulkan och ser dess fulla kraft i Doom.

Vulkan i Doom ger en fin boost åt bägge partners.

Visa signatur

ASUS Rog Strix X-570 E-Gaming | AMD R9 3900X 12 Cores @ 4.3GHz @ 1.28Vcore, 24/7 Stable | 16GB DDR4 Corsair Vengance @ 3600MHz CL16, 21, 21, 38 | Asus RX 6800 TUF Gaming @ 2450/2130 Mhz | Corsair AX 1200W | Custom vattenkylning av EKWEB och Phobya (CPU) | ASUS Essence STX II Ljudkort | Sennheiser HD598 | Corsair Force GT 120GB SSD (OS Drive) | Samsung 850 Pro 256GB SSD (Some Games) | WD Black SN750 NVMe 1TB SSD @ game mode | 4x WDC diskar 3.8TB |

Permalänk
Datavetare
Skrivet av tellus82:

https://www.youtube.com/watch?v=V1XHdWVKRkA

En vidare koll hur ryzen/amd/nvidia kombo ter sig, det finns definitivt något underligt vid cpu limiterade/ icke gpu limiterade situationer.

Killen kan ju inte läsa sina egna grafer. Han anser att prestanda är sämre i DX12, men graferna visar ju på konsekvent bättre 1 % low (det oavsett om CPUn är i7-7700K eller Ryzen) med DX12 jämfört med DX11. Vem bryr sig om genomsnittlig FPS minskar med 3-4 % för GTX 1060 med Ryzen när man går från DX11 till DX12?

Nu är jag rätt skeptisk till 0,1 % siffrorna, misstänker att de har VÄLDIGT hög osäkerhet. Men man kan i alla fall konstatera att GTX 1060 har rätt konsekvent högre 0,1 % värden i DX12 jämfört med RX 480 (oavsett CPU). Hur är det en försämring?

Finns det någon konstigt i dessa resultat alls? Blir man CPU-bunden är i7-7700K @ 5 GHz > R7-1700X @ 4 GHz. Ja, är inte det helt förväntat? Att skillnaden är väsentligt mindre än 40 % tyder ju på att man fortfarande till viss del är GPU-bunden alt. så skalar dessa titlar relevant förbi 4 CPU-kärnor.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av brillorm:

Tråden verkar ha spårat ur.

Så. Vilka nyheter finns det på horisonten? Vad ser Ryzen-ägarna fram emot?

UEFI-uppdateringar eller nåt annat?

Jag ser fram emot tester av Ryzen/7700k + Vega/1080 så att man kan se hur mycket grafikdrivrutiner påverkar prestandan i DX12/11.
Mycket för att jag tror att Nvidias drivrutiner inte utnyttjar kapaciteten av multicore CPU i DX12.

Det finns ju redan exempel där RX480 i crossfire stänger luckan mellan ryzen och intel när man kör DX12
https://www.youtube.com/watch?v=0tfTZjugDeg&t=1040s&ab_channe...

Visa signatur

| CPU: AMD Ryzen 5600x | RAM: G.Skill 16GB 3200 MHz Ripjaws V | GPU: Powercolor RX 6800 | Mobo:ASUS ROG STRIX B550-F Gaming | SSD: Kingston SSD V300 240GB | Nätagg: Fractal Design Ion+ Platinum 660W | Kylare: Arctic Liquid Freezer II 120mm | Chassi: Cooltek W2 | OS: Windows 10

Permalänk
Medlem
Skrivet av Yoshman:

Killen kan ju inte läsa sina egna grafer. Han anser att prestanda är sämre i DX12, men graferna visar ju på konsekvent bättre 1 % low (det oavsett om CPUn är i7-7700K eller Ryzen) med DX12 jämfört med DX11. Vem bryr sig om genomsnittlig FPS minskar med 3-4 % för GTX 1060 med Ryzen när man går från DX11 till DX12?

Nu är jag rätt skeptisk till 0,1 % siffrorna, misstänker att de har VÄLDIGT hög osäkerhet. Men man kan i alla fall konstatera att GTX 1060 har rätt konsekvent högre 0,1 % värden i DX12 jämfört med RX 480 (oavsett CPU). Hur är det en försämring?

Finns det någon konstigt i dessa resultat alls? Blir man CPU-bunden är i7-7700K @ 5 GHz > R7-1700X @ 4 GHz. Ja, är inte det helt förväntat? Att skillnaden är väsentligt mindre än 40 % tyder ju på att man fortfarande till viss del är GPU-bunden alt. så skalar dessa titlar relevant förbi 4 CPU-kärnor.

Du missade poängen rätt duktigt där, det man visar är en försämring i dx12 med specifikt ryzen (inte intel) med just nvidia gpu samtidigt som en amd gpu inte visar detta beteende, samtidigt visas i dom avsnitten inte samma problem på intel cpu'n, om det vore ett simpelt problem med cpu limitering skulle bägge visa samma beteende då bägge var just cpu limiterade.

Alltså, i 720p testerna med cpu limitering presterar nvidia sämre i dx12 än det borde relativt dx11 bara på ryzen samtidigt som detta inte händer på intel, dessutom presterar nvidia sämre relativt amd på ryzen med lägre minneshastighet även i dx11, deltat mellan rx480 och 1060 ökar, med AMD gpu så sker detta inte på intel eller ryzen, deltat mellan gpuerna krymper/ökar på ett sätt som det inte ska göra, kom ihåg bägge var kraftigt cpu limiterade och fps skulle inte dykt på kombon nvidia/ryzen om allt funkar bra. Tittar man på graferna så ser man dessutom att ryzen är fullt kapabel att leverera mer än den fps som just kombon ryzen/nvidia/dx12 ger. Nu är det dock detta som visats i två andra videos också så det är inte något nytt, det råkar bara vara ännu en i leden som verifierar faktumet. Här syns dock inte lika stor procent som hos dom andra då denna kille inte hade tillgång till att köra rx480 i cf vilket som han också säger hade ökat skillnaderna än mer, vilket också har demonstrerats av andra (alltså kraftigare nv gpu & amd i cf). I dom videorna så uppvisas stora skillnader inte bara i relativ prestanda utan direkt prestanda när nvidiakort springer in i en artificiell fps vägg på ryzen samtidigt som en AMD gpu inte gör det.

Det intressanta här är att som mindblank säger så minskas problemen genom att köra högre minneshastighet på ryzen så det skulle kunna vara så simpelt att den overhead som orsakas av nvidia drivarn äter minnesbandbredd i förhållande till antal kärnor som jobb sprids över, om den förklaringen rimmar... Det skulle kunna vara så att nVidia har i drivarn limiterat trådspridandet till max 8 trådar på processorer med 8+ och man identifierar detta genom cpu id men att den inte känner igen ryzen och däför ställer till problem (ren amatörmässig spekulation alltihopa)

Det ska hur som helst bli intressant att se när vega dyker upp eller om nvidia kryper till korset och erkänner att det finns en bugg i deras mjukvara.

Edit: Just 0,1 och 1% frametime värden är riktigt vanskliga att ha med om man inte är stensäker på att inget annat påverkar dom och att man räknar ut dom på korrekt sätt, i Mass Effect Andromeda som exempel så har man vid första inladdning i spelvärlden 0,1 & 1% värden oavsett setup som är riktigt dåliga, efter ett par minuter eller vid laddning två och framåt sker inte detta, i detta fall beror det såvitt jag luskat ut på Denuvo som ligger och kranar på cpu belastning så mycket det bara får för dekryptering av data. Andra saker som påverkar just 0,1 & 1% till mycket hög grad är minnesbandbredd och allmän optimering i spelen. GamersNexus visar på ganska stora förändringar på Ryzen och frametimes med olika patchar och uppdateringar som kommit sedan launch.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

Så jag som planerat att köpa en ryzen 1700 till sommaren, bör jag välja AMD eller nvidia för GPU? Tänkt mig något i 1060-klassen.

Skickades från m.sweclockers.com

Visa signatur

AMD Ryzen 5 1600 3.2 GHz - MSI GeForce GTX 1060 Gaming X 6GB - Corsair 2x8GB 3000MHz

YOMAHA, YOMASO!

Permalänk
Medlem
Skrivet av Mirialia:

Så jag som planerat att köpa en ryzen 1700 till sommaren, bör jag välja AMD eller nvidia för GPU? Tänkt mig något i 1060-klassen.

Skickades från m.sweclockers.com

i den klassen spelar det ingen roll egentligen, inte med dagens spel. Min nuvarande burk i signatur har spelprestanda som en 1800x, i snitt lite snabbare än en 1800x (än så länge, ganska precis som en 4790k) men hur som helst så är ett överklockat 1080 inte limiterat av min cpu i 2560x1080 i något nytt spel så oddsen att se detta problem är praktiskt taget obefintligt just nu med ett 1060 och ryzen. Om spel blir oerhört mycket mer cpu krävande så kan detta förändras såklart men det kan även spela ännu mindre roll om nVidia ser till att fixa problemen.

Detta är i princip bara ett problem vid cpu benchmarks speciellt eftersom alla och hans mormor kör nvidia kort vid cpu testande samt att man gärna vill vara just cpu limiterad vid benchmark av just cpu. Anledningen till att det kommer på tal alls egentligen är att det målar upp en något felaktig bild av Ryzens faktiska spelprestanda med en artificiell sänkning av fps tack vare nVidia gpu/drivare

Edit: Jag bör lägga till att jag pratar om spelande vid ultra inställningar för runt ~100fps snarare än low och massiv fps (200+), detta är dock väldigt spelberoende hur det reagerar vid hög fps. Men för absolut max fps gaming är idag en 7700k med 3600 minne bättre än ryzen men då pratar vi ofta runt 300fps och liknande men det beror på hur enkeltrådat det i slutändan är.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Avstängd
Skrivet av scimanyD:

ATI/AMD har sedan länge tillbaka haft bättre specs på papper, med hästlängder. Prestandan i verkligheten har visat annat, alltid.

Alltid? AMD/ATI har vid flertalet tillfällen piskat Nvidia. Deras 9800 var överlägsen allt Nvidia lanserade vid den tidpunkten. AMDs HD5870 gav ett svårslaget prestanda per krona och prestanda per watt.. Visst de gick upp mot Nvidias GTX 480 som krävde ett kyltorn och en kärnreaktor för att kyla och drivas men det gör inte att du har mindre fel för det. Senast AMD var riktigt med i matchen var när de lanserade sitt HD7970. Klockade enormt bra vid lansering.

Skrivet av ClintBeastwood:

"sedan länge tillbaka" skrev han och inte alltid

Jaså? Svårt att tyda "Prestandan i verkligheten har visat annat, alltid" som något annat än att han faktiskt menar så länge som Nvidia gjort grafikkort.

Skrivet av scimanyD:

ATI/AMD har sedan länge tillbaka haft bättre specs på papper, med hästlängder. Prestandan i verkligheten har visat annat, alltid.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Datavetare
Skrivet av tellus82:

Du missade poängen rätt duktigt där, det man visar är en försämring i dx12 med specifikt ryzen (inte intel) med just nvidia gpu samtidigt som en amd gpu inte visar detta beteende, samtidigt visas i dom avsnitten inte samma problem på intel cpu'n, om det vore ett simpelt problem med cpu limitering skulle bägge visa samma beteende då bägge var just cpu limiterade.

Alltså, i 720p testerna med cpu limitering presterar nvidia sämre i dx12 än det borde relativt dx11 bara på ryzen samtidigt som detta inte händer på intel, dessutom presterar nvidia sämre relativt amd på ryzen med lägre minneshastighet även i dx11, deltat mellan rx480 och 1060 ökar, med AMD gpu så sker detta inte på intel eller ryzen, deltat mellan gpuerna krymper/ökar på ett sätt som det inte ska göra, kom ihåg bägge var kraftigt cpu limiterade och fps skulle inte dykt på kombon nvidia/ryzen om allt funkar bra. Tittar man på graferna så ser man dessutom att ryzen är fullt kapabel att leverera mer än den fps som just kombon ryzen/nvidia/dx12 ger. Nu är det dock detta som visats i två andra videos också så det är inte något nytt, det råkar bara vara ännu en i leden som verifierar faktumet. Här syns dock inte lika stor procent som hos dom andra då denna kille inte hade tillgång till att köra rx480 i cf vilket som han också säger hade ökat skillnaderna än mer, vilket också har demonstrerats av andra (alltså kraftigare nv gpu & amd i cf). I dom videorna så uppvisas stora skillnader inte bara i relativ prestanda utan direkt prestanda när nvidiakort springer in i en artificiell fps vägg på ryzen samtidigt som en AMD gpu inte gör det.

Det intressanta här är att som mindblank säger så minskas problemen genom att köra högre minneshastighet på ryzen så det skulle kunna vara så simpelt att den overhead som orsakas av nvidia drivarn äter minnesbandbredd i förhållande till antal kärnor som jobb sprids över, om den förklaringen rimmar... Det skulle kunna vara så att nVidia har i drivarn limiterat trådspridandet till max 8 trådar på processorer med 8+ och man identifierar detta genom cpu id men att den inte känner igen ryzen och däför ställer till problem (ren amatörmässig spekulation alltihopa)

Det ska hur som helst bli intressant att se när vega dyker upp eller om nvidia kryper till korset och erkänner att det finns en bugg i deras mjukvara.

Edit: Just 0,1 och 1% frametime värden är riktigt vanskliga att ha med om man inte är stensäker på att inget annat påverkar dom och att man räknar ut dom på korrekt sätt, i Mass Effect Andromeda som exempel så har man vid första inladdning i spelvärlden 0,1 & 1% värden oavsett setup som är riktigt dåliga, efter ett par minuter eller vid laddning två och framåt sker inte detta, i detta fall beror det såvitt jag luskat ut på Denuvo som ligger och kranar på cpu belastning så mycket det bara får för dekryptering av data. Andra saker som påverkar just 0,1 & 1% till mycket hög grad är minnesbandbredd och allmän optimering i spelen. GamersNexus visar på ganska stora förändringar på Ryzen och frametimes med olika patchar och uppdateringar som kommit sedan launch.

Har vi sett samma video?

  • BF1: ungefär samma resultat med 480 oavsett DX-API, det för båda CPU-modellerna. Med 1060 är DX12 sämre oavsett CPU-modell.

  • RoTR: DX12 presterar bättre oavsett GPU och CPU (d.v.s DX12 presterar bättre än DX11 med samma GPU/CPU)

  • Hitman: DX12 presterar bättre oavsett GPU och CPU

  • DeusEx: med 1060 presterar DX12 4 % sämre med 1700X och 4 % bättre med 7700K, är det definitionen på "bug"?

Angående 0,1 och 1 percentilerna. När har 1 % fallet varit ett problem? I detta fall är resultatet helt samstämmigt inom varje titel och CPU, d.v.s. det är samma relativa skillnad mellan genomsnittlig FPS och 1 % low oavsett om man använder 1060 eller 480 -> rimligen är resultatet OK och skillnaden som finns mellan CPUer är en effekt av att de har olika antal CPU-kärnor och olika kapacitet per kärna.

Problemet med 0,1 % är att en sekvens på en minut med genomsnittlig FPS på 100 kommer basera sitt 0,1 % värde på att mindre än 10 scener över hela sekvensen inte störts av något externt. Det är i genomsnitt en mätpunkt per tio sekunder!

För att 1 % värdet ska bli opålitligt krävs att minst 100 scener, i genomsnitt en per sekund, får omotiverat lång renderingstid. Om så är fallet har man ett problem även i praktiken. 0,1/1 % är inte genomsnitt, så enstaka avvikande värden påverkar inte detta mätetal. Är som median fast i stället det mittersta värdet väljer man den lägsta renderingstiden av de 0,1 alt. 1 % scener med högst renderingstid för hela sekvensen.

Är sekvensen kortare alt. genomsnittlig FPS är lägre än 100 FPS blir ju 0,1 % än mer utsatt.

Sedan rent generellt: hur kan någon hävda att Nvidias drivare är "buggiga" baserat på dessa resultat när de klart och tydligt visar att man får mindre varians (mindre skillnad mellan genomsnittlig FPS och 1 % low) med 1060/DX12 jämfört med 1060/DX11, 480/DX11 samt 480/DX12? Eller har låg varians helt plötsligt blivit oviktigt (var viktigt när det fanns rapporter om att varians eventuellt var lägre med Ryzen, få har dock lyckats visa detta i reproducerbara mätningar).

Skulle säga att videon visar exakt det man borde förvänta sig. Nvidia har valt en design där drivern bör upprätta en DAG över beroendet mellan alla väntande 3d/compute-jobb för att sedan köa dem i optimal ordning till GPU. AMD gör motsvarande i HW (inte kritiskt för AMD att skapa en DAG, de kan ju bara köra flera saker parallellt och hoppas att det löser sig självt i de flesta fall).

AMDs lösning är mycket enklare att implementera i drivers och äter mindre CPU-kraft. Nvidias lösning ger långt mer flexibilitet, ACE är t.ex. helt värdelöst i DX11 vilket resulterar i att Nvidias GPUer kan prestera bättre på en viss transistorbudget och teoretisk kapacitet. Även i DX12 är det fortfarande så att Nvidias GPUer presterar bättre sett till teoretisk kapacitet och transistorbudget, men här finns ändå fördelar med ACE i form av lägre CPU-last om man är CPU-bunden (det normala är trots allt att man är GPU-bunden).

Vad videon i stället visar är: 7700K lär fortsätta prestera bättre i spel även i morgon, också med RX 480 presterar 7700K bättre om man är GPU-bunden. Så är inte ett Nvidia specifikt "problem", man blir däremot något tidigare CPU-bunden med ett 1060 jämfört med ett 480 fast det är ju en effekt av olika HW-designer och ingen "bug".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Har vi sett samma video?

  • BF1: ungefär samma resultat med 480 oavsett DX-API, det för båda CPU-modellerna. Med 1060 är DX12 sämre oavsett CPU-modell.

  • RoTR: DX12 presterar bättre oavsett GPU och CPU (d.v.s DX12 presterar bättre än DX11 med samma GPU/CPU)

  • Hitman: DX12 presterar bättre oavsett GPU och CPU

  • DeusEx: med 1060 presterar DX12 4 % sämre med 1700X och 4 % bättre med 7700K, är det definitionen på "bug"?

Angående 0,1 och 1 percentilerna. När har 1 % fallet varit ett problem? I detta fall är resultatet helt samstämmigt inom varje titel och CPU, d.v.s. det är samma relativa skillnad mellan genomsnittlig FPS och 1 % low oavsett om man använder 1060 eller 480 -> rimligen är resultatet OK och skillnaden som finns mellan CPUer är en effekt av att de har olika antal CPU-kärnor och olika kapacitet per kärna.

Problemet med 0,1 % är att en sekvens på en minut med genomsnittlig FPS på 100 kommer basera sitt 0,1 % värde på att mindre än 10 scener över hela sekvensen inte störts av något externt. Det är i genomsnitt en mätpunkt per tio sekunder!

För att 1 % värdet ska bli opålitligt krävs att minst 100 scener, i genomsnitt en per sekund, får omotiverat lång renderingstid. Om så är fallet har man ett problem även i praktiken. 0,1/1 % är inte genomsnitt, så enstaka avvikande värden påverkar inte detta mätetal. Är som median fast i stället det mittersta värdet väljer man den lägsta renderingstiden av de 0,1 alt. 1 % scener med högst renderingstid för hela sekvensen.

Är sekvensen kortare alt. genomsnittlig FPS är lägre än 100 FPS blir ju 0,1 % än mer utsatt.

Sedan rent generellt: hur kan någon hävda att Nvidias drivare är "buggiga" baserat på dessa resultat när de klart och tydligt visar att man får mindre varians (mindre skillnad mellan genomsnittlig FPS och 1 % low) med 1060/DX12 jämfört med 1060/DX11, 480/DX11 samt 480/DX12? Eller har låg varians helt plötsligt blivit oviktigt (var viktigt när det fanns rapporter om att varians eventuellt var lägre med Ryzen, få har dock lyckats visa detta i reproducerbara mätningar).

Skulle säga att videon visar exakt det man borde förvänta sig. Nvidia har valt en design där drivern bör upprätta en DAG över beroendet mellan alla väntande 3d/compute-jobb för att sedan köa dem i optimal ordning till GPU. AMD gör motsvarande i HW (inte kritiskt för AMD att skapa en DAG, de kan ju bara köra flera saker parallellt och hoppas att det löser sig självt i de flesta fall).

AMDs lösning är mycket enklare att implementera i drivers och äter mindre CPU-kraft. Nvidias lösning ger långt mer flexibilitet, ACE är t.ex. helt värdelöst i DX11 vilket resulterar i att Nvidias GPUer kan prestera bättre på en viss transistorbudget och teoretisk kapacitet. Även i DX12 är det fortfarande så att Nvidias GPUer presterar bättre sett till teoretisk kapacitet och transistorbudget, men här finns ändå fördelar med ACE i form av lägre CPU-last om man är CPU-bunden (det normala är trots allt att man är GPU-bunden).

Vad videon i stället visar är: 7700K lär fortsätta prestera bättre i spel även i morgon, också med RX 480 presterar 7700K bättre om man är GPU-bunden. Så är inte ett Nvidia specifikt "problem", man blir däremot något tidigare CPU-bunden med ett 1060 jämfört med ett 480 fast det är ju en effekt av olika HW-designer och ingen "bug".

Du har helt enkelt inte fattat problemet, jag kan inte förklara det bättre för dig, kika på de övriga videor som släppts angående detta, adoredtv och Hardware Unboxed. Att du sedan Inte förstår att buggen enbart uppstår med nv/ryzen kombon och dx12 där prestanda absolut inte motsvarar vad som de fakto bör vara.

Du låter mer och mer som någon som ursäktar nVidia in i det sista...
Tänk på detta, om det vore ett enkelt overhead problem som drabbar alla processorer på samma sätt så skulle Intel cpun reagera exakt likadant, varför? Jo därför att bägge plattformarna jobbar redan under konstant CPU limiterade förhållanden. Använd en smula logik... Att jag sedan Inte enbart kikar på frametime mätningen beror på att väldigt få ställen rapporterar just dessa under cpu benchmarks, då denna bugg ger störst genomslag på medel och max fps som man av en händelse normalt använder vid testande så ger buggen direkt ofördelaktigt negativa resultat för ryzen i CPU benchmarks. Ett resultat som garanterat kan förbättras genom att nVidia ser över buggen/problemet.
Vad i detta förstår du inte?

Edit:Om nVidia valt en design i mjuk och hårdvara som skapar en ohållbart hög overhead på just Ryzen, är det då AMDs fel eller nVidias fel? Vem bör fixa denna oproportionerligt stora overhead, AMD eller nVidia?
Om man gör CPU benchmark testande vilken gpu bör man då använda för att påvisa processorns riktiga och ovinklade prestanda, AMD eller nVidia?

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av tellus82:

Du har helt enkelt inte fattat problemet, jag kan inte förklara det bättre för dig, kika på de övriga videor som släppts angående detta, adoredtv och Hardware Unboxed. Att du sedan Inte förstår att buggen enbart uppstår med nv/ryzen kombon och dx12 där prestanda absolut inte motsvarar vad som de fakto bör vara.

Du låter mer och mer som någon som ursäktar nVidia in i det sista...
Tänk på detta, om det vore ett enkelt overhead problem som drabbar alla processorer på samma sätt så skulle Intel cpun reagera exakt likadant, varför? Jo därför att bägge plattformarna jobbar redan under konstant CPU limiterade förhållanden. Använd en smula logik... Att jag sedan Inte enbart kikar på frametime mätningen beror på att väldigt få ställen rapporterar just dessa under cpu benchmarks, då denna bugg ger störst genomslag på medel och max fps som man av en händelse normalt använder vid testande så ger buggen direkt ofördelaktigt negativa resultat för ryzen i CPU benchmarks. Ett resultat som garanterat kan förbättras genom att nVidia ser över buggen/problemet.
Vad i detta förstår du inte?

Edit:Om nVidia valt en design i mjuk och hårdvara som skapar en ohållbart hög overhead på just Ryzen, är det då AMDs fel eller nVidias fel? Vem bör fixa denna oproportionerligt stora overhead, AMD eller nVidia?
Om man gör CPU benchmark testande vilken gpu bör man då använda för att påvisa processorns riktiga och ovinklade prestanda, AMD eller nVidia?

Skickades från m.sweclockers.com

Vi har i flera år sett en viss person vända och vrida på precis allt till Intels och Nvidias fördel. Så är du förvånad? Blir väldigt svårt med trovärdigheten tycker jag. Kör själv enbart Intel och Nvidia i dagsläget, och t om jag ser hur det ser ut i argumentationen.

Tycker också att det är extremt tydligt att något är "off" gällande Ryzen tillsammans med Nvidiakort. Det behöver man inte vara någon raketforskare för att se i de test som länkats.

Vi får helt enkelt se om fler testare och recensenter plockar upp detta och utreder. Hade personligen gärna sett Sweclockers göra ett nytt test med andra minneshastigheter samt grafikkort nu när det är så mycket snack om detta.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av Mirialia:

Så jag som planerat att köpa en ryzen 1700 till sommaren, bör jag välja AMD eller nvidia för GPU? Tänkt mig något i 1060-klassen.

Skickades från m.sweclockers.com

Om du ändå tänkt dig något i den klassen lär ju RX 570 och RX 580 vara attraktiva. Då slipper du riskera något med nVidias strul med Ryzen. Mellan Polaris och Vega kommer nog AMD dock nog ha en liten lucka så där kan nVidia vara ett alternativ.

Permalänk
Medlem
Skrivet av Mirialia:

Så jag som planerat att köpa en ryzen 1700 till sommaren, bör jag välja AMD eller nvidia för GPU? Tänkt mig något i 1060-klassen.

Skickades från m.sweclockers.com

I den klassen spelar det mindre roll, jag hade kört den som var billigast för tilfället i valet mellan RX 480/ GTX 1060.

När det gäller "problemet" med nvidia så känns det återigen som att man så gärna vill att Ryzen ska vara störst bäst och vackrast på allt så man letar efter corner case till absurda nivåer. Spontant skulle jag gissa på att fallet DX12 i ROTR på nvidia lägger en större last på CPUn kontra AMD. Jag skulle även gissa på att denna last inte går att parallellisera vilket ger en fördel till intels snabbare kärnor.

Allt tyder fortfarande på att Intel med sin 7700K har den snabbaste CPUn för spel, däremot lär AMD ta tronen för bästa köp med R5 nästa vecka eftersom ingen lär köra så låga grafikinställningar att skillnaden blir speciellt signifikant mellan CPUerna.

Permalänk
Medlem
Skrivet av Vesh:

När det gäller "problemet" med nvidia så känns det återigen som att man så gärna vill att Ryzen ska vara störst bäst och vackrast på allt så man letar efter corner case till absurda nivåer. Spontant skulle jag gissa på att fallet DX12 i ROTR på nvidia lägger en större last på CPUn kontra AMD. Jag skulle även gissa på att denna last inte går att parallellisera vilket ger en fördel till intels snabbare kärnor.

Fast det är inte mer rimligt än någon annan teori, det kan likagärna vara att nvidia sprider ut någon form av cpu arbete för dx12 på för många trådar med just Ryzen vilket skapar en onödigt stor overhead, så stor att den ger negativ prestanda jämfört med 4-8 trådar vid cpu limiterade förhållanden. Antingen att det äter för mycet minesbandbredd eller ren cpu tid eller att det bara orsakar stalls i köerna. En enkel lösning här är att nvidia limiterar antalet trådar som skapas så att overhead hålls nere på en nivå så det inte orsakar negativ prestandaökning.

Ingen av oss här kan säga att vi vet exakt varför detta sker men ingen här kan säga att det inte sker, det är mer än överbevisat just nu av helt fristående testare som inte har något med varandra att göra, dom har till och med varit direkt osams.

En lösning på detta problem/bug från nVidias sida är väl ändå inget som skulle kunna vara negativt för någon, eller tycker ni det? Om förhållandena vore rakt motsatta och det var bara intel processorer som var drabbade skulle ni se det på samma sätt då?

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::