Fredagsfokus 5: Flaskhalsar

Permalänk
Konsolpleb 🕹
Skrivet av anon298854:

@Korpisavu

Du får mindre inputlag mm med högre fps.
Gör om gör rätt.

https://blurbusters.com/faq/benefits-of-frame-rate-above-refr...

Man kan få bättre. Man kan också få sämre.

Det förklaras ganska tydligt tidigare i tråden och de länkade videosen från battlenonsense

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av ehsnils:

Som jag ser det så är högt FPS-värde "sexigt", men i de flesta fall är 60 helt tillräckligt och mer än 120 så ligger begränsningen i mänskliga ögat och hjärnan ändå.

Beror på vad du spelar, I fps multiplayer har du deffinitivt en fördel med Gaming skärm i plus 120+.

Permalänk
Datavetare
Skrivet av stargolder:

för 2 år sen ägde jag en intel celeron processor med grafikkort 7750... flaskhalsen va då processorn som gick alltid på 100%... men va hände med FPS delen i spelet... jo den va fast... men helt plötsligt framedroppade den ned till extremt låg fps... men varför blir man irriterad då när det laggade... jo bakgrundsprocesser vill ha cpu kraft och genom det inte fanns någon kraft kvar blev det fps drop....

så min egen slutsats är: bättre med ett starkt cpu än ett starkt gpu.... om du förstår vad jag menar....

"Overkill" på CPU-sidan har definitivt sina fördelar på PC, en stor orsak är det är normalfallet på de system de flesta utvecklar spel på vilket betyder att de flesta spel sett väldigt lite testning av fallet där man är CPU-begränsad.

Ovanpå det finns ett problem i Windows schemaläggare. Ett problem som uppenbarligen är lösbart, det som kallades patch that does wonder i Linux firar snart 10 år, men det har inte lösts i Windows så här långt.

Problemet manifesterar sig i alla speltitlar där alla CPU-trådar ligger på 100 % under en längre tid. "Längre tid" är här åtskilliga sekunder. Om bara någon tråd faller ned under 100 % "tillräckligt länge" slipper man problemet, "tillräckligt länge" beror lite på vad som körs i bakgrunden men handlar typiskt om 5-10 % av en CPU-tråd, d.v.s. tiotals millisekunders CPU tid.

Grunden till problemet är att Windows prioriterar det som har "input-fokus", vilket är spelet. Jobb i bakgrunden köas upp om det inte finns någon CPU-tråd som är ledning, när det gått "allt för lång tid" utan att någon CPU-tråd blir tillgänglig kommer Windows helt sonika bara ta en CPU-tråd för att köra bakgrundsuppgifterna på. Om det råkar vara spelets huvudrenderingstråd -> stutter!!!

Har man en allt för klen CPU går det inte att lösa, man har inte CPU-kraft nog att köra spelet. Har man däremot en relativt stark CPU, t.ex. Skylake med 4C/4T, kan man ändå hamna i läget att moderna spel håller alla CPU-trådar sysselsatt 100 % tiden. Om man då sätter en FPS-limit så i alla fall en CPU-tråd får 5-10 % "idle" kan man gå från en rätt otrevlig upplevelse med massa ryck till lite lägre genomsnittlig FPS men betydligt trevliga totalupplevelse. Med väldigt nära 100 % sannolikhet kommer just spelets huvudtråd fortsätta vara 100 % lastad, så bakgrundsjobben hamnar nu på andra CPU-kärnor och de har med FPS-limiter tid över "tillräckligt ofta".

Är i princip ovan man i Linux lyckats göra i stort sätt automatiskt. Innan "wonder-patch" och fortfarande i Windows blir datorn helt oanvändbar om man t.ex. slänger upp en stor kompilering i bakgrunden. Att scrolla i webbläsaren och liknande blir rejält laggigt, men efter "wonder-patch" fortsätter webbläsare och andra interaktiva laster vara helt mjuka även på system med 100 % last på alla CPU-kärnor. Riktigt trevligt om man tvingas utveckla på laptop eller liknande!

På Windows är enklaste lösningen: overkill-CPU. Det löser spel-problemet, löser tyvär inte fallen som kan tugga i sig alla CPU-trådar man slänger på problemet

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av anon298854:

@Korpisavu

Du får mindre inputlag mm med högre fps.
Gör om gör rätt.

https://blurbusters.com/faq/benefits-of-frame-rate-above-refr...

Det vet jag men problemet är att det varierar med frameraten, det känns alltid lika med låst FPS

Permalänk
Hjälpsam
Skrivet av Yoshman:

"Overkill" på CPU-sidan har definitivt sina fördelar på PC, en stor orsak är det är normalfallet på de system de flesta utvecklar spel på vilket betyder att de flesta spel sett väldigt lite testning av fallet där man är CPU-begränsad.

Ovanpå det finns ett problem i Windows schemaläggare. Ett problem som uppenbarligen är lösbart, det som kallades patch that does wonder i Linux firar snart 10 år, men det har inte lösts i Windows så här långt.

Problemet manifesterar sig i alla speltitlar där alla CPU-trådar ligger på 100 % under en längre tid. "Längre tid" är här åtskilliga sekunder. Om bara någon tråd faller ned under 100 % "tillräckligt länge" slipper man problemet, "tillräckligt länge" beror lite på vad som körs i bakgrunden men handlar typiskt om 5-10 % av en CPU-tråd, d.v.s. tiotals millisekunders CPU tid.

Grunden till problemet är att Windows prioriterar det som har "input-fokus", vilket är spelet. Jobb i bakgrunden köas upp om det inte finns någon CPU-tråd som är ledning, när det gått "allt för lång tid" utan att någon CPU-tråd blir tillgänglig kommer Windows helt sonika bara ta en CPU-tråd för att köra bakgrundsuppgifterna på. Om det råkar vara spelets huvudrenderingstråd -> stutter!!!

Har man en allt för klen CPU går det inte att lösa, man har inte CPU-kraft nog att köra spelet. Har man däremot en relativt stark CPU, t.ex. Skylake med 4C/4T, kan man ändå hamna i läget att moderna spel håller alla CPU-trådar sysselsatt 100 % tiden. Om man då sätter en FPS-limit så i alla fall en CPU-tråd får 5-10 % "idle" kan man gå från en rätt otrevlig upplevelse med massa ryck till lite lägre genomsnittlig FPS men betydligt trevliga totalupplevelse. Med väldigt nära 100 % sannolikhet kommer just spelets huvudtråd fortsätta vara 100 % lastad, så bakgrundsjobben hamnar nu på andra CPU-kärnor och de har med FPS-limiter tid över "tillräckligt ofta".

Är i princip ovan man i Linux lyckats göra i stort sätt automatiskt. Innan "wonder-patch" och fortfarande i Windows blir datorn helt oanvändbar om man t.ex. slänger upp en stor kompilering i bakgrunden. Att scrolla i webbläsaren och liknande blir rejält laggigt, men efter "wonder-patch" fortsätter webbläsare och andra interaktiva laster vara helt mjuka även på system med 100 % last på alla CPU-kärnor. Riktigt trevligt om man tvingas utveckla på laptop eller liknande!

På Windows är enklaste lösningen: overkill-CPU. Det löser spel-problemet, löser tyvär inte fallen som kan tugga i sig alla CPU-trådar man slänger på problemet

Japp, det är en orsak till att jag gillar många kärnor, finns alltid någon ledig om det behövs, sex kärnor med SMT borde dock räcka långt i detta fall.
En sak som var populär förr, var annars att ställa om Windows, så att det inte längre prioriterade förgrundstjänster.
Undrar lite om denna prio av Input fokus, har lite med VMS arvet att göra, då var det ju en bra sak, för ett datorsystem med många användare.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Personligen spelar jag med så hög fps som möjligt. Jag är rätt kräsen av mig när de kommer till grafikinställningar, och nu när mitt 1080 inte orka med t.ex division på knappt medium/high när jag gick över till 1440p så blev de ett 3080. När spel går under 80ish fps så känner jag att nu börjar de gå trögt. Dom där 60fps folk "åtrovär" är rena bildspelet för egen del, då jag är van CS spelare och känner av minsta lilla när nånting börjar gå trögt.

Visa signatur

Corsair Obsidian 900D, Intel Core I9 9900k@5ghz/1.270v, Asus Maximus XI Hero, ASUS GeForce RTX 3080 10GB ROG STRIX GAMING OC, G.Skill Trident Z 4x8GB 3600mhz, Corsair RM650i

Permalänk
Avstängd
Skrivet av Jaegrlicious:

Personligen spelar jag med så hög fps som möjligt. Jag är rätt kräsen av mig när de kommer till grafikinställningar, och nu när mitt 1080 inte orka med t.ex division på knappt medium/high när jag gick över till 1440p så blev de ett 3080. När spel går under 80ish fps så känner jag att nu börjar de gå trögt. Dom där 60fps folk "åtrovär" är rena bildspelet för egen del, då jag är van CS spelare och känner av minsta lilla när nånting börjar gå trögt.

Håller helt med, 60fps är inte i närheten av spelbart.

Visa signatur

13900k - GTX 4090 STRIX - 7600Mhz T-Force DDR5 - ASUS Z790 APEX - ASUS ROG Strix Helios - ASUS ROG THOR 1200 - Asus PG279QM 27" 240hz

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Får man 600 fps i dagens spel så känns det som att datorn inte behöver uppgraderas på ett par år.

Men för det behöver man väl en 600 Hz skärm som inte existerar.

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32 GB DDR5-6000 | 4,5 TB SSD | RTX 4070 12 GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16 GB DDR4-2933 | 1,5 TB SSD | RTX 3070 8 GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 16 GB DDR4-2400 | 756 GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk
Medlem
Skrivet av Calle2003:

Men för det behöver man väl en 600 Hz skärm som inte existerar.

Behövs inte, riktiga gamers kör utan v sync 😉

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Man borde göra flera testar med äldre CPU's och 3080/90 serien, varför? Jo serru...tittar vi på Steam och hur många ägare av spelburkar som vi har byggd igenom åren, så finns inte riktig många i9 och även 1950x processorer, men alm. processorer som i5 och i7-6xxx,7,8xxx etc...

Men 90 procent av alla artiklar och youtube reviews innehåller BARA nya datorer med extrema high-end PC'er som 99% av befolkningen aldrig kommer att köpa.

Tänk alla de views och följare ni kunne få vid att vara lite realistiska, och testa 1-3 år "gammal" hårdvaru med 3080/90 serien och se vart man kan "optimisera" och vilka spel/productivity mjukvara som funkar bäst etc.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Tiderna förändras. När jag var liten var cpu det viktigaste, man pratade om vilken cpu man hade, hur mycket ram, hdd etc. Grafikkort var något man valde till i all hast, de flesta tänkte inte så mycket på denna före runt 1996. Jag minns ingen polare pratade om grafikkort modell på denna tid. Däremot om man hade 640*480 eller 600*800 upplösning.
Jag minns datortidningar från denna tid där de diskuterade hårdvaruval, där det stod att cpun är datorn hjärna och det är framförallt denna som avgör hur snabb en dator är.

På tiden när grafikkort hade enstaka MB grafikminne eller ännu mindre så var grafikkorten generellt ganska primitiva.
Generellt var det processorn som gjorde det mesta och grafikkortet var mestadels ett bildvisningskort för att visa bilden på skärmen.
Grafikminnet var mestadels för att lagra bilden som ska visas på skärmen tills bilden ritats upp (framebuffer).

Men sen kom det grafikkort med 16MB vram, 32MB vram och ännu mer.
Så mycket grafikminne har man inte nytta av om man inte kör höga upplösningar eller använder grafikminnet till mer än bara framebuffer.

Jag sitter inte vid datorn nu...
Men om jag räknar rätt får jag det till att man behöver ca 24MB vram för att köra 4K.
Så ett 32MB grafikkort är alltså fullt tillräckligt för att köra 4K upplösning om man bara ser till mängd grafikminne.

Vad jag hittar så var GeForce 256 första GeForce generationen och släpptes hösten 1999 och hade antingen 32 eller 64MB grafikminne.
Med så mycket grafikminne så finns det utrymme att göra mer än att bara visa bilden på skärmen om man kör upplösning lägre än 4K.

Men bara några år tidigare så var grafikkorten betydligt enklare.
Då var CPU kung. Även för gaming.

Permalänk
Medlem
Skrivet av Calle2003:

Men för det behöver man väl en 600 Hz skärm som inte existerar.

Nä, skärmens uppdateringfrekvens har lite med framerate att göra.
Inga problem att köra 1000fps på en 60Hz skärm, dom överblivna bilderna slängs bara och senaste bilden ritas upp på skärmen.
Beroende på spelmotor kan det vara både bra och dåligt, i dom flesta fall gör det varken till eller från.

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Medlem

Spelar man i t.ex 1080p som jag gör så kan man ju ändå köpa ett RTX 3080, kortet håller ju längre rent prestandamässigt för kommande spel i framtiden om du fortsätter spela i 1080p.
Så man behöver ju inte snåla på ett grafikkort bara för man spelar i lägre upplösningar, ju mer FPS du får ut i ett spel desto bättre.

Om man däremot spelar i 4k så har man ju inte så mycket val än att köpa ett ordentligt grafikkort.

Visa signatur

< :: Intel i9 9900ks@5.0Ghz/Ring@4.5Ghz | 32Gb DDR4@3600Mhz | Geforce RTX 4070 :: >

Permalänk
Medlem
Skrivet av shelter:

Spelar man i t.ex 1080p som jag gör så kan man ju ändå köpa ett RTX 3080, kortet håller ju längre rent prestandamässigt för kommande spel i framtiden om du fortsätter spela i 1080p.
Så man behöver ju inte snåla på ett grafikkort bara för man spelar i lägre upplösningar, ju mer FPS du får ut i ett spel desto bättre.

Om man däremot spelar i 4k så har man ju inte så mycket val än att köpa ett ordentligt grafikkort.

Fast det där resonemanget håller inte riktigt i längden eftersom du istället kan köpa ett billigare kort idag som duger utmärkt för 1080P och sedan uppgradera om ett par år och då kommer du kunna köpa nästa generation kort som kommer vara billigare och bättre vad avser prestanda. 3080 ger ju inte så värst mycket skjuts i 1080P vad det verkar jämfört med högre upplösningar.

Visa signatur

Nuvarande dator: CPU: Core i5 2500K @ 3.7GHz, CPU kylare: Zalman CNPS12X, GPU: Zotac GTX560Ti 2048MB, Moderkort: ASRock Z68 Extreme 3 Gen3, Minne: Corsair Vengeance LP 1600MHz (4X4GB)16GB Kit, Lagring: Samsung 840 EVO 250GB SSD, Western Digital Caviar Black 64MB Cache 1TB, Seagate Barracuda 256MB cache 2TB, Seagate Barrracuda 256MB cache 4TB Optisk läsare: DVD Brännare Sony Optiarc AD-7280S, Ljudkort: Asus Xonar DG, Chassi: HafX 942 Nvidia Edition, Nätaggregat: Corsair TX650 v1 650 Watt, OS Windows 10 Pro Svensk Version

Permalänk
Medlem

Intressant avsnitt om flaskhalsar.

Till min öppna fråga:

Det finns ju snabba M2 ssd pcie 4.0, och de har ju snabba hastigheter i sekventiella skrivningar och läsningar jämfört med pcie 3.0. Toppen!

Men spelar det någon roll alls när det kommer till slumpmässiga läsningar? Finns det tester på det - exakt samma hårdvara pcie 4.0 och pcie 3.0 slumpmässiga läsningar/skrivningar. Jag gissar på exakt samma resultat?

Permalänk
Konsolpleb 🕹
Skrivet av Rapidact:

Intressant avsnitt om flaskhalsar.

Till min öppna fråga:

Det finns ju snabba M2 ssd pcie 4.0, och de har ju snabba hastigheter i sekventiella skrivningar och läsningar jämfört med pcie 3.0. Toppen!

Men spelar det någon roll alls när det kommer till slumpmässiga läsningar? Finns det tester på det - exakt samma hårdvara pcie 4.0 och pcie 3.0 slumpmässiga läsningar/skrivningar. Jag gissar på exakt samma resultat?

Det syns lite skillnader. Men det rör sig om marginella förbättringar. Inom 10% i regel.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Det syns lite skillnader. Men det rör sig om marginella förbättringar. Inom 10% i regel.

Ja, vi alla vet redan att "Samsung’s V6 V-NAND TLC to respond 10% faster to both read and program requests over the last generation of flash", men hur ter sig nya generationen i en PCIE 3.0 ?

Permalänk
Konsolpleb 🕹
Skrivet av Rapidact:

Ja, vi alla vet redan att "Samsung’s V6 V-NAND TLC to respond 10% faster to both read and program requests over the last generation of flash", men hur ter sig nya generationen i en PCIE 3.0 ?

Jag menade specifikt samma disk i gen3 vs gen4. Det ger cirka 10% förbättring

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Jag menade specifikt samma disk i gen3 vs gen4. Det ger cirka 10% förbättring

När man kommer till slumpmässiga läsningar där hastigheten sjunker markant till ca 50-100 mb/sec? Är prestandavinsten där också kring 10 %?

Permalänk
Medlem
Skrivet av Joakim Ågren:

Fast det där resonemanget håller inte riktigt i längden eftersom du istället kan köpa ett billigare kort idag som duger utmärkt för 1080P och sedan uppgradera om ett par år och då kommer du kunna köpa nästa generation kort som kommer vara billigare och bättre vad avser prestanda. 3080 ger ju inte så värst mycket skjuts i 1080P vad det verkar jämfört med högre upplösningar.

Möjligt, fast jag sitter ju med ett GTX 980 idag som hållit länge. Det var väl spel som RDR2 och Control som gjorde att man började se sig om efter bättre grafikkort.

Sen finns det ju inga RTX 3070 vs RTX 3080 benchmarks som jämför FPS i 1080p, i alla fall inte vad jag sett, så hur mycket som skiljer vet vi ju inte idag.

Visa signatur

< :: Intel i9 9900ks@5.0Ghz/Ring@4.5Ghz | 32Gb DDR4@3600Mhz | Geforce RTX 4070 :: >

Permalänk

En fråga jag ställer mig är hur mycket min CPU (3770K) flaskhalsar mitt 2060Super i 1080P

Permalänk
Konsolpleb 🕹
Skrivet av Rapidact:

När man kommer till slumpmässiga läsningar där hastigheten sjunker markant till ca 50-100 mb/sec? Är prestandavinsten där också kring 10 %?

Ja precis, det är det jag syftar på.

Random IO, samma system, samma enhet, så skiljer det i snitt cirka 10% mellan gen3 och gen4. I alla fall i de tester jag kollat.
I vissa fall är det ingen skillnad, i några fall är det lite mer uppåt 15%.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Ja precis, det är det jag syftar på.

Random IO, samma system, samma enhet, så skiljer det i snitt cirka 10% mellan gen3 och gen4. I alla fall i de tester jag kollat.
I vissa fall är det ingen skillnad, i några fall är det lite mer uppåt 15%.

Jag tycker ni ska utveckla detta med någon artikel, lägga upp olika scenarios där fokus är på flaskhalsar och när uppgradering förändrar prestandan nämnvärt?

Ett vanligt case är att man vill ha 2 st m.2 SSD, och uppgradera till ett RTX 3080?

Själv tycker jag det är ett mindre helvete att räkna ut PCIe lanes skillnader, om man t ex vill ha ett RTX 3080 med 2 st M2 SSD (2 st M.2 som redan är vanligt hos Sweclockers annvändare).

AMD-spåret:
Om man jämför B450 med x470? Då hoppar grafiken ner på x8 på Gen 3 för B450 och begränsar vassare modeller som t ex RTX 3080? Och hur ser det ut för RTX 2080? Ja, säkert 20% där också? Hur uppgraderar man för att få mest för pengarna? Kanske bara ett nytt billigt moderkortet gör stor skillnad? Och användaren behåller cpu, ssd och nuvarande grafikkort...

Vad blir skillnad mellan B550 och x570? Vad händer? x8 på Gen 4 B550 kanske inte begränsar RTX 3080? Osv.. jag tror det kan bli en intressant klargörande artikel... Med mycket diskussioner.

Permalänk
Medlem
Skrivet av Rapidact:

Jag tycker ni ska utveckla detta med någon artikel, lägga upp olika scenarios där fokus är på flaskhalsar och när uppgradering förändrar prestandan nämnvärt?

Ett vanligt case är att man vill ha 2 st m.2 SSD, och uppgradera till ett RTX 3080?

Själv tycker jag det är ett mindre helvete att räkna ut PCIe lanes skillnader, om man t ex vill ha ett RTX 3080 med 2 st M2 SSD (2 st M.2 som redan är vanligt hos Sweclockers annvändare).

AMD-spåret:
Om man jämför B450 med x470? Då hoppar grafiken ner på x8 på Gen 3 för B450 och begränsar vassare modeller som t ex RTX 3080? Och hur ser det ut för RTX 2080? Ja, säkert 20% där också? Hur uppgraderar man för att få mest för pengarna? Kanske bara ett nytt billigt moderkortet gör stor skillnad? Och användaren behåller cpu, ssd och nuvarande grafikkort...

Vad blir skillnad mellan B550 och x570? Vad händer? x8 på Gen 4 B550 kanske inte begränsar RTX 3080? Osv.. jag tror det kan bli en intressant klargörande artikel... Med mycket diskussioner.

Min vanliga användar-oro var obefogad.. Problem "flaskhals grafikkort" är löst!

Jag räknade ut att förlusten på en PCIe gen 3 x8 efter ha granskat info på nätet, det handlar om 4% för ett RTX 3080 i alla upplösningar jämfört med Gen 3 x16, Gen 4 x8 eller Gen 4 x16.

Källa:
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-pc...