Från mus till ljus – en teknikstund om input lag och latens

Permalänk
Medlem
Permalänk
Bildexpert 📺
Skrivet av sKRUVARN:

"dessa 100 ms är däremot föremål för hur hjärnan tolka och väver samman händelser. Vi saknar förmågan att särskilja kortare intervall än så."

Ställer mig lite frågande till detta uttalande, bygger det på någon form av forskning? Nu tror jag iof inte heller att när folk pratar 1ms hit eller dit har någon direkt inverkan, dock så tror jag i allra högsta grad att man känner skillnad på säg 30ms i totalt lagg mot 100ms.

Termen "specious present" och 100 ms kommer från 1800-talet. Numer använder man termer som "millisecond temporal perception" men siffror som 100-150 ms återkommer år efter år. Finns i en wikipedialänk om man vill börja gräva i det kaninhålet: https://en.wikipedia.org/wiki/Time_perception#Reversal_of_tem...

Dock tror jag – och rimligtvis de flesta här i forumet – att spelare, särskilt de som tävlar, kan få uppfatta mycket kortare intervall än någon som inte spelar. Men det är fortfarande inte nere på en nivå där ett par millisekunder avgör.

Man gör andra ändringar i spelet som påverkar beteende med olika former av stutter och oregelbundenheter vilket påverkar exempelvis koordinationen. Detta märks, det blir en ändrad upplevelse. Det som snedställer diskussionen är att man räknar på miniräknaren och tar för givet att det är den extra millisekunden när det finns så mycket mer som ändrats.

Och tack för länkarna till CS-tester med korta tidsintervall. Jag har sett alla möjliga siffror där genom åren.

Skrivet av PixelMiner:

Mer modern forskning kring bildskärmar ger att kortaste detekterbara uppdateringstider snarare ligger kring 10-20ms [2].

För datorspel så har forskaren Josef Spjut på NVidia grävt rätt mycket sista tiden. Bland annat så har de visat att latens är viktigare än frame rate [3].

Tack! Med tanke på att spelskärmarna idag är en god bit under 10 ms – definitivt under 20 ms – så är det inte skärmen som är det stora probemet längre.

Permalänk
Medlem

Wow är min ärliga känsla efter denna artikel !

Tackar för en sån bra och tydliga info i detta ämnet och har verkligen lyft mina kunskaper

//Skane

Visa signatur

LMAOSHMSFOAIDMT = Laughing my ass off so hard my sombrero fell of and I dropped my taco

Permalänk
Bildexpert 📺
Skrivet av hACmAn:

Jag kan se skillnaden på 1 MS. då det blir så att jag bara har 60hz och helt plöttsligt blir det en framedubbel.
Så inte skärmens fel. Hela kedjan.

En dubblering av en frame vid 60 Hz innebär att samma ruta är i bild under 33 millisekunder. Vilket är rätt mycket mer än 1 ms.

Problemet då är i första hand att du har ett rejält avbrott i rörelsen. Verkligenheten glitchar inte på det sättet och det reagerar hjärnan på.

Permalänk
Medlem
Skrivet av PixelMiner:

Talet 100 ms kommer ifrån en gammal forskningsartikel ifrån 1968 [1]. Där pratar man om vilka responstider som behövs för att något skall uppfattas som interaktivt. T.ex. tiden ifrån man trycker "on" på kaffebryggaren, tills dess att man får någon typ av återkoppling på att den faktiskt startat. Denna artikel har citerats av många, men det intressanta med artikeln är att siffran 100 ms bara är en gissning. Eller som forskaren själv skriver i artikeln: "The estimates of delay times offered in the followin'g pages are the best calculated guesses by the author"

Mer modern forskning kring bildskärmar ger att kortaste detekterbara uppdateringstider snarare ligger kring 10-20ms [2].

För datorspel så har forskaren Josef Spjut på NVidia grävt rätt mycket sista tiden. Bland annat så har de visat att latens är viktigare än frame rate [3].

Källor:
[1] Miller, R. B. (1968). Response time in man-computer conversational transactions. In Proceedings of the December 9-11, 1968, fall joint computer conference, part I on - AFIPS ’68 (Fall, part I) (p. 267). NY, NY, USA: ACM Press. https://doi.org/10.1145/1476589.1476628

[2] Regan, M. J. P., Miller, G. S. P., Rubin, S. M., & Kogelnik, C. (1999). A real-time low-latency hardware light-field renderer. In Proceedings of the 26th annual conference on Computer graphics and interactive techniques - SIGGRAPH ’99 (pp. 287–290). NY, NY, USA: ACM Press. https://doi.org/10.1145/311535.311569

[3] Spjut, J., Boudaoud, B., Binaee, K., Kim, J., Majercik, A., McGuire, M., … Kim, J. (2019). Latency of 30 ms Benefits First Person Targeting Tasks More Than Refresh Rate Above 60 Hz. In SIGGRAPH Asia 2019 Technical Briefs on - SA ’19 (pp. 110–113). NY, NY, USA: ACM Press. https://doi.org/10.1145/3355088.3365170

Tack och bock, då var jag inte ute och cykla, detta låg mer i linje med min uppfattning av det.

Nvidia artikeln var väldigt intressant, finns att läs här:

https://research.nvidia.com/sites/default/files/pubs/2019-11_...

Skrivet av Laxpudding:

Tack! Med tanke på att spelskärmarna idag är en god bit under 10 ms – definitivt under 20 ms – så är det inte skärmen som är det stora probemet längre.

Det håller jag med om, dock så är det total latency som mäts, dvs de får en mätbar skillnad i prestation i 60hz när man går från ~90ms, ~55ms, ~20ms i total latency. Vilket motsätter dit uttalande om att vi inte kan utskilja kortare intervaller än 100ms.

Permalänk
Bildexpert 📺
Skrivet av Lordsqueak:

Och det med 2ms ,, mja, vettefan om jag skulle märka det. Men det jag kan säga är att jag märkt skillnad på ca 4ms. (skillnaden mellan 120hz och 240hz). Då jag missade massor, eftersom jag är inkörd på 120hz. (åter igen, timing är inte reaktionsförmåga) Det var en mindblower då jag inte förväntade mig någon skillnad, utan testade ett par 3D brillor, så det var helt oväntat.

Skulle säga att du här inte märkte skillnad på 2 eller 4 ms, utan märkte en skillnad på att spelet betedde sig annorlunda mot vad du är van med. Vid 240 Hz (och 240 FPS) har du mer information för öga och hand för att koordinera rörelser och träffar jämfört med 120 Hz/FPS.

Permalänk
Bildexpert 📺
Skrivet av sKRUVARN:

Vilket motsätter dit uttalande om att vi inte kan utskilja kortare intervaller än 100ms.

Fast det säger jag inte. Jag säger att forskningen inom området pekar på att inom intervallet, eller "specious present", så väver hjärnan ihop händelsernas samband åt oss även om de är rejält åtskilda i tiden. Det är vid 100+ ms som vi börjar urskilja att händelserna är separerade. Ta gärna en titt på veritasium-videon jag länkar i artiklarna och i videon som tydliggör detta.

Sedan kan latenser under 100 ms mycket väl påverka sådant som precision. Men det är fortfarande långt mer än de enstaka millisekunders skillnad som diskuteras.

Permalänk
Medlem
Skrivet av Laxpudding:

Fast det säger jag inte. Jag säger att forskningen inom området pekar på att inom intervallet, eller "specious present", så väver hjärnan ihop händelsernas samband åt oss även om de är rejält åtskilda i tiden. Det är vid 100+ ms som vi börjar urskilja att händelserna är separerade. Ta gärna en titt på veritasium-videon jag länkar i artiklarna och i videon som tydliggör detta.

Sedan kan latenser under 100 ms mycket väl påverka sådant som precision. Men det är fortfarande långt mer än de enstaka millisekunders skillnad som diskuteras.

Det verkar ju finnas väldigt spridd forskning på det där, hittar en som säger

"The visual and the tactile system have a lower temporal resolution with respect to non-simultaneity with thresholds of some tens of milliseconds"

och

"A suddenly occurring short stimulus of a few milliseconds might actually be perceived as a point in time."

"The highest temporal resolution (the lowest threshold of detection) is observed in the auditory system, where two short acoustic stimuli which are only 2–3 ms apart are detected as non-simultaneous."

Dessa två exempel låter ju som exakt det som är relevant för spel - visuella och taktila system och frames som ibland bara är synliga några få millisekunder som skall trackas, etc.
100+ ms är ju definitivt nonsens iaf (kanske om man är aspackad). några tiotal millisekunder som nämns där stämmer dock bra med både egna fynd och det klassiska att de flesta kände tydligt av 60Hz triple buffered vsync av/på i dx, och med nvidias fynd.

100ms för att något skall upplevas som olika punkter i tid simultant kan jag tänka mig är sant om man ser på något icke-interaktivt, kanske om man observerar 3 moles i ett whack-a mole hoppade upp med 10-20-30ms skillnad, så skulle det nog vara extremt svårt att säga i vilken ordning de poppade upp tex?

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3196211/

Permalänk
Bildexpert 📺
Skrivet av JBE:

Det där är ju det teoretiskt långsammaste exemplet där ulmb kan fungera, men jag vill minnas att det även normalt ritas snabbare än så (skärmens responstid+minimal extra scantiming - hade den verkligen tagit fulla intervallet på sig, så hade foton av LCD i genomsnitt haft halv-renderade frames, och det har de inte - dock tror jag crt fungerar så, och tar mer eller mindre hela intervallet på sig, då den skall tima styningen av en elektronstråle med magneter - desto långsammare scan desto större möjlighet för precision). Tog man bilder av gamla crt fick man nästan alltid halvritade frames.

Wall-of-text, så jag försöker bryta ned

Vad du beskriver är något med "...så hade foton av LCD i genomsnitt haft halv-renderade frames" är ju precis vad du får baserat på slutartiden på kameran. Vid testufo-bilderna för att få visa eftersläp försöker jag få med 5 frames i samma exponering. Man ser även då att översta ufot har mer av dem femte framen och nedre ufot mindre av den femte framen eftersom panelen hunnit olika långt och trögheten i kristallerna gör att den nedre delen inte hunnit lika långt i sin vridning av kristallerna.

Med kortare slutartider, mindre än uppdateringsintervallet hos skärmen, i kameran så får du nästan alltid med LCD:n med delvis halv-renderade frames. Ligger i sakens natur eftersom kameran inte är synkad mot skärmen. Men det är inte alls så tydligt som på en CRT som följd av LCD:ns sample-and-hold. Dessutom tenderar man som fotograf här att fota många bilder och välja bort dem som tydligast visar halvrenderade frames och välja dem som bästa tajmade in hela skärmens refresh.

DyAC på Benq har jag gått igenom här: https://youtu.be/zlct1_huz1I?t=189 (ca 3 min in) där det syns att skärmen uppdateras uppifrån och ned medan belysningen strobar nedifrån och upp. Vid 240 Hz tar det 1/240-dels sekund eller 4,17 ms att rita upp skärmen uppifrån och ned. Det kan inte gå snabbare än så. Oavsett CRT eller LCD.

Detta är väldigt enkelt att själv observera och syns väldigt tydligt i videon till denna artikel. 60 Hz:

Jag har också mer filmer från Benq-skärmen där det tydligt som rinnande vatten syns hur LCD-skärmar uppdaterar uppifrån och ned.

Citat:

Om syftet med tabellen är den fördröjning som själva intervallet ger vid asynkron matning, så är det i stället genomsnitt intervallet/2.

Syftet med tabellen är att visa hur lång tid det tar att rita upp bilden på en LCD (och OLED) vid en given uppdateringsfrekvens. Mig veterligen existerar inte asynkrona matningar av bildsignal. Vid 1920x1080/240 Hz är det en statiska ström om 18 Gbps oavsett om grafikkortet renderar 100 eller 500 FPS.

Däremot: Exakt hur adaptiv synk fungerar i bildsignaken vet jag inte. Ska inte spekulera om det är asynkront matning (mindre rimligt) eller full bandbredd med någon form av AUX-kommunikation (mer rimligt) om när exakt nästa frame kommer från GPU:n.

Citat:

Exempel: Du skickar en asynkron ström med frames mot en 100Hz monitor. Vissa frames har "tur" och kommer precis när monitorn är redo för en ny frame - 0ms delay, vissa har "otur" och får vänta fulla 10ms.
En genomsnittlig frame kommer ha 5ms delay pga själva intervallet. Pga detta är det extremt viktigt vid test av input lag att ta många datapunkter och ta ut ett genomsnitt då värden naturligt varierar med intervallets längd.

Detta låter för mig som en beskrivning av hur grafikkortet arbetar med synkronisering av renderade frames innan det blir bildsignal innan skärmen är inblandad. Skulle säga att det du beskriver belyser problemet med v-sync:ON där det inte är millisekundrar som är problemet utan att bilderna riskeras matas med oregelbunda intervall och rörelser inte beter sig som hjärnan förväntar sig att rörelser beter sig.

Detta är något jag också skulle kunna filma av. Hur beter sig skärmen när du kör till exempel 100±20 FPS v-sync på en skärm som arbetar i 144 Hz eller liknande? Jag skulle förutsätta att skärmen är exakt regelbunden medan innehållet som ska visas är oregelbundet. Och att det är denna oregelbundenhet som är problemet med v-sync. Inte två extra millisekunder.

Permalänk
Bildexpert 📺
Skrivet av JBE:

100ms för att något skall upplevas som olika punkter i tid simultant kan jag tänka mig är sant om man ser på något icke-interaktivt, kanske om man observerar 3 moles i ett whack-a mole hoppade upp med 10-20-30ms skillnad, så skulle det nog vara extremt svårt att säga i vilken ordning de poppade upp tex?

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3196211/

Precis så. Det är svårt att avgöra ordningen på händelserna. De poppar upp samtidigt för hjärnan. Men vi kan fortfarande märka avbrott på milliisekundnivå.

Typexemplet är micro-stuttering och andra stutteringfenomen. När rörelsen är oregelbunden och hoppar eller fryser i korta perioder är vi extremt känsliga. Det är problemet med v-sync-fenomen. Inte millisekundrarna i sig, utan att vi har ett annat beteende hos spelet än vad vi är vana med. Och ett beteende som också skiljer sig från hur verkligheten fungerar.

Flera verkar missuppfatta vad jag och forskningen menar med 100 ms och specious present. Det är inte att allt som som ske inom 100 ms blir något bludder av smet. Det handlar om hur hjärnan separerar händelser som samma en del av samma skeende eller som separata händelser.

Sedan kan märka av förändringar och framför allt sådant som glitchar mot verklighetens beteende på mycket mindre millisekundnivåer. Likt att en rörelse får stutter och rör sig oregelbundet. Tennisspelare skulle få en riktigt dålig dag om bollen frös 5 ms mitt i luften då och då.

En skärm och dess latens är inte varierande. Det skapar inte oregelbundenheter. Men din ändring till v-sync och trippelbuftring etc. skapar oregelbundhet.

Permalänk
Medlem
Skrivet av Laxpudding:

En skärm och dess latens är inte varierande. Det skapar inte oregelbundenheter. Men din ändring till v-sync och trippelbuftring etc. skapar oregelbundhet.

Nej, totalt perfekt mjukt flyt med triple buffering 60Hz vsync utan framedrops ger tillräcklig delay att musrörelse och rendering upplevs som separata händelser.

Praktiskt exempel: stora delar av mänskligheten upplevde fördröjningen av vsync på i 60Hz som plågsam och stängde helt enkelt av det och levde med tearing istället.

Permalänk
Bildexpert 📺
Skrivet av JBE:

Nej, totalt perfekt mjukt flyt med triple buffering 60Hz vsync utan framedrops ger tillräcklig delay att musrörelse och rendering upplevs som separata händelser.

Jag är väldigt skeptiskt till att det är så enkelt.

Däremot tror jag att någon som med långt vanemönster kört 300+ FPS/240 Hz med v-sync: OFF utan buffring tycker det blir sabla mycket sämre att trippelbuffra till 60 Hz. Särskilt om man gör en medveten jämförelse med ett spel man kanske kört i tusen timmar – snarare än blindtestar något obekant.

Jag tror också att den person som går åt andra hållet först inte tycker att 300+ FPS/240 Hz med v-sync: OFF är så fantastiskt mycket bättre. Men sedan vänjer sig och tycket trippelbuffringen minsann var rätt kass.

Och detta handlar fortfarande inte ett dugg om millisekunder i skärmen, vilket är min poäng med artikeln.

Permalänk
99:e percentilen
Skrivet av Laxpudding:

I det här fallet är det faktiskt Windows jag haft i åtanke hela tiden. Skulle uppskatta att 95+ procent av frågorna i forumet runt spelskärmar kommer från Windows-användare. Nr 2 är konsol-användare. Sedan är det enstaka MacOS och någon enstaka som kör OS med egenkompilerade kärnor.

Det var väl inget vidare bra argument? 100 procent av frågorna kommer från operativsystemsanvändare.

Jag föreslår alltså att ändra en formulering som inte stämmer in på alla användare till en som gör det, och som dessutom är märkesneutral.

Citat:

Här skulle jag också säga att är man så pass kapabel som individ att man väljer exempelvis Ubuntu och trivs med detta, då är man också så pass kapabel att inse vad "Windows" i detta sammanhang representerar för en själv.

Självklart inser jag att Ubuntu motsvarar Windows för mig, men det gör det inte mer rätt. Skriv operativsystem när det helt solklart är det som menas. Annars kan man med liknande argument till exempel byta namn på underforumet Surfplattor till typ iPads.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk

Bra artikel. Den får mig att tänka på den här gamla godingen:
https://www.anandtech.com/show/2803

Vad gäller input lag verkar helt klart spelmotor avgörande enligt min erfarenhet. Vissa spel ligger så långt efter rörelserna att jag inte uppfattar input och output som simultana, med åksjuka som följd. Samma hårdvara men annat spel är inga problem.

Permalänk
Hedersmedlem
Skrivet av Laxpudding:

Däremot tror jag att någon som med långt vanemönster kört 300+ FPS/240 Hz med v-sync: OFF utan buffring tycker det blir sabla mycket sämre att trippelbuffra till 60 Hz. Särskilt om man gör en medveten jämförelse med ett spel man kanske kört i tusen timmar – snarare än blindtestar något obekant.

Går det att säga i regel hur stor skillnad det är i total latency (dvs. det fina "mus till ljus") på 60 Hz utan v-sync samt 60 Hz med v-sync och triple buffering, eller varierar det också? Isåfall, vad är "lower bound"?
Är det två frames extra så c:a 33.33 ms?

Det är ju åtminstone väldigt tydligt märkbart i snabbare spel, även för mig som alltid kört 60 Hz (minus kortare test hemma hos andra ett fåtal gånger). Minns inte exakt vilka spel jag känner så om, men jag tänker typ CS: GO, Unreal Tournament och liknande. I flera av dem orkar jag definitivt inte med v-sync.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Laxpudding:

Skulle säga att du här inte märkte skillnad på 2 eller 4 ms, utan märkte en skillnad på att spelet betedde sig annorlunda mot vad du är van med. Vid 240 Hz (och 240 FPS) har du mer information för öga och hand för att koordinera rörelser och träffar jämfört med 120 Hz/FPS.

Mjo, alltså. Det jag märkte var ju direkt att det kändes mer responsivt. Sen märkte jag ju att min "aim" var åt fanders. Den största skillnaden var ju just min "aim". Något man indirekt känner av. Så lite av varje där.
När det gäller input delay så går det att vänja sig vid även ganska hög sådan. (typ 100ms) men nånstans så känner man ju att input och resultat inte hänger ihop. Det är väl just den känslan som beskrivs med 100ms värdet. Jag kan ju säga att jag har blivit mycket mer känslig för det sen jag skaffade 120hz skärm och började med flipper. Så det är ganska individuellt hur folk uppfattar det. Innan så reagerade jag på trippel buffering med 60hz, och där var ung min känslighet. Men efter att ha spelat flipper i flera år så har min timing blivit så pass mycket bättre att jag märker skillnad på enstaka frames nästan. Om inget annat så märker jag direkt att min timing är off i spelet.
Det som i mitt exempel var "mind blowing" var ju att jag inte trodde att jag skulle märka nån skillnad alls. att gå från 120 till 240hz är ju bara 4,3ms ish. så jag förväntade mig inget alls. Det var dock så pass stor skillnad att jag bestämde mig för stanna på 120hz, som jag var/är inkörd på.
Lite i samma anda, så kan jag ju säga att jag sedan dess har ny skärm och nytt tangentbord. Och precis när jag började använda dem så märkte jag att det var lite mera input delay. (jag gissar att tangentbordet är den huvudansvariga för det) Lite oväntat där också.
Jag tror inte att jag skulle kunna "ace'a" nån blind test, men det är en märkbar skillnad.

Dock ska ju nämnas här att lite mera delay är något man vänjer sig vid. Så länge input delay är samma, så är det egentligen inget problem. (mja,, i 60fps så märkte jag skillnad i reaktionsförmåga på oväntade bollar, då jag spelade olika spel där ena bara går i 60fps.)

Det stora problemet är om det är en varierande delay, för det går inte att träna eller vänja sig vid. Och din träffsäkerhet är helt beroende på hur varierande delay'en är. Om man ligger precis på gränsen till hur många fps grafikkortet klarar av att leverera tex, så krävs det inte mycket för att en frame blir fördröjd. (inte skärmens fel dock). Men många skärmar numera har ju g-sync eller free-sync, som ritar frames allteftersom kortet är klar med dom. Och nu pratar vi varierande fördröjningar i skärmen. (fortfarande i kombination med grafikkort dock) Om du som läsare har märkt taskig "aim" sen du slog på g-sync/free-sync, så kan det vara något att tänka på.

Och återigen, timing är inte samma sak som reaktionsförmåga.
Jag börjar känna mig tjatig, men dessa diskussioner återkommer ständigt till reaktionförmåga och den klassiska "ögat kan inte se över 30fps" (även om typ, ingen tror på den längre) När det gäller timing så är det något helt annat som gäller.
ps, det skulle vara ett bra ämne för en artikel.

Rent generellt så skulle jag vilja säga att en skärms delay spelar ingen roll så länge den ligger under en refresh. 10ms är en bra siffra för 60hz skärmar, men 120 och uppåt så blir det ju en extra frame (120hz = 8,3ms per frame) Så det kanske är en mer realistisk riktlinje att säga.

Permalänk
Medlem
Skrivet av Thomas:

Går det att säga i regel hur stor skillnad det är i total latency (dvs. det fina "mus till ljus") på 60 Hz utan v-sync samt 60 Hz med v-sync och triple buffering, eller varierar det också? Isåfall, vad är "lower bound"?
Är det två frames extra så c:a 33.33 ms?

Det är ju åtminstone väldigt tydligt märkbart i snabbare spel, även för mig som alltid kört 60 Hz (minus kortare test hemma hos andra ett fåtal gånger). Minns inte exakt vilka spel jag känner så om, men jag tänker typ CS: GO, Unreal Tournament och liknande. I flera av dem orkar jag definitivt inte med v-sync.

klassisk tripple buffering använder en extra buffer frame, så skillnaden med den aktiverad blir 1fps (dvs 16,7ms i 60hz, med v-sync)

Det finns dock modernare sync varianter som reducerar delay mycket. rent generellt så körs kortet utan v-sync och pumpar ut frames utan att vänta till en buffer, och sedan levererar kortet den färskaste färdigritade frame den har, när den får v-sync från monitor. Delay här beror mycket på hur snabbt kortet är.

g-sync och free-sync vänder på steken och skickar sync med frame när kortet är klart, och låter skärmen vänta på en ny frame.

edit:
kom att tänka på det som laxpudding poängterade i videon, ang olika fördröjningar från toppen av bilden till botten av bilden.
Utan sync, så spelar det ingen roll, då den senaste frame kommer ritas i vilket fall som helst. (med tearing som resultat).

Permalänk
Bildexpert 📺

@Lordsqueak: jag tror du helt klart är inne på något med att timingen – koordinationen påverkas. Och att jag tror också att detta är så mycket mer än enbart input lag. Men diskussion fokuserar på input lag om millisekunder. Som jag nämner i video är "input lag" en slasktratt, skällsord rent av, för allt möjligt som upplevs som en försämring. När det i själva verket är fler faktorer som inverkar.

Permalänk
Bildexpert 📺
Skrivet av CasualGamer:

Vad gäller input lag verkar helt klart spelmotor avgörande enligt min erfarenhet. Vissa spel ligger så långt efter rörelserna att jag inte uppfattar input och output som simultana, med åksjuka som följd. Samma hårdvara men annat spel är inga problem.

Helt klart kan miljoner spela på konsoler med 30 FPS och spelmotorer som verkar ge 100+ ms av latens utan att känna att det är ospelbart eller att avtryckare och skott inte hänger ihop. Samtidigt som andra spel anses ospelbara vid 60 FPS på PC.

Så är hög input lag svaret på allt? Förmodligen inte. Särskilt inte det lilla som finns i skärmen.

Permalänk
Medlem

Input lag påverkar mycket, men beror också på vilket spel man spelar. Jag som spelar retrospel behöver kapa varje ms som möjligt. Spelar jag Punch-out till nes på min smart tv så kommer jag bara till Soda popinski. På min CRT tv kommer jag till super macho man. Helt omöjligt att spela på min smart tv.

Permalänk
Medlem
Skrivet av Thomas:

Går det att säga i regel hur stor skillnad det är i total latency (dvs. det fina "mus till ljus") på 60 Hz utan v-sync samt 60 Hz med v-sync och triple buffering, eller varierar det också? Isåfall, vad är "lower bound"?
Är det två frames extra så c:a 33.33 ms?

Det är ju åtminstone väldigt tydligt märkbart i snabbare spel, även för mig som alltid kört 60 Hz (minus kortare test hemma hos andra ett fåtal gånger). Minns inte exakt vilka spel jag känner så om, men jag tänker typ CS: GO, Unreal Tournament och liknande. I flera av dem orkar jag definitivt inte med v-sync.

Triple buffering i dirextx var inte äkta triple buffering, utan bara felbenämnt +2 frames i kö, dvs +33ms, double buffering 16.6ms.
Äkta triple buffering finns i nvidia fast sync nuförtiden, och vulkan (jag _tror_ det fanns i gamla opengl med), och är bra om man kan hålla hög framrate (+1 frame, 16.6ms i 60Hz). Svaret beror på om det var äkta triple buffering eller i själva verket dx render queue, så det kommer variera från spel till spel men oftast 33ms då directx var vanligast.

Nuförtiden är det inte så noga, iom g/free/motsv sync utför detta bättre och med mindre delay. Nvidia fast sync/äkta triple buffering borde kunna matcha och utprestera g-sync/motsvarande om man klarar att rendera i extremt hög fps.
Håller man tex 500-1000 fps i ett gammalt spel blir 1 fast framebuffer bara 1-2ms vilket borde bli mindre än någon annan syncteknik som ju måste låsas till skärmens frekvens.

dx double/triple buffering (render queue):
987654321
När man får frame drops, halveras framerate i double buffering, eller delas på 3 i triple buffering, tills buffer fylls igen. double buffering ger +1 frame input lag, triple ger +2. Flytet är mjukt inom samma kö-fyllnad.
Double buffering ger bättre latens (+1 frame), men större fps drops om buffer töms. 60 fps -> 30fps.

Äkta triple buffering/fast sync håller 2 frames paralellt i buffer:

3
2 1 Frame 1 skickas till monitor, och den färskaste av de nya frames (3) flyttas fram. frame 2 kastas.

4 3 Framerate drop, klarade inte att rendera frame5 i tid, man får fortfarande ingen tearing då man håller en hel frame i front buffer, men timing blir lite "off" då frame 4 fick användas istället för frame5 som hade haft mer korrekt timing, och upplevs antagligen som stutter, men framerate blir inte låst till halva eller tredjedelar av framerate.

En optimal sekvens blir tex 97531 etc och ju fortare man renderar desto bättre fungerar det då de frames man använder är så färska så möjligt med så perfekt timing som möjligt.

Permalänk
Medlem
Skrivet av Laxpudding:

@Lordsqueak: jag tror du helt klart är inne på något med att timingen – koordinationen påverkas. Och att jag tror också att detta är så mycket mer än enbart input lag. Men diskussion fokuserar på input lag om millisekunder. Som jag nämner i video är "input lag" en slasktratt, skällsord rent av, för allt möjligt som upplevs som en försämring. När det i själva verket är fler faktorer som inverkar.

mja, alltså, som du säger så är det ju många saker som påverkar "input lag", så det är ju inte helt fel att använda den termen utan att det för den skull betyder att det är skärmen som är skyldig. Men man ska väl komma ihåg att det faktiskt är många som spelar på tv-skärmar,, så det kan ju vara skärmen ibland också.

Permalänk
Bildexpert 📺
Skrivet av Lordsqueak:

Men man ska väl komma ihåg att det faktiskt är många som spelar på tv-skärmar,, så det kan ju vara skärmen ibland också.

Jo, jag tar upp det ett par gånget i video och artikel. En TV, särskilt något äldre modeller kan ha 50+ ms latens även i spelläget.

Permalänk

Tack för denna videon. Supernördigt och grymt påläst. Som slowgamer har jag sällan funderat mycket över latensen, men blev förvånad över hur stor andel som USB-gränssnittet står för. Fick mig att minnas att många gamers 'back then' ogärna släppte PS/2-gränssnittet för rädslan av den ökade latensen via USB. Huruvida det är sant eller ej vet jag inte. Såg aldrig några siffror åt endera hållet.

Återigen tack för en grym video!
/A

Permalänk
Medlem

^ Ang USB så ligger vi numera på USB 2 och 3. Gamla version 1 var ganska långsam och om den delade bandbredd med något annat så kunde det bli lite lagg. Så det var lite skillnad på då och nu.

Permalänk
Medlem

På mina tv-apparater, båda bortemot 10 år gamla, inbillar jag mig att deras "datorläge", som åtminstone på en av dem endast funkar med hdmi-1, har lägre latens än deras spelläge. F.ö vänjer sig hjärnan lite, så man hoppar/skjuter lite innan för att tajma saker i plattformsspel:) funkar ju sämre i andra skjutaspel där hinder kommer mer överraskande.

Fick själv spader när jag gick från att leka med musikprogram på Amigan till att försöka leka på PC, och PC-datorerna laggade som tusan när man skulle spela melodier på tangentbordet. Det är mycket lättare att höra 50ms fördröjning i musik än att se det vid spel/film tycker jag.

Tillägg: jag fusktestar latens genom att lyssna på ljud samtidigt i tv och stereo kopplat direkt till blu-ray / spel, kan bli rätt rejält eko med vissa inställningar, turligt nog är mina apparater för enkla för att ha superfunktioner som segar ner.

Visa signatur

ASUS P8Z68-v Pro i7 2600K@4.5, 32GB RAM, RX 580, 4K Samsung u24e590, Intel SSD, Seagate SSHD, LG BH16NS55 BD/RW, MacOS Monterey, Win 10+11, Linux Mint

Macbook Pro 2009, 8GB RAM, SSD, MacOS Catalina + Windows 7

Permalänk
Hedersmedlem
Skrivet av Pirum:

Det är mycket lättare att höra 50ms fördröjning i musik än att se det vid spel/film tycker jag.

Utan tvekan! 50 ms är oacceptabelt för att spela (t ex gitarr) med monitoring i min mening. Omkring 20 ms brukar jag oftast inte märka mer än att det bara känns liite annorlunda, men jag håller mig gärna alltid under 10.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Bildexpert 📺

Öra/hjärna är extremt känsligt för små skillnader eftersom det ligger i biologin, likt att kunna märka av riktning och avstånd på ljud. Här handlar det om hur hjärnan väver ihop flera intryck under en kort tidsrymd och även sätter en samband sådant som kroppsrörelser, mus, tangentbord etc och reaktionsförmåga.

Permalänk
Medlem

@Laxpudding: Du säger många gånger i videon att CRT har noll latens. Men är det något som testats?

Nu vet jag inte om det är skillnad på TV eller datorskärm när det handlar om latens hos CRT, men som en "fd." "proffs"spelare på ett gammalt TV-spel så minns jag hur det var när man försökte få gamla CRT-TVs att fungera bra. För att jämföra olika TV-apparater har vi jämfört:
- sida-vid-sida med analog splitter.
- absolut latens med kamera, vilket då inkluderar kontroll samt spelkonsol, men på samma ställe i spelet och i mitten av skärmen för att göra det rättvist.
Vi har då kommit fram till att det kan skilja *enormt*. De bästa har en absolut latens (inklusive spelkonsol) på runt 50ms, medan de sämsta legat på 200ms som bäst. Många billiga (ofta just små) TV-apparater gör spelet helt ospelbart på tävlingsnivå.

Jag säger "som bäst", för det beror också på vad man har för inställningar på den individuella TVn. Nästan alltid så ska ljusstyrka, kontrast, skärpa osv alla vara i mitten. I värsta fall kan det läggas på ytterligare 100ms om man ändrar något av dessa med så mycket som ett steg åt valfritt håll, i bästa fall så läggs det på bara 10-20ms, men gemensamt är att *alla* TV-apparater har *en* inställning som ger bäst latens. Att ändra kontrastreglaget från 50 till 51 gör absolut ingen synlig skillnad, men i blindtest märker man lätt skillnad i latens/spelbarhet. "Lätt" på vissa TV-apparater alltså som lägger på 100ms, på andra gör det ingen märkbar skillnad.

Nu är det ju möjligt att datorskärmar (CRT) faktiskt byggts för att vara snabba, till skillnad från TVs, men båda är ju CRT, som många tycker automatiskt ska ha noll latens.

edit: Sen så har vi också testat en adapter för antennkabel, gjort för TV-apparater som inte har scart eller komposit, men där snackar vi en pålagt latens på en halv sekund jämfört med komposit, mätt på samma TV. Den adaptern är ju också analog, vilket många påstått garanterar noll latens.

edit2: Vi har också blindtestat att om man splittar kompositkabeln (för att spela in turneringar på en dator med capture card) så ökar det latensen på TVn en liten aning. Vi har inte mätt detta med nån utrustning, så jag har inga siffror, och de flesta spelare märker ingen skillnad, men en speciellt känslig spelare klagade på detta (jag var ofta ansvarig för inspelningen) så vi blindtestade och han fick rätt 10 gånger av 10. Han kunde t.o.m säga när jag startade och stoppade inspelningen på datorn.

Permalänk
Bildexpert 📺

@ajp_anton: Jag tar upp det mer i videon, att de här metoderna bara kan peka på relativa skillnader. Jag kan inte veta exakt varför CRT:n är 13–14 ms före med ena testbilden och 4–5 ms efter med andra testbilden. Jag kan bara se att de här skillnaderna finns. Och att CRT:n har en förmodad noll latens per sin konstruktion.

När det handlar om en TV är det ingen RGBHV-signal som körs utan ofta en kompositvideo eller liknande som avkodas till något. Vilket kan (och bör adderas latens)