Permalänk
Medlem

FRAMETIMES: hur använder man dem?

Säg att du uppdaterar ett spel och nu har 175 frames per second istället för 159.
Detta är till synes 10 % bättre (175/159).
Om nu din bff som bara hade 58 fps före uppdateringen uppdaterar var hamnar han då?
Hamnar han på 64 fps (58*1,1) eller hamnar han bara på 60 fps enligt beräkningarna nedan?
Hur använder man egentligen frametimes på rätt sätt?

Beräkningar:
1/159 = 0,00629
1/175 = 0,00571
0,00629 - 0,00571 = 0,00058
1/58 = 0,01724
1/60 = 0,01667
0,001724 - 0,01667 = 0,00057
Med andra ord: 58 fps uttryckt i frametimes (0,01724) minus skillnaden mellan 159 och 175 fps mätt i frametimes (0,00629 - 0,00571 = 0,00058) blir 60 fps uttryckt i frametimes (0,01667), nära nog.

Annan fråga: är den synliga skillnaden mellan 144 och 120 samma som skillnaden mellan 55 och 60 fps?

1/120 = 0,00833
1/144 = 0,00694
0,00833-0,00694 = 0,00139
1/60 = 0,01667
1/55 = 0,01818
0,01818-0,01667 = 0,00152
(Obs: 0,00139 och 0,00152 är så nära man kan komma varandra med 50-något som ett heltal.)

Antagande: med andra ord så bör man inte märka skillnaden mellan en 120 Hz bildskärm och en 144 Hz bildskärm om man inte heller märker någon skillnad mellan 55 och 60 fps?

Jag antar att svaret blir 60 fps till den första frågan och ja till den andra.
Vad mer går det att använda frametimes till tro?

Permalänk
Inaktiv
Skrivet av Msch:

Med andra ord så bör man inte märka någon skillnad mellan en 120 Hz bildskärm och en 144 Hz bildskärm om man inte heller märker någon skillnad mellan 55 och 60 fps?

Jag antar att svaret blir 60 fps till den första frågan och ja till den andra.
Vad mer går det att använda frametimes till tro?

Nja, jag skulle vilja påstå att det är avtagande förbättring. Du jämför ju i detta fallet med ett absolut antal FPS (nästan i alla fall). Jämför istället två extremfall, skulle man se skillnad på 1 och 5 FPS? Skulle man se skillnad på 1000000 och 1000005 FPS?

Allt skiljer från person till person, personligen tror jag skillnaden är mycket större mellan 55 och 60 än 120 och 144. Jag personligen känner nästan direkt när datorn börjar tappa fart och dippar ner under 60. Därför kör jag ofta lägre inställningar med garanterad prestanda istället för ULTRA och ibland tapp.

Du kan inte heller göra jämförelsen du gjorde i början. Med en viss dator kanske du går från 110 -> 143 FPS, med en annan dator kanske du får från 52 -> 53. Det beror helt på vilken typ av ändring de gör. De kanske bara minskar tiden för ett visst delmoment, kanske ändrar så en viss grafikinställning kör snabbare med vissa grafikkort. Kanske gör något för särskilda processorer.

Förstår inte riktigt heller hur du gör när du räknar ökning i procent genom att subtrahera.

Permalänk
Medlem
Skrivet av anon81912:

Nja, jag skulle vilja påstå att det är avtagande förbättring. Du jämför ju i detta fallet med ett absolut antal FPS (nästan i alla fall). Jämför istället två extremfall, skulle man se skillnad på 1 och 5 FPS? Skulle man se skillnad på 1000000 och 1000005 FPS?

Allt skiljer från person till person, personligen tror jag skillnaden är mycket större mellan 55 och 60 än 120 och 144. Jag personligen känner nästan direkt när datorn börjar tappa fart och dippar ner under 60. Därför kör jag ofta lägre inställningar med garanterad prestanda istället för ULTRA och ibland tapp.

Ja, man ser skillnad på 1 och 5 fps och nej man ser inte skillnad på 1000000 och 1000005 fps.

Och nej, vilken löjligt sak att säga. Enligt mina beräkningar och antaganden med absoluta värden så är skillnaden mellan 55 och 60 fps och skillnaden mellan 120 och 144 (observera att det inte är en jämförelse mellan 120 och 125 eller 120 och 131 här) exakt samma. Med andra ord så vill du säga ”nej, dina beräkningar/antaganden är fel” och därefter förklara varför det är så utan att dra in vad du ”personligen” ”känner” vilket är lite ovetenskapligt… känner jag.

Sedan att du personligen använder en 120 Hz bildskärm och märker direkt att datorn dippar ner under 60 fps begriper jag men det hör inte riktigt till saken.

Permalänk
Medlem

Att säga att 0,00058 sekunders kortare frametimes universalt är 10 % bättre är ju bara fel.

Ditt antagande, som om jag förstår dig rätt är att ens tröskel för uppfattande av skillnaden mellan två fpser kan bottna i det absoluta värdet av skillnaden mellan deras frame times, kan mycket väl stämma.

Visa signatur

Redbox: Asrock B650 Lightning ATX, 7800x3D -20CCO, XFX 6950XT, 2x32GB Corsair Vengence 6400 CL32, WD SN770 2TB, Corsair RMe 1000, Lian Li Lancool 216, Peerless Assassin 120 SE
Purpbox: Z87-Pro, I5 4670K@4.2, Sapphire 290 TRI-X, 2x8GB Crucial Tactical@stock, Deep Silence 1
Samsung Evo 250+500GB + QVO 1TB, 2x1TB 7200RPM backup/lagring
Det var bättre förr: E5300 2600MHz -> 3640MHz, Celeron 300A -> 450MHz

Permalänk
Medlem
Skrivet av Killbom:

Du kan inte heller göra jämförelsen du gjorde i början. Med en viss dator kanske du går från 110 -> 143 FPS, med en annan dator kanske du får från 52 -> 53. Det beror helt på vilken typ av ändring de gör. De kanske bara minskar tiden för ett visst delmoment, kanske ändrar så en viss grafikinställning kör snabbare med vissa grafikkort. Kanske gör något för särskilda processorer.

Förstår inte riktigt heller hur du gör när du räknar ökning i procent genom att subtrahera.

Exemplet med uppdateringen är helt och väldigt teoretiskt. Anta att det är en grundläggande uppdatering som helt enkelt gör allting snabbare.
Det är menat att ta udden av uttalanden som ”den senaste uppdateringen gav mig en enorm 16 fps förbättring” när det handlar om 100 fps+ tal eftersom enligt mina antaganden denna förbättring inte är i närheten av skillnaden mellan 40 och 56 varken i vad man uppfattar eller prestandamässigt.

Ökningen kan jag förtydliga lite. Skillnaden i frametime är densamma. Subtraktionerna kommer fram till det. Procenten i slutet hör inte till frametimes utan till fps. Som de står nu kanske det mest är förvirrande dock.

Skrivet av e1m1:

Att säga att 0,00058 sekunders kortare frametimes universalt är 10 % bättre är ju bara fel.

10 % hörde till fps och inte framerate. Har tagit bort dem.