Säg att du uppdaterar ett spel och nu har 175 frames per second istället för 159.
Detta är till synes 10 % bättre (175/159).
Om nu din bff som bara hade 58 fps före uppdateringen uppdaterar var hamnar han då?
Hamnar han på 64 fps (58*1,1) eller hamnar han bara på 60 fps enligt beräkningarna nedan?
Hur använder man egentligen frametimes på rätt sätt?
Beräkningar:
1/159 = 0,00629
1/175 = 0,00571
0,00629 - 0,00571 = 0,00058
1/58 = 0,01724
1/60 = 0,01667
0,001724 - 0,01667 = 0,00057
Med andra ord: 58 fps uttryckt i frametimes (0,01724) minus skillnaden mellan 159 och 175 fps mätt i frametimes (0,00629 - 0,00571 = 0,00058) blir 60 fps uttryckt i frametimes (0,01667), nära nog.
Annan fråga: är den synliga skillnaden mellan 144 och 120 samma som skillnaden mellan 55 och 60 fps?
1/120 = 0,00833
1/144 = 0,00694
0,00833-0,00694 = 0,00139
1/60 = 0,01667
1/55 = 0,01818
0,01818-0,01667 = 0,00152
(Obs: 0,00139 och 0,00152 är så nära man kan komma varandra med 50-något som ett heltal.)
Antagande: med andra ord så bör man inte märka skillnaden mellan en 120 Hz bildskärm och en 144 Hz bildskärm om man inte heller märker någon skillnad mellan 55 och 60 fps?
Jag antar att svaret blir 60 fps till den första frågan och ja till den andra.
Vad mer går det att använda frametimes till tro?