Det är inte bara vad du tycker. Det är ett objektivt påstående.
Över 250fps blir skillnaderna mindre märkbara tror jag. Där blir hjärnan flaskhals och det krävs troligen större ökningar i bildfrekvens för att man ska kunna känna skillnad. Med det kan säkert en CS spemare bekräfta eller dementera? Men det man gör med skyhöga framerates är ju också att "bruteforcea" jämna renderingstider. Anta att renderingstider alltid var konstanta så skulle man troligen inte behöva skyhöga bildfrekvenser för att prestera på topp. Kan däremot tänka mig att man känner skillnad på 250fps och 500fps.
Hur som helst står jag fast vid att adaptiv synkteknologi är att på artificiell väg, i efterhand radda upp bildrutorna i en jämn mer konstant ström. Alltså inte helt i realtid representera det som händer i spelet eftersom skärmen ändå måste invänta bilderna som "sorteras" i jämnare ordning. Det kan inte ske utan någon form av latens? Folk här har påstått motsatsen och det kan hända att jag har fel. Men skulle behöva en bättre förklaring för att ändra min uppfattning.
Nä, den samlar inte bildrutorna och jämnar till dom. Skärmen uppdateras när en frame är färdig att skickas till skärmen helt enkelt. Istället för att vi säger att din fps dippar till tex 100fps men din skärmen köttar på i 144hz så känner du den ”desyncen” mer än att din skärm bara uppdaterar när dessa 100 framesen dyker upp.
Det är inget som händer i efterhand eller handlar om att göra något artificiellt, enligt tester så ger det inte dig någon mer input lag än vanligt och du ser inte heller mer frames om du kör utan bara att din skärm uppdaterar fler gånger per bild
Skickades från m.sweclockers.com