Beispiel:
Fernseher aktualisiert alle 16,67ms, Spiel bietet 60 FPS, also aktualisiert ebenfalls alle 16,67ms. Nun starten aber nicht beide zeitgleich. Gehen wir davon aus, dass die Konsole immer 60 FPS rendert, hat man immer noch den zeitlichen Versatz.
Sind die Startzeitpunkte also 0 für den TV und 10ms für die Konsole bspw., dann verliert man immer diese 6,67ms. Somit hat man pro gezeigtem Bild eine zusätzliche (das ist wichtig zu wissen, das wird dazuaddiert) Latenz von 6,67ms. Das gleicht sich auch niemals aus, wenn die Konsole konstant bleibt: Immer werde ich diesen Versatz haben, weil die Konsole eben später das Rendern angefangen hat. Das ist auch der Grund, warum es Tearing auch bei 60 FPS und 60 Hz-Fernseher gibt (weil auch eine Zeile nicht gleichmäßig synchronisiert, sondern üblicherweise von oben nach unten - das neue Bild wird also oben gestartet, wandert nach unten und zufällig da kommt das neue Bild von der Konsole: Tearing).
Wenn ich die Konsole neu starte, kann ich also Glück haben und die Latenz ist geringer, wenn sie konstant laufen würde. Nun schwenkt das in der Praxis aber äußerst stark, die Konsole rendert nicht genau alle 16,67ms, weswegen der "Input Lag" auch variiert und man bei Messungen Min- und Max-Werte hat.
VRR aber synchronisiert genau dieses Defizit. Denn was macht er: Der TV sieht, die Konsole rendert mit einem Versatz. "Refresh-Rate" von TV und Konsole passen nicht - das heißt, TV muss sich an diese Rate anpassen, diese 6,67ms ausmerzen. Heißt in dem Fall bei den stabilen 60 Hz zwar auch 60 Hz, aber diese gleichen sich an.
Nun musst du dir das bei Variation vorstellen, fertig gerenderte Bild variiert, aber Fernseher rendert fix. Der Fernseher rendert immer so, wie das native Panel eben ist. Bei einem 60 Hz-Panel sind das immer die statischen 16,67ms, völlig egal, wann und wie ein Bild kommt. Kommt ein Bild zu 1,0ms, dann muss das eben bis 16,67ms warten (oder wird sogar verworfen). Kommt ein Bild zu 16,60ms, hat es Glück gehabt, Bild wird angezeigt. Kommt das Bild nun unglücklicherweise bei 17,0ms, gehen mehr als 16ms verloren (das bedeutet, allein durch den Fernseher kommen in dem Fall 16ms dazu - nochmal: es wird immer addiert zum Rest).
So ändert sich der Input-Lag konstant. Mit VRR kann das adaptiv angepasst werden und der Input-Lag 'schwindet'.
Nun der Einsatz in der Praxis: Bei einem Panel von 120 Hz ist der Input-Lag-Gewinn maximal also unter 8,33ms*. Ob man das nun merkt, ist wiederum ein anderes Thema tatsächlich. Aber in der Theorie könnte ich bis zu 8,33ms weniger Input-Lag haben - super Sache. Verkauft.
*: Vorausgesetzt, das Panel arbeitet 'intern' weiterhin mit 120 Hz, obwohl nur ein 60-Hz-Signal kommt. Eventuell aktualisiert das Panel dann auch mit 60 Hz, aber das bedeutet nicht, dass sie es zeitgleich tun (also Konsole und TV) und mit VRR hat das sowieso nichts zu tun.