• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Auf der Suche nach der NextGen Grafik und Raytracing!

Ja, ich habe die Crossgen Version und ja, es war Raytracing aktiviert!? Klar, die Series X Version läuft deutlich smoother.. allerdings kann das doch echt nicht alles sein. Das ist wohl ein Scherz!? Ich mag Call of Duty.. ich liebe es. Aber das gibts doch nicht!? Was meint ihr?

JHoPqRo.jpg

Qj2fWB6.jpg



Qd1uN1F.jpg

RlvQd0h.jpg



HRCSvGA.jpg

wJ5rxRL.jpg



eDXKxoe.jpg

IYmNd22.jpg


HggVdEh.jpg

rIRdEfM.jpg
Da stecken eindeutig mehr Blumen im Holz auf dem ersten Screen. Klar eine Gen besser.
 
VRR löst Tearing, Bildruckeln und ermöglicht die kleinstmögliche Latenz, da der TV und die GPU/Konsole Hand in Hand arbeiten.
Das wurde hier schon so oft thematisiert...
Es löst Tearing. Kleinstmögliche Latenz erhält man nun mal wenn man keinen Synchronisationsmethode nutzt. Man nimmt also schlechtere Latenz in kauf um kein Tearing zu haben, ähnlich wie bei VSync, nur dass es bei VSync noch deutlich schlimmer ist.
Und wenns um Ruckeln geht ist eben Framerate und Stabilität entscheidend, was beides gegebene Faktoren sind und sich nicht durch VRR gegenüber keinem Sync verändern.
Jede Synchronisationsmethode ist ausschließlich dafür das Tearing-Problem zu lösen! Die eine hat eben mehr Nachteile als die andere.
 
Kleinstmögliche Latenz erhält man nun mal wenn man keinen Synchronisationsmethode nutzt.
Beispiel:

Fernseher aktualisiert alle 16,67ms, Spiel bietet 60 FPS, also aktualisiert ebenfalls alle 16,67ms. Nun starten aber nicht beide zeitgleich. Gehen wir davon aus, dass die Konsole immer 60 FPS rendert, hat man immer noch den zeitlichen Versatz.

Sind die Startzeitpunkte also 0 für den TV und 10ms für die Konsole bspw., dann verliert man immer diese 6,67ms. Somit hat man pro gezeigtem Bild eine zusätzliche (das ist wichtig zu wissen, das wird dazuaddiert) Latenz von 6,67ms. Das gleicht sich auch niemals aus, wenn die Konsole konstant bleibt: Immer werde ich diesen Versatz haben, weil die Konsole eben später das Rendern angefangen hat. Das ist auch der Grund, warum es Tearing auch bei 60 FPS und 60 Hz-Fernseher gibt (weil auch eine Zeile nicht gleichmäßig synchronisiert, sondern üblicherweise von oben nach unten - das neue Bild wird also oben gestartet, wandert nach unten und zufällig da kommt das neue Bild von der Konsole: Tearing).
Wenn ich die Konsole neu starte, kann ich also Glück haben und die Latenz ist geringer, wenn sie konstant laufen würde. Nun schwenkt das in der Praxis aber äußerst stark, die Konsole rendert nicht genau alle 16,67ms, weswegen der "Input Lag" auch variiert und man bei Messungen Min- und Max-Werte hat.

VRR aber synchronisiert genau dieses Defizit. Denn was macht er: Der TV sieht, die Konsole rendert mit einem Versatz. "Refresh-Rate" von TV und Konsole passen nicht - das heißt, TV muss sich an diese Rate anpassen, diese 6,67ms ausmerzen. Heißt in dem Fall bei den stabilen 60 Hz zwar auch 60 Hz, aber diese gleichen sich an.

Nun musst du dir das bei Variation vorstellen, fertig gerenderte Bild variiert, aber Fernseher rendert fix. Der Fernseher rendert immer so, wie das native Panel eben ist. Bei einem 60 Hz-Panel sind das immer die statischen 16,67ms, völlig egal, wann und wie ein Bild kommt. Kommt ein Bild zu 1,0ms, dann muss das eben bis 16,67ms warten (oder wird sogar verworfen). Kommt ein Bild zu 16,60ms, hat es Glück gehabt, Bild wird angezeigt. Kommt das Bild nun unglücklicherweise bei 17,0ms, gehen mehr als 16ms verloren (das bedeutet, allein durch den Fernseher kommen in dem Fall 16ms dazu - nochmal: es wird immer addiert zum Rest).
So ändert sich der Input-Lag konstant. Mit VRR kann das adaptiv angepasst werden und der Input-Lag 'schwindet'.

Nun der Einsatz in der Praxis: Bei einem Panel von 120 Hz ist der Input-Lag-Gewinn maximal also unter 8,33ms*. Ob man das nun merkt, ist wiederum ein anderes Thema tatsächlich. Aber in der Theorie könnte ich bis zu 8,33ms weniger Input-Lag haben - super Sache. Verkauft. :coolface:

*: Vorausgesetzt, das Panel arbeitet 'intern' weiterhin mit 120 Hz, obwohl nur ein 60-Hz-Signal kommt. Eventuell aktualisiert das Panel dann auch mit 60 Hz, aber das bedeutet nicht, dass sie es zeitgleich tun (also Konsole und TV) und mit VRR hat das sowieso nichts zu tun.
 
Beispiel:

Fernseher aktualisiert alle 16,67ms, Spiel bietet 60 FPS, also aktualisiert ebenfalls alle 16,67ms. Nun starten aber nicht beide zeitgleich. Gehen wir davon aus, dass die Konsole immer 60 FPS rendert, hat man immer noch den zeitlichen Versatz.

Sind die Startzeitpunkte also 0 für den TV und 10ms für die Konsole bspw., dann verliert man immer diese 6,67ms. Somit hat man pro gezeigtem Bild eine zusätzliche (das ist wichtig zu wissen, das wird dazuaddiert) Latenz von 6,67ms. Das gleicht sich auch niemals aus, wenn die Konsole konstant bleibt: Immer werde ich diesen Versatz haben, weil die Konsole eben später das Rendern angefangen hat. Das ist auch der Grund, warum es Tearing auch bei 60 FPS und 60 Hz-Fernseher gibt (weil auch eine Zeile nicht gleichmäßig synchronisiert, sondern üblicherweise von oben nach unten - das neue Bild wird also oben gestartet, wandert nach unten und zufällig da kommt das neue Bild von der Konsole: Tearing).
Wenn ich die Konsole neu starte, kann ich also Glück haben und die Latenz ist geringer, wenn sie konstant laufen würde. Nun schwenkt das in der Praxis aber äußerst stark, die Konsole rendert nicht genau alle 16,67ms, weswegen der "Input Lag" auch variiert und man bei Messungen Min- und Max-Werte hat.

VRR aber synchronisiert genau dieses Defizit. Denn was macht er: Der TV sieht, die Konsole rendert mit einem Versatz. "Refresh-Rate" von TV und Konsole passen nicht - das heißt, TV muss sich an diese Rate anpassen, diese 6,67ms ausmerzen. Heißt in dem Fall bei den stabilen 60 Hz zwar auch 60 Hz, aber diese gleichen sich an.

Nun musst du dir das bei Variation vorstellen, fertig gerenderte Bild variiert, aber Fernseher rendert fix. Der Fernseher rendert immer so, wie das native Panel eben ist. Bei einem 60 Hz-Panel sind das immer die statischen 16,67ms, völlig egal, wann und wie ein Bild kommt. Kommt ein Bild zu 1,0ms, dann muss das eben bis 16,67ms warten (oder wird sogar verworfen). Kommt ein Bild zu 16,60ms, hat es Glück gehabt, Bild wird angezeigt. Kommt das Bild nun unglücklicherweise bei 17,0ms, gehen mehr als 16ms verloren (das bedeutet, allein durch den Fernseher kommen in dem Fall 16ms dazu - nochmal: es wird immer addiert zum Rest).
So ändert sich der Input-Lag konstant. Mit VRR kann das adaptiv angepasst werden und der Input-Lag 'schwindet'.

Nun der Einsatz in der Praxis: Bei einem Panel von 120 Hz ist der Input-Lag-Gewinn maximal also unter 8,33ms*. Ob man das nun merkt, ist wiederum ein anderes Thema tatsächlich. Aber in der Theorie könnte ich bis zu 8,33ms weniger Input-Lag haben - super Sache. Verkauft. :coolface:

*: Vorausgesetzt, das Panel arbeitet 'intern' weiterhin mit 120 Hz, obwohl nur ein 60-Hz-Signal kommt. Eventuell aktualisiert das Panel dann auch mit 60 Hz, aber das bedeutet nicht, dass sie es zeitgleich tun (also Konsole und TV) und mit VRR hat das sowieso nichts zu tun.
Du vergleichst VRR mit VSync und zitierst einen Satz wo ich mich nicht auf VSync bezogen habe, sondern die Option ohne Synchronisation die Bilder mit Tearing auszugeben. Das ist nun mal das Optimum wenn man über Input Lag spricht. VRR die Möglichkeit Tearing zu reduzieren bei geringem Latenzunterschied, im Gegensatz zu VSync mit viel Unterschied, wie du eben beschrieben hast.
 
Es löst Tearing. Kleinstmögliche Latenz erhält man nun mal wenn man keinen Synchronisationsmethode nutzt. Man nimmt also schlechtere Latenz in kauf um kein Tearing zu haben, ähnlich wie bei VSync, nur dass es bei VSync noch deutlich schlimmer ist.
Und wenns um Ruckeln geht ist eben Framerate und Stabilität entscheidend, was beides gegebene Faktoren sind und sich nicht durch VRR gegenüber keinem Sync verändern.
Jede Synchronisationsmethode ist ausschließlich dafür das Tearing-Problem zu lösen! Die eine hat eben mehr Nachteile als die andere.
VRR sorgt dafür, dass ein gerendertes Bild sofort übertragen und angezeigt wird => niedrigste Latenz
 
WinnieFuu versteht nicht, das ein 60 Hz Signal ohne VRR eben immer auf das nächste Bild warten muss, ganz egal ob das nun Tearing hat oder nicht.

Die Konsole ist mit dem Standard TV auf 60 HZ synchron. Also gibt die Konsole 60 Bilder in der Konsole an den TV weiter. Da führt kein Weg dran vorbei.

1/60 = 16,6ms

Also diese Zeit benötigt man IMMER wenn es kein Freesync gibt.

DIe Konsole holt sich dann also 60x in der Sekunde ein Frame aus dem Framebuffer und übergibt diesen an den TV. Ganz egal was im Framebuffer steht.

Es bleibt bei 16,6ms. Weil die Konsole jedesmal auf ihren Zeitpunkt warten muss.

Bei 30 FPS spielen gibt die Konsole dann eben 2x das gleiche Bild an den TV weiter. Was solls.

Bei Freesync gibt die Konsole das nächste volle Frame an den TV weiter.. direkt. Freesync, VRR oder Gsync machen ja genau das.

Frame wird gerendert und ist komplett -> direkte Weitergabe an den TV -> TV muss nun schauen wie er den Frame ausgibt. Durch Teilung etc... aber das ist dann eher ne Sache der TV Steuerelektronik. Deswegen ist G-Sync ja teuerer, da hier die Hardware von Nvidia vorgegeben ist.

SCHNELLER kann man aktuell also ein VOLLBILD nicht übertragen. Was dann das Endgerät daraus macht, ist erstmal zweitrangig. Die Übertragung von VRR, Freesync und G-Sync ist im ersten Moment aber deutlich besser!

Und da gehts PRIMÄR nicht um Tearing. Es ist egal ob die Konsole nicht mit "V-Sync" etc.. arbeitet! Wenn die Konsole intern ohne V-Sync arbeitet gibt die Konsole halt alles raus was im Framebuffer steht, egal ob das ein Vollbild ist oder nicht. Es wird rausgehauen. Allerdings eben auch nur alle 16,6ms.

Es ist am Ende eine optimierte Art der Bildübertragung, um diese zu verbessern.

Mein persönlicher Senf mal Abseits vom technischen, am Ende zählt ja was man sieht:

Ich hatte schon viele >1K Monitore mit G-Sync usw... aber es hat noch nie soviel gebracht wie auf der Konsole! Schwankungen zwischen 50 und 60 FPS sind auf der Konsole mit Standard V-Sync absolut unschön (auf dem PC noch schlimmer)... Deswegen gehen die meisten dann auf 30 FPS (bei den Konsolen).

Denn rein theroretisch dürfte man ja kaum einen Unterschied zwischen 50 und 60 FPS sehen!?

Und das ist eben genau das war gerade passiert. Die modernen TVs sind in der Lage die Frames durch Teilungen usw.. an die 120 HZ Panels anzupassen und es funktioniert einfach GRANDIOS!! Wirklich GRANDIOS! Das ist bisher das mit Abstand schärfste und smoothestes Gameplay auf ner Konsole (120FPS/HZ) welches ich je erlebt habe. Während bei meinen teuren Monitoren bei 120 Hz und Hyperdrive (WHATEVER) das Bild eher verschmierte.. wird es am TV immer schärfer. Das ist echt saugeil! Flüssig, scharf und schnelle Reaktionszeit.

Wenn die nächsten Zwischenkonsolen dann 4k120 HZ liefern wird das ein echtes Fest! Wenn die TV Steuerelektronik nicht mehr mitmischt und man mit OLED quasi kein verschmieren mehr hat.
 
Zuletzt von einem Moderator bearbeitet:
Du vergleichst VRR mit VSync und zitierst einen Satz wo ich mich nicht auf VSync bezogen habe, sondern die Option ohne Synchronisation die Bilder mit Tearing auszugeben. Das ist nun mal das Optimum wenn man über Input Lag spricht. VRR die Möglichkeit Tearing zu reduzieren bei geringem Latenzunterschied, im Gegensatz zu VSync mit viel Unterschied, wie du eben beschrieben hast.
Habe hauptsächlich VRR und das Bild ohne jegliche Synchronisation beschrieben. Mein Beispiel mit höherer Latenz bezieht sich auf ein Spiel/Fernseher ohne VRR oder VSync.
 
WinnieFuu versteht nicht, das ein 60 Hz Signal ohne VRR eben immer auf das nächste Bild warten muss, ganz egal ob das nun Tearing hat oder nicht.

Die Konsole ist mit dem Standard TV auf 60 HZ synchron. Also gibt die Konsole 60 Bilder in der Konsole an den TV weiter. Da führt kein Weg dran vorbei.

1/60 = 16,6ms

Also diese Zeit benötigt man IMMER wenn es kein Freesync gibt.

DIe Konsole holt sich dann also 60x in der Sekunde ein Frame aus dem Framebuffer und übergibt diesen an den TV. Ganz egal was im Framebuffer steht.

Es bleibt bei 16,6ms. Weil die Konsole jedesmal auf ihren Zeitpunkt warten muss.

Bei 30 FPS spielen gibt die Konsole dann eben 2x das gleiche Bild an den TV weiter. Was solls.

Bei Freesync gibt die Konsole das nächste volle Frame an den TV weiter.. direkt. Freesync, VRR oder Gsync machen ja genau das.

Frame wird gerendert und ist komplett -> direkte Weitergabe an den TV -> TV muss nun schauen wie er den Frame ausgibt. Durch Teilung etc... aber das ist dann eher ne Sache der TV Steuerelektronik. Deswegen ist G-Sync ja teuerer, da hier die Hardware von Nvidia vorgegeben ist.

SCHNELLER kann man aktuell also ein VOLLBILD nicht übertragen. Was dann das Endgerät daraus macht, ist erstmal zweitrangig. Die Übertragung von VRR, Freesync und G-Sync ist im ersten Moment aber deutlich besser!

Und da gehts PRIMÄR nicht um Tearing. Es ist egal ob die Konsole nicht mit "V-Sync" etc.. arbeitet! Wenn die Konsole intern ohne V-Sync arbeitet gibt die Konsole halt alles raus was im Framebuffer steht, egal ob das ein Vollbild ist oder nicht. Es wird rausgehauen. Allerdings eben auch nur alle 16,6ms.

Es ist am Ende eine optimierte Art der Bildübertragung, um diese zu verbessern.

Mein persönlicher Senf mal Abseits vom technischen, am Ende zählt ja was man sieht:

Ich hatte schon viele >1K Monitore mit G-Sync usw... aber es hat noch nie soviel gebracht wie auf der Konsole! Schwankungen zwischen 50 und 60 FPS sind auf der Konsole mit Standard V-Sync absolut unschön (auf dem PC noch schlimmer)... Deswegen gehen die meisten dann auf 30 FPS (bei den Konsolen).

Denn rein theroretisch dürfte man ja kaum einen Unterschied zwischen 50 und 60 FPS sehen!?

Und das ist eben genau das war gerade passiert. Die modernen TVs sind in der Lage die Frames durch Teilungen usw.. an die 120 HZ Panels anzupassen und es funktioniert einfach GRANDIOS!! Wirklich GRANDIOS! Das ist bisher das mit Abstand schärfste und smoothestes Gameplay auf ner Konsole (120FPS/HZ) welches ich je erlebt habe. Während bei meinen teuren Monitoren bei 120 Hz und Hyperdrive (WHATEVER) das Bild eher verschmierte.. wird es am TV immer schärfer. Das ist echt saugeil! Flüssig, scharf und schnelle Reaktionszeit.

Wenn die nächsten Zwischenkonsolen dann 4k120 HZ liefern wird das ein echtes Fest! Wenn die TV Steuerelektronik nicht mehr mitmischt und man mit OLED quasi kein verschmieren mehr hat.
Das bleibt weiterhin Quatsch was ihr schreibt weil ihr wieder und wieder und wieder mit VSync vergleicht. Wie oft soll ich denn noch betonen, dass ihr das nicht tun sollt? Entsprechend gelten die 60hz natürlich NICHT, sondern die maximale HZ Anzahl des Bildschirms. Wenn wir von VRR bis 120hz reden ist die maximale HZ Anzahl also mindestens 120hz und damit reden wir von 8,33 ms bis ein Refresh forciert wird. Das ist schneller als bei VRR wo auf das vollständige Bild gewartet werden muss (also angenommen die Framerate ist unter 120 fps und das ist eher die Regel als die Ausnahme). Das muss ohne Sync nämlich eben nicht. Damit liegt @Nullpointer auch wieder falsch. VRR hat nicht die niedrigste Latenz, wie in vorherigen Beiträgen schon erklärt.
Weiß auch nicht wie man mir jetzt immer noch unterstellen kann, dass ich das Prinzip nicht verstanden hätte. Lest ihr meine Kommentare überhaupt?

Zu deinem "persönlichen Senf" kann ich dieses mal zustimmen. Tatsache ist aber auch, dass Spiele, wenn sie vernünftig laufen, auch mit VSync smooth sind, teils sogar flüssiger da eine schwankende Framerate nun mal wahrgenommen wird. Teilweise natürlich auch weniger flüssig, wenn durch VRR durchschnittlich wirklich deutlich mehr Frames möglich sind als mit VSync. Daher ist der größte Vorteil, bei solchen Spielen die vernünftig mit VSync laufen, der geringere Input Lag.

Habe hauptsächlich VRR und das Bild ohne jegliche Synchronisation beschrieben. Mein Beispiel mit höherer Latenz bezieht sich auf ein Spiel/Fernseher ohne VRR oder VSync.
Dann war es einfach falsch. Die Hardware muss nicht auf den Bildschirm warten um den nächsten Frame zu rendern. Einfacher Beweis: Man kann durchaus >100 fps rendern und auf einem 60hz Monitor ausgeben.
 
WinnieFuu vielleicht solltest du erstmal ein wenig über die TV Technik recherchieren. Du verstehst nicht richtig wie die Übertragung funktioniert.
 
Das bleibt weiterhin Quatsch was ihr schreibt weil ihr wieder und wieder und wieder mit VSync vergleicht. Wie oft soll ich denn noch betonen, dass ihr das nicht tun sollt? Entsprechend gelten die 60hz natürlich NICHT, sondern die maximale HZ Anzahl des Bildschirms. Wenn wir von VRR bis 120hz reden ist die maximale HZ Anzahl also mindestens 120hz und damit reden wir von 8,33 ms bis ein Refresh forciert wird. Das ist schneller als bei VRR wo auf das vollständige Bild gewartet werden muss (also angenommen die Framerate ist unter 120 fps und das ist eher die Regel als die Ausnahme). Das muss ohne Sync nämlich eben nicht. Damit liegt @Nullpointer auch wieder falsch. VRR hat nicht die niedrigste Latenz, wie in vorherigen Beiträgen schon erklärt.
Weiß auch nicht wie man mir jetzt immer noch unterstellen kann, dass ich das Prinzip nicht verstanden hätte. Lest ihr meine Kommentare überhaupt?

Zu deinem "persönlichen Senf" kann ich dieses mal zustimmen. Tatsache ist aber auch, dass Spiele, wenn sie vernünftig laufen, auch mit VSync smooth sind, teils sogar flüssiger da eine schwankende Framerate nun mal wahrgenommen wird. Teilweise natürlich auch weniger flüssig, wenn durch VRR durchschnittlich wirklich deutlich mehr Frames möglich sind als mit VSync. Daher ist der größte Vorteil, bei solchen Spielen die vernünftig mit VSync laufen, der geringere Input Lag.


Dann war es einfach falsch. Die Hardware muss nicht auf den Bildschirm warten um den nächsten Frame zu rendern. Einfacher Beweis: Man kann durchaus >100 fps rendern und auf einem 60hz Monitor ausgeben.
VSync muss warten auf den regelmäßigen Refresh des TVs/Monitors. Tearing ändert daran nichts. Updates des Bildes gibt es nur zu den konstanten Refreshes des Bildes am TV, also alle 8, 16 oder 30ms. Ergo ist da Synchronisations-Lag.

Bei VRR nimmt das Spiel den Input entgegen, rendert das Bild und sendet es dann sofort an den Monitor/TV und schickt ihm das Refresh-Signal. Da ist kein Synchronisations-Lag in der Verarbeitungskette.
 
Man kann durchaus >100 fps rendern und auf einem 60hz Monitor ausgeben.
Genau dieses Beispiel habe ich auch gebracht.

Nehmen wir 100 FPS an, wird ein Bild alle 10ms ausgegeben. Der Fernseher aktualisiert alle 16,67ms. Gehen wir bei beiden von Startzeitpunkt 0 aus, gehen manchmal knapp 7ms, manchmal 4ms verloren. Das Bild bei 20ms bekommt der Fernseher nicht mal mit (Tearing-Problematik). Das ist kein VSync, sondern so die normale Arbeitsweise deines Fernsehers. Bei VSync würde die Konsole nicht bei 10ms das Bild ausgeben, sondern erstmal behalten und erst ausgeben, wenn die Refresh-Rate des Fernsehers erreicht wurde.

Bei VRR würde es diese Verlustfälle nicht geben, außer du gehst über die native Panel-Rate, dann hast du das gleiche Problem, meist dann aber ab 120 Hz.

Was du annimmst als "ohne Synchronisation", ist das, was VRR ist und löst. Das Bild sofort anzeigen, wenn es gerendert ist. Das machen Fernseher so an sich nicht.
 
Genau dieses Beispiel habe ich auch gebracht.

Nehmen wir 100 FPS an, wird ein Bild alle 10ms ausgegeben. Der Fernseher aktualisiert alle 16,67ms. Gehen wir bei beiden von Startzeitpunkt 0 aus, gehen manchmal knapp 7ms, manchmal 4ms verloren. Das Bild bei 20ms bekommt der Fernseher nicht mal mit. Das ist kein VSync, sondern so die normale Arbeitsweise deines Fernsehers. Bei VSync würde die Konsole nicht bei 10ms das Bild ausgeben, sondern erstmal behalten und erst ausgeben, wenn die Refresh-Rate des Fernsehers erreicht wurde.

Bei VRR würde es diese Verlustfälle nicht geben, außer du gehst über die native Panel-Rate, dann hast du das gleiche Problem, meist dann aber ab 120 Hz.

Was du annimmst als "ohne Synchronisation", ist das, was VRR ist und löst. Das Bild sofort anzeigen, wenn es gerendert ist. Das machen Fernseher so an sich nicht.
Auch wenn du VRR hast wirst du die maximale Aktualisierungsfrequenz von 16,67 ms des Bildschirms nicht unterbieten können. D.h. das im besten Fall VRR den gleichen Lag hat wie ohne Synchronisierung. Da die Grenze von VRR bei besagtem Bildschirm dann allerdings ebenfalls bei 60 hz/fps liegen müsste spielt das bei 100 gerenderten Frames sowieso keine Rolle mehr.
Der andere Fall ist, dass die gerenderten Frames unterhalb der maximalen hz Anzahl des Bilschirms liegt. Dann sorgt VRR dafür, dass der Monitor auf das Bild der Hardware wartet, während ohne Synchronisation die vorhandenen und unfertigen Informationen schon ausgegeben werden und das gezeigte Bild näher am aktuellen geschehen ist -> weniger Lag. Also sollte VRR greifen ist immer mehr Lag vorhanden als ohne Sync.

@Nullpointer
Du bist einfach raus xD
Du bist schon wieder beim Vergleich vom VSync mit VRR.
 
Auch wenn du VRR hast wirst du die maximale Aktualisierungsfrequenz von 16,67 ms des Bildschirms nicht unterbieten können. D.h. das im besten Fall VRR den gleichen Lag hat wie ohne Synchronisierung. Da die Grenze von VRR bei besagtem Bildschirm dann allerdings ebenfalls bei 60 hz/fps liegen müsste spielt das bei 100 gerenderten Frames sowieso keine Rolle mehr.
Der andere Fall ist, dass die gerenderten Frames unterhalb der maximalen hz Anzahl des Bilschirms liegt. Dann sorgt VRR dafür, dass der Monitor auf das Bild der Hardware wartet, während ohne Synchronisation die vorhandenen und unfertigen Informationen schon ausgegeben werden und das gezeigte Bild näher am aktuellen geschehen ist -> weniger Lag. Also sollte VRR greifen ist immer mehr Lag vorhanden als ohne Sync.

@Nullpointer
Du bist einfach raus xD
Du bist schon wieder beim Vergleich vom VSync mit VRR.
Wieso bin ich raus? Ich habe wenigstens verstanden wie die ganze Sache funktioniert. Nach deinen Vorstellungen hat ein Monitor mit fester Frequenz keinen Synchronisationslag zu einem Spiel mit variabler Frequenz. Das ist schlicht unmöglich.
 
Auch wenn du VRR hast wirst du die maximale Aktualisierungsfrequenz von 16,67 ms des Bildschirms nicht unterbieten können.
Bei einem 60 Hz-Panel, ja. In der Praxis sind diese Panels aber so weit ich weiß alle 120 Hz. Mein 60-Hz-Beispiel war nur für Demonstrationszwecke.
D.h. das im besten Fall VRR den gleichen Lag hat wie ohne Synchronisierung.
Ich weiß nicht, ob VRR das ermöglicht: Aber auch hier könnte man durch VRR profitieren, denn wenn man bspw. ein 240-FPS-Spiel mit einem 120-Hz-Panel hat, dann kann es ohne VRR sein, dass beide nicht bei 0 anfangen, sondern eben zufällig. Die GPU gibt alle 4,2ms ein Bild an den Fernseher, der Fernseher aktualisiert sein Bild (ohne Sync) alle 8,3ms. Anstatt nun die GPU bei 12,6ms ein Bild an den Fernseher schickt und man somit 4,0ms verliert, könnte man das trotzdem angleichen, indem die Frequenzen 'halbwegs' angeglichen werden, ich so wenig Verlust habe, wie es geht. VRR ist eine Fernsehersache, deswegen von da betrachtet: Gehen wir also aus, die GPU schickt fix alle 4,2ms ein Bild an den Fernseher, was kann er nun mit VRR tun? Wenngleich er die Frequenz nicht anpassen kann, kann er eine Phasenverschiebung durchführen, denn VRR hat, wie in meinem ersten Beispiel gezeigt, auch den Vorteil, dass bei gleichbleibender Frequenz die Phasen angepasst werden können. Denn auch ein 120-FPS-Spiel kann mit einem 120-Hz-Spiel eine Nichtübereinstimmung haben bei unterschiedlichen Startzeitpunkten. Was kann der Fernseher machen: Die Phasenverschiebung, damit sich die Rate angleicht. Das eliminiert natürlich nicht das Problem gänzlich, verbessert es aber. Vielleicht würde sich so eine Technik aber auch unter einem anderen Fancy-Namen verstecken und nicht direkt VRR in dem Fall, wenngleich es technisch identisch ist.

Dann sorgt VRR dafür, dass der Monitor auf das Bild der Hardware wartet, während ohne Synchronisation die vorhandenen und unfertigen Informationen schon ausgegeben werden und das gezeigte Bild näher am aktuellen geschehen ist -> weniger Lag.
Unfertige Informationen = schwarzes Bild bzw. eher das letzte fertige Bild im Buffer.
Tearing entsteht so nicht. Du scheinst anzunehmen, dass Tearing entsteht, weil die GPU anfängt, in sein Buffer zu schreiben, der Fernseher diese Information mittendrin "abholt"?

Tearing entsteht, weil die GPU ein fertiges Bild an den Fernseher schickt, Bild 2 im Buffer liegt, auch schon abschickt (vom Fernseher aber wegen der Refresh-Rate von 16,67ms nicht wahrgenommen wird) und Bild 3 mittlerweile auch schon durch ist und abgeschickt wird und der Fernseher von Bild 1 auf Bild 3 springt und Bild 2 gar nicht mitbekommen hat.

Dass der Fernseher auf das Bild der GPU reagiert und das Bild dann anzeigt, wenn die GPU fertig ist, ist der Optimalfall und der geringstmögliche Lag, denn wenn die GPU nicht fertig ist, dann gibt es auch nichts, was überhaupt meine Eingabe 'anzeigen' kann. Die GPU ist ausschlaggebend dafür, dass mein Input auch angezeigt wird. Was bringt mir es also, nicht auf die GPU zu warten, wenn ohnehin kein Ergebnis zur Verfügung steht?

Fazit sollte also sein: Input-Lag: VRR < ohne Sync-Techniken < VSync. An sich wüsste ich nun auch nicht, was negativ an VRR wäre. Die Anpassung der Refresh-Rate an den Bildgeber selbst (Hardware, GPU) ist schlichtweg das Beste für die Bildausgabe, was man machen kann (oder ich übersehe spontan einen großen Nachteil).
 
Bei einem 60 Hz-Panel, ja. In der Praxis sind diese Panels aber so weit ich weiß alle 120 Hz. Mein 60-Hz-Beispiel war nur für Demonstrationszwecke.
Ich ebenfalls. Die Argumentation klappt ja genauso mit 120 Hz. Man darf nur nicht 60 Hz ohne Sync mit bis zu 120 Hz VRR vergleichen, das würde keine Rolle spielen.
Ich weiß nicht, ob VRR das ermöglicht: Aber auch hier könnte man durch VRR profitieren, denn wenn man bspw. ein 240-FPS-Spiel mit einem 120-Hz-Panel hat, dann kann es ohne VRR sein, dass beide nicht bei 0 anfangen, sondern eben zufällig. Die GPU gibt alle 4,2ms ein Bild an den Fernseher, der Fernseher aktualisiert sein Bild (ohne Sync) alle 8,3ms. Anstatt nun die GPU bei 12,6ms ein Bild an den Fernseher schickt und man somit 4,0ms verliert, könnte man das trotzdem angleichen, indem die Frequenzen 'halbwegs' angeglichen werden, ich so wenig Verlust habe, wie es geht. VRR ist eine Fernsehersache, deswegen von da betrachtet: Gehen wir also aus, die GPU schickt fix alle 4,2ms ein Bild an den Fernseher, was kann er nun mit VRR tun? Wenngleich er die Frequenz nicht anpassen kann, kann er eine Phasenverschiebung durchführen, denn VRR hat, wie in meinem ersten Beispiel gezeigt, auch den Vorteil, dass bei gleichbleibender Frequenz die Phasen angepasst werden können. Denn auch ein 120-FPS-Spiel kann mit einem 120-Hz-Spiel eine Nichtübereinstimmung haben bei unterschiedlichen Startzeitpunkten. Was kann der Fernseher machen: Die Phasenverschiebung, damit sich die Rate angleicht. Das eliminiert natürlich nicht das Problem gänzlich, verbessert es aber. Vielleicht würde sich so eine Technik aber auch unter einem anderen Fancy-Namen verstecken und nicht direkt VRR in dem Fall, wenngleich es technisch identisch ist.
Die Obergrenze von VRR ist ja maximal die höchste Refreshrate des Bildschirms, darüber greift VRR nicht. Das geht vermutlich technisch auch gar nicht anders. Angenommen es kommen 100 fps und der Bildschirm hat 120 hz, dann wartet der Bildschirm vermutlich mit dem Refresh bis das nächste Bild fertig ist um es schnellstmöglich anzuzeigen. Ich denke nicht, dass man dagegen einen Refresh des Monitors vorziehen kann und somit die maximale Rate überschreiten kann. D.h. auch mit VRR werden es bei einem 120hz Panel mindestens 8,3 ms sein.
Unfertige Informationen = schwarzes Bild bzw. eher das letzte fertige Bild im Buffer.
Tearing entsteht so nicht. Du scheinst anzunehmen, dass Tearing entsteht, weil die GPU anfängt, in sein Buffer zu schreiben, der Fernseher diese Information mittendrin "abholt"?

Tearing entsteht, weil die GPU ein fertiges Bild an den Fernseher schickt, Bild 2 im Buffer liegt, auch schon abschickt (vom Fernseher aber wegen der Refresh-Rate von 16,67ms nicht wahrgenommen wird) und Bild 3 mittlerweile auch schon durch ist und abgeschickt wird und der Fernseher von Bild 1 auf Bild 3 springt und Bild 2 gar nicht mitbekommen hat.

Dass der Fernseher auf das Bild der GPU reagiert und das Bild dann anzeigt, wenn die GPU fertig ist, ist der Optimalfall und der geringstmögliche Lag, denn wenn die GPU nicht fertig ist, dann gibt es auch nichts, was überhaupt meine Eingabe 'anzeigen' kann. Die GPU ist ausschlaggebend dafür, dass mein Input auch angezeigt wird. Was bringt mir es also, nicht auf die GPU zu warten, wenn ohnehin kein Ergebnis zur Verfügung steht?
So ähnlich. Der Buffer wird, meines bescheidenen Wissens nach, nie geleert beim "abholen". Die unfertige Information ist also immer das vorherige Bild + das aktuelle Bild. Auslesen und schreiben des Buffers passiert simultan, deshalb kann es auch passieren, dass zwei Tearing-Schnitte auf dem Bildschirm zu sehen sind.
Es ist halt auch Fakt, dass weder GPU noch Monitor Refresh aufeinander warten. Ebenfalls, dass es Tearing gibt, was heißt, dass unfertige Bilder ausgelesen werden. Es kann also nur so oder so ähnlich funktionieren wie ich beschrieben habe, mit der Konsequenz, dass es die Möglichkeit des geringst möglichen Lags darstellt, was die Praxis auch zeigt.
 
Also, nochmal...

Es wäre egal ob V-Sync oder „Tearing“ verwendet werden würde, die Kette Konsole -> TV hätte den gleichen Lag. Es gebe nur intern in der Konsole eine schnellere Ausgabe / Bereitschaft des Bildes.

Jetzt schauen wir uns mal VRR im Testergebnis an. Wie groß ist der Input lag von der Konsole auf den TV mit und ohne VRR!?

Und jetzt Winniefuu bitte ich hier um eine Erklärung! Nach deiner Logik müssten im Beispiel 1080p60 mit 10,5ms diese ohne Sync unterboten werden, ja gar schneller als die 6ms mit VRR... Meinst Du das ernsthaft?

J7DgQdP.png
 
Also, nochmal...

Es wäre egal ob V-Sync oder „Tearing“ verwendet werden würde, die Kette Konsole -> TV hätte den gleichen Lag. Es gebe nur intern in der Konsole eine schnellere Ausgabe / Bereitschaft des Bildes.
Nein, so ein Quatsch. Wie kommst du darauf? Das erkläre ich doch jetzt außerdem schon seit gefühlt 10 Posts. Hat Ark übrigens auch schon erklärt. Bei VSync kommt Lag hinzu, die GPU wartet bis der Refresh kommt bis sie anfängt das nächste Bild zu berechnen. Ohne Sync wäre das neue Bild schon berechnet worden und so viel der Information wie vorhanden schon vom Bildschirm ausgelesen.
Jetzt schauen wir uns mal VRR im Testergebnis an. Wie groß ist der Input lag von der Konsole auf den TV mit und ohne VRR!?

Und jetzt Winniefuu bitte ich hier um eine Erklärung! Nach deiner Logik müssten im Beispiel 1080p60 mit 10,5ms diese ohne Sync unterboten werden, ja gar schneller als die 6ms mit VRR... Meinst Du das ernsthaft?

J7DgQdP.png
Ja, tolles Eigentor :D Danke für den Beweis.
Man vergleiche VRR mit den entsprechenden Auflösungen und maximaler Hz Rate des Bildschirms und erkennt, dass ohne Sync schneller ist.
Sinn von VRR und Sync-Methoden genrell ist es Tearing zu vermeiden. Case closed :kruemel:
 
Nein, so ein Quatsch. Wie kommst du darauf? Das erkläre ich doch jetzt außerdem schon seit gefühlt 10 Posts. Hat Ark übrigens auch schon erklärt. Bei VSync kommt Lag hinzu, die GPU wartet bis der Refresh kommt bis sie anfängt das nächste Bild zu berechnen. Ohne Sync wäre das neue Bild schon berechnet worden und so viel der Information wie vorhanden schon vom Bildschirm ausgelesen.

Du hast nicht verstanden worum geht. Es ging mit um die reine Bildübertragung. Es ist anstrengend.

Ja, tolles Eigentor :D Danke für den Beweis.
Man vergleiche VRR mit den entsprechenden Auflösungen und maximaler Hz Rate des Bildschirms und erkennt, dass ohne Sync schneller ist.
Sinn von VRR und Sync-Methoden genrell ist es Tearing zu vermeiden. Case closed :kruemel:
Die VRR Inputlag Tests laufen mit 60HZ...
 
Zurück
Top Bottom