• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

Der große TV Thread - Infos, Empfehlungen und co.

Ja der CX war ja auch wie Rtings usw. inkl. Vincent meinte ein kleiner downgrade um wohl Billiger zu werden. Jetzt können sie halt billiger werden und wieder hochfahren dank den 20% mehr Effizienz. Bin mega happy mit meinem C9, aber jetzt will meine Frau und ich uns dann wohl ende des Jahres oder nächstes Jahr den G1 in 77" holen, da er eben noch mal nen Tick besser als unser C9 ist, 65" schon zu klein und man den dann wohl für 3000€ bekommt. Meinen C9 nimmt einer sofort für 1000€ hat er gemeint, muss nur bescheid sagen.
Und wenn mehr Gerüchte auf kommen das nächstes Jahr die OLED Preise Massiv fallen, warte ich auch gerne noch paar Monate
 
Ich weiß das die US preise ohne Steuern sind, egal ob die jetzt von 0%-10+% schwanken dort, aber vor Paar Tagen nen link im AVS gesehen und da bist du auch bei $4000 rum gewesen.
Und glaube nicht das angesehene User im Hifi lügen wenn sie Tipps geben wo man nen TV günstig bekommt. Links können sie ja nicht posten, aber die wo sich auskennen wissen dann schon welcher Händler gemeint ist.
Das wir den eh ruck zuck für 4K bekommen war ja eh klar und ende des Jahres oder nächstes für etwas über 3K. Der 77"CX gabs ja jetzt für 3100€ bei Expert.
 
ich frage mal hier, da HDMI 2.1 VRR im Tv Bereich ja schon weiter verbreitet ist und ich da nicht ganz durchblicke bzw vllt es einfach noch nicht kapiere.

VRR auf den Xbox Series Konsolen und zukünftig PS5. Ist VRR etwas, was ihr per default einschalten würdet, oder entscheidet ihr von Spiel zu Spiel?

Nach meinem Verständnis hat VRR keinen Input Lag Vorteil bei 30fps Spielen und generell Spielen, die bombenfest bei 60 oder 120fps bleiben. Bei Spielen die quasi nie die Framerate droppen (also Vsync nie aktiv wird), hätte man dann doch einen Input Lag Nachteil, weil i.d.r mit VRR enabled der Input Lag des Displays steigt. Habe ich das soweit richtig verstanden?

Auch in Hinsicht auf potentielle Gammashift und Flicker Problemen. Stört euch das bzw fällt es überhaupt auf, oder aktiviert ihr VRR dann erst, "wenns sein muss" und ansonsten lässt ihrs lieber deaktiviert.
 
Ja der CX war ja auch wie Rtings usw. inkl. Vincent meinte ein kleiner downgrade um wohl Billiger zu werden. Jetzt können sie halt billiger werden und wieder hochfahren dank den 20% mehr Effizienz. Bin mega happy mit meinem C9, aber jetzt will meine Frau und ich uns dann wohl ende des Jahres oder nächstes Jahr den G1 in 77" holen, da er eben noch mal nen Tick besser als unser C9 ist, 65" schon zu klein und man den dann wohl für 3000€ bekommt. Meinen C9 nimmt einer sofort für 1000€ hat er gemeint, muss nur bescheid sagen.
Und wenn mehr Gerüchte auf kommen das nächstes Jahr die OLED Preise Massiv fallen, warte ich auch gerne noch paar Monate
Gute Frau, gefällt mir :banderas:

Werden wohl noch 2 bis maximal 3 Jahre warten und dann auf 83+ umsteigen...88+ wären natürlich 🤤
Und der 77er wandert ins Schlafzimmer...aufwachen und wie ein Reh vom LKW geblendet werden :coolface:
 
ich frage mal hier, da HDMI 2.1 VRR im Tv Bereich ja schon weiter verbreitet ist und ich da nicht ganz durchblicke bzw vllt es einfach noch nicht kapiere.

VRR auf den Xbox Series Konsolen und zukünftig PS5. Ist VRR etwas, was ihr per default einschalten würdet, oder entscheidet ihr von Spiel zu Spiel?

Nach meinem Verständnis hat VRR keinen Input Lag Vorteil bei 30fps Spielen und generell Spielen, die bombenfest bei 60 oder 120fps bleiben. Bei Spielen die quasi nie die Framerate droppen (also Vsync nie aktiv wird), hätte man dann doch einen Input Lag Nachteil, weil i.d.r mit VRR enabled der Input Lag des Displays steigt. Habe ich das soweit richtig verstanden?

Auch in Hinsicht auf potentielle Gammashift und Flicker Problemen. Stört euch das bzw fällt es überhaupt auf, oder aktiviert ihr VRR dann erst, "wenns sein muss" und ansonsten lässt ihrs lieber deaktiviert.
Bei den LG-Modellen ist der Bereich für VRR sowieso 40 - 120 Hz, somit hättest du keine Vorteile bei 30-FPS-Spielen. Das Display muss also auch die Frequenzen unterstützen. Generell kann es in dem Fall halt nur bis 40 runter (wie sie es technisch danach implementiert haben, weiß ich nicht).

Und doch, du hast auch bei bombenfesten Framerates Vorteile, da VRR auch dafür sorgt, dass beide synchronisiert werden. Wenn bspw. der Startzeitpunkt des Renderers (Output) Zeitpunkt tCON (0ms) ist und der Startzeitpunkt tTV (10ms), du einen Fernseher ohne VRR hast, wird es einen Versatz geben*. Der Fernseher aktualisiert mit statischen 120 Hz, das heißt, alle 8,33ms wird ein Bild angezeigt. Nun rendert ein 60-FPS-Spiel alle 16,67ms das Bild. Der Fernseher hat bei tTV angefangen und zeigt also ein neues Bild bei 10ms, 18,33ms, 26,66ms, 34,99ms, 43,33ms etc. aus Sicht des Renderers. Der Renderer gibt ein Bild zu den Zeitpunkten 16,67ms und 33,34ms. Du siehst, das kann man endlos weiterführen. Der Versatz variiert pro Frame und verschiebt sich konstant.

Bei VRR sind die Refreshraten deines Fernsehers variabel, wie der Name schon sagt. Das bedeutet auch, dass auch bei stabilen 60-FPS-Spielen der Fernseher sich auf den Output der Konsole einstellen kann, so dass auch die Refreshrate des Fernsehers dann ist, wenn die Konsole ein Bild ausspuckt. Das Ergebnis ist eine Verringerung des Input-Lags. Im obigen tCON- und tTV-Beispiel würden dann beide bei 16,67ms, 33,34ms etc. ohne Versatz funktionieren. Noch ein Vorteil ist eben kein Tearing (das aber eigentlich durch Vsync). Nur Vsync "cached" ein Frame, weswegen der Input Lag steigt. Das hast du mit VRR nicht, weil das auch Fernsehersache (und natürlich das jeweilige Gerät) ist.

* Die Startzeitpunkte sind hier beispielhaft gewählt und können natürlich jederzeit unterschiedlich sein. Es ist aber halt nur so schnell, dass man es normalerweise nicht bemerkt. Du siehst ja, wir reden hier von paar ms.

Kurz: VRR ist eine konsequente Weiterentwicklung der Tearing-Problematik und hat in jedem Fall Vorteile. Es gibt keinen Grund, VRR zu deaktivieren. Aus diesem Grund ist es ja auch ein HDMI2.1-Standard.
 
Zuletzt bearbeitet:
@Ark Erstmal danke, das ist echt sehr erleuchtend gerade 👍

Das heißt dass der Input Lag den Rtings beim CX gemessen hat

Native Resolution @ 60Hz
13.6 ms

Variable Refresh Rate @ 60Hz
15.2

eigentlich in der (Gaming-)Praxis nichtssagend ist. Der Input Lag mit VRR ist konstant und somit im Schnitt geringer, weil da nichts fluktuiert.
 
@Ark Erstmal danke, das ist echt sehr erleuchtend gerade 👍

Das heißt dass der Input Lag den Rtings beim CX gemessen hat

Native Resolution @ 60Hz
13.6 ms

Variable Refresh Rate @ 60Hz
15.2

eigentlich in der (Gaming-)Praxis nichtssagend ist. Der Input Lag mit VRR ist konstant und somit im Schnitt geringer, weil da nichts fluktuiert.
Dafür müsste ich die Testmethoden von Rtings durchlesen. Waren sie identisch, wie sind die vorgegangen?
Ich weiß auch nicht, was 13,6ms mir sagen will. Ist das der Durchschnittswert? Generell wird der bei einem 60-Hz-Panel sogar bei 8-10ms sein und bei 120 Hz sogar nur 4-5ms, wenn das Gerät mitmacht. Wenn du einen Druck bei 15ms machst, ist der Input Lag eventuell sogar nur 1,67ms für diese eine Situation. Aber das gilt natürlich auch für VRR. Nun bedenke, dass ohne VRR kein Sync stattfindet, das Panel also immer mit 120 Hz arbeitet. Mit VRR geht es aber bspw. runter auf 60 Hz (und 60 Hz sind 16,67ms vs. 120 Hz, 8,33ms, also theoretisch sogar höherer Input-Lag). Aber das bringt ja nichts, wenn das Gerät noch nicht bereit dafür ist. Wenn das Gerät halt dann doch 10ms braucht, dann sind die 8,33ms ja schön, aber zu nichts zu gebrauchen sozusagen. Das Panel arbeitet definitiv langsamer im VRR-Modus, wenn der Output nicht 120 Hz ist. Also 60 Hz. Dadurch steigt aber auch der durchschnittliche Input-Lag, da das Panel nur noch alle 16,67ms aktualisiert, nicht mehr alle 8,33ms.

Die Krux der Durchschnittswerte sozusagen.

EDIT: Um es verständlicher darzustellen:

Panel1 - 60 Hz (VRR):
1/60 = 16,67ms

Panel2 - 120 Hz:
1/120 = 8,33ms

Wer wird wohl den geringeren Durchschnittswert beim Input-Lag haben je nach Messverfahren?
Natürlich ignoriert man in dem Fall alle anderen Faktoren (Gerät selbst, Postprocessing des Fernsehers etc.).
 
Dafür müsste ich die Testmethoden von Rtings durchlesen. Waren sie identisch, wie sind die vorgegangen?
Ich weiß auch nicht, was 13,6ms mir sagen will. Ist das der Durchschnittswert? Generell wird der bei einem 60-Hz-Panel sogar bei 8-10ms sein und bei 120 Hz sogar nur 4-5ms, wenn das Gerät mitmacht. Wenn du einen Druck bei 15ms machst, ist der Input Lag eventuell sogar nur 1,67ms für diese eine Situation. Aber das gilt natürlich auch für VRR. Nun bedenke, dass ohne VRR kein Sync stattfindet, das Panel also immer mit 120 Hz arbeitet. Mit VRR geht es aber bspw. runter auf 60 Hz (und 60 Hz sind 16,67ms vs. 120 Hz, 8,33ms, also theoretisch sogar höherer Input-Lag). Aber das bringt ja nichts, wenn das Gerät noch nicht bereit dafür ist. Wenn das Gerät halt dann doch 10ms braucht, dann sind die 8,33ms ja schön, aber zu nichts zu gebrauchen sozusagen. Das Panel arbeitet definitiv langsamer im VRR-Modus, wenn der Output nicht 120 Hz ist. Also 60 Hz. Dadurch steigt aber auch der durchschnittliche Input-Lag, da das Panel nur noch alle 16,67ms aktualisiert, nicht mehr alle 8,33ms.

Die Krux der Durchschnittswerte sozusagen.

EDIT: Um es verständlicher darzustellen:

Panel1 - 60 Hz (VRR):
1/60 = 16,67ms

Panel2 - 120 Hz:
1/120 = 8,33ms

Wer wird wohl den geringeren Durchschnittswert beim Input-Lag haben je nach Messverfahren?
Natürlich ignoriert man in dem Fall alle anderen Faktoren (Gerät selbst, Postprocessing des Fernsehers etc.).
Soweit ich weiß ist der Inputlag Wert auch nur ein Durchschnittswert (von verschiedenen Bereichen des Screens also oben, unten und mitte). Und gibt wohl auch viele verschiedene Methoden den zu erfassen, wodurch es da zu Abweichungen kommen kann.

Ist halt jetzt die Frage, was nun tatsächlich bei einem 60fps Spiel Sache ist. Und auch muss man bedenken, dass die Xbox ja trotzdem 120hz ausgibt, wenn man das so einstellt, egal ob 30, 60 oder 120fps Spiele. D.h. der TV kann in 60fps Spielen und mit VRR trotzdem theoretisch genauso schnell aktualisieren wie bei richtigen 120fps Spielen, also bis zu 8,33ms Frequenz. Würde ich jetzt mal meinen.

Aber keine Ahnung welchen (positiven) Effekt das dann genau hat. Ist auch so ein Rätsel
 
Ich bin mal gespannt wieviel schlechter der C1 im Vergleich zu G1 sein wird. Weil der 77er ist glaube ich mir minimal zu klein und bei Sony gibts nur dem 90J, der in der Größe super super teuer sein wird.
 
Ich denke C1 wird fast 1:1 CX sein.
Wennner wieder wie der C9 wird, würde mir reichen den in 77" zu holen und einiges zu sparen.
Kann sein, dass vielleicht der 80J in 77 vielleicht dir passen wird, glaube der wird vom Preis auch nicht so teuer werden wie der A90. Aber gibts auch keine Reviews aktuell
 
Kann sein, dass vielleicht der 80J in 77 vielleicht dir passen wird, glaube der wird vom Preis auch nicht so teuer werden wie der A90. Aber gibts auch keine Reviews aktuell
Mag das OS von Sony nicht bei meiner Schwiegermutter, da ist das von meinem C9 einiges schneller und stabieler. Weiß nicht ob sich das groß geändert hat und auch meine Frau liebt das WebOS und dann muss mein TV halt auch ideal fürs gaming sein und da sehe ich LG auch vorne.
 
Zuletzt bearbeitet:
Zurück
Top Bottom