• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

PlatformWAR Ready for the future [XBox Series X und PlayStation 5]

Wer macht in der Next - Gen das Rennen?


  • Stimmen insgesamt
    321
Status
Nicht offen für weitere Antworten.
Der eine behauptet im Bezug auf meinen Beitrag, es geht nicht nur um das Tearing und der andere, es geht nicht nur um Input-Lag.

Anscheinend scheint man sich ja einig zu sein, dass ich beide Punkte angesprochen habe.
 
Sub 60 fühlen sich ohne VRR genauso gut an, wie sub 60 mit VRR...sicher doch :ugly:

Es lohnt sich noch nicht mal darauf einzugehen, da du keine praktische Erfahrung hast.

Was kostet denn der C9 Oldes aktuell so, also in der 65er Variante und wie ist es mit einbrennen?
Überleg mir den auch zu holen oder den Nachfolger Ende 2020, bestimmt ein großer Unterschied zu meinem 4kLCD

1850-2000€, vor wenigen Tagen hat Media Markt mit 1999€ für den 65" geworben.
Kein Einbrennen, der mit Abstand beste TV auf dem Markt. Und hol dir bloß keinen Crap von Samsung.
 
Unfug bleibt Unfug, leb damit.

Jeder G-Sync/Free Sync Gamer lacht sich gerade den Hintern ab, da du keinen blassen Schimmer hast, wovon du eigentlich redest.

VRR ist nicht nur dafür zuständig den Input-Lag zu minimieren, sondern bringt wesentlich mehr mit sich. Tearing wird eliminiert und das Geschehen wird, auch bei sub 60, wesentlich "smoother" dargestellt, da die GPU und der Monitor perfekt synchronisieren.

@Konsolenbaby hat das weiter Oben recht gut erklärt, sollte man selbst als Laie verstehen.

KEIN VRR/G-/Free Sync

ad2d7c-1583803041.png


VRR/G-/Free Sync

9efdd6-1583803215.png


Und dann nochmal zwei Videos von Digital Foundry dazu.


Und hier einfach mal auf das abgefilmte Gameplay achten, da liegen Welten zwischen.


Kein Marketing, sondern ein echter Gamer-Changer. Und das in jeder Hinsicht.

So viel dazu...
 
Zuletzt bearbeitet:
Kein Marketing, sondern ein echter Gamer-Changer. Und das in jeder Hinsicht.

So viel dazu...

Ein Beispiel für Marketingbuzzwords die letzte Gen komplett in sich zusammengefallen sind und von denen jeder vermeiden will damit Verbindung gebracht zu werden, weil er sich damit blamiert hat es hier pushen zu wollen, ist latenzkritisches Physikgameplay. :lol2: :rofl3: :pcat: :nyanwins:
 
  • Lob
Reaktionen: Avi
Ein "Game-Changer" - und dann ein Video posten, wo der Unterschied in Slow-Motion im Direktvergleich gezeigt wird (zwischen VSync On und GSync), um überhaupt sichtbar zu sein. Aber lass mich raten: "Man spürt es" sofort. :lol:

Ich merke schon, wir sind nun auf dem selben Niveau wie 1440p und 4k nicht sichtbar bzw. ist dann auf einmal sichtbar, wenn es Ende 2020 ist. Für deine Argumentation wäre es Quatsch, den Unterschied "kleinzureden". Kann ja jeder anhand des ersten Videos für sich selbst beurteilen, ob ein "neuer Fernseher" für das notwendig ist.

KEIN VRR/G-/Free Sync

ad2d7c-1583803041.png

Du musst mir übrigens keine Folien zeigen. Ich habe die Funktion ja an sich schon texttuell beschrieben. Zudem gehen die Folien davon aus, dass die GPU wesentlich schneller ein Bild rendert. Standard-Fernseher sind 60 Hz bzw. mittlerweile 120 Hz. Nach dem zitierten Bild zu urteilen gehen die also "im schlimmsten Fall" von 240 FPS bzw. sogar 480 FPS aus. Ja, sehr realistisch für Konsolenspieler.
 
Zuletzt bearbeitet:
Ein "Game-Changer" - und dann ein Video posten, wo der Unterschied in Slow-Motion im Direktvergleich gezeigt wird (zwischen VSync On und GSync), um überhaupt sichtbar zu sein. Aber lass mich raten: "Man spürt es" sofort. :lol:

Ich merke schon, wir sind nun auf dem selben Niveau wie 1440p und 4k nicht sichtbar bzw. ist dann auf einmal sichtbar, wenn es Ende 2020 ist. Für deine Argumentation wäre es Quatsch, den Unterschied "kleinzureden". Kann ja jeder anhand des ersten Videos für sich selbst beurteilen, ob ein "neuer Fernseher" für das notwendig ist.

Warum wohl slow-Motion?
Dir ist aber schon klar, dass man VRR in Echtzeit nicht mit einem Youtube Video, was 60Hz hat, darstellen kann :fp:
Ist so ähnlich wie der Vergleich HDR/kein HDR auf einem nicht HDR Monitor.
 
Warum wohl slow-Motion?
Dir ist aber schon klar, dass man VRR in Echtzeit nicht mit einem Youtube Video, was 60Hz hat, darstellen kann :fp:
Ist so ähnlich wie der Vergleich HDR/kein HDR auf einem nicht HDR Monitor.
Das stimmt so nicht. VRR hat den großen Vorteil, auch bei schwankenden FPS die Aktualisierungsrate des Panels danach zu richten (heißt nicht umsonst variabel).

Das hat mit einem Video wenig zu tun, das konstant laufen muss. Ein Video muss nicht "on-the-fly" ein Bild rendern, sondern hat die Informationen schon gespeichert und muss es gleichmäßig ausgeben. Man kann davon ausgehen, das bspw. 60 Hz-Smartphones sich an das 60 Hz-Video anpasst. Wäre blöd, wenn sie das nicht machen und es einen Versatz gäbe.

Einfach gesagt kannst du selbstverständlich Tearing bei aufgezeichneten Bildern (durch externe Kamera, die auf den Monitor zeigen), aufzeigen, so wie es Digital Foundry (womöglich - nicht überprüft) auch gemacht hat. Insbesondere dann, wenn die Aufnahme-Kamera eine so hohe FPS hat, dass man "jedes Bild erwischt". Ansonsten wäre eine "Software-Simulation" auch möglich, aber nicht notwendig.

Wo VRR helfen kann, ist, wenn die Framerate stark schwankt und das Panel mitzieht. Dann sollte es diese "Stutter" nicht mehr geben, wobei das so auch nicht gesagt ist - denn das Bild hat "natürlich weniger Bilder" die Sekunde und wirkt nicht mehr so flüssig, aber der Effekt dürfte weniger 'dramatisch' sein bei sehr häufigen Wechsel. Muss man aber mal testen und sowieso nur bei großen Sprüngen (30 <-> 60 FPS) und in einer gewissen Häufigkeit. Denn dann kommt dieser "Direktvergleich-Effekt" zum Tragen - der Spieler kann as Bild direkt mit dem vorherigen Bild vergleichen, da direkt hintereinander.

Von einem "Game-Changer" ist man aber meilenweit entfernt.
 
Zuletzt bearbeitet:
Es ist immer vom Vorteil synchron mit dem TV zu sein. Aktuell wird es bei den Konsolen mit dem Triple Buffer https://de.wikipedia.org/wiki/Dreifachpufferung gelöst oder es wird direkt ein CUT bei 30Frames gemacht, da wohl die meisten Spiele die 30 Frames packen und daher auch kein Tearing. Das VRR für Zocker die synchron mit der Bildschirmdarstellung ohne Tearing zocken können, ein Vorteil ist, ist doch klar. Es müssen keine manipulierten Zwischenbufferbilder rein und man ist mit dem Render gleich auf. Die Range ist halt etwas hoch aber glaube die >40 Frames(besser wäre >30) werden die Spiele schon packen. Vorteil auch, Spiel schafft z.B mehr als 60Frames
 
Zuletzt bearbeitet:
Das stimmt so nicht. VRR hat den großen Vorteil, auch bei schwankenden FPS die Aktualisierungsrate des Panels danach zu richten (heißt nicht umsonst variabel).

Das hat mit einem Video wenig zu tun, das konstant laufen muss. Ein Video muss nicht "on-the-fly" ein Bild rendern, sondern hat die Informationen schon gespeichert und muss es gleichmäßig ausgeben. Man kann davon ausgehen, das bspw. 60 Hz-Smartphones sich an das 60 Hz-Video anpasst. Wäre blöd, wenn sie das nicht machen und es einen Versatz gäbe.

Einfach gesagt kannst du selbstverständlich Tearing bei aufgezeichneten Bildern (durch externe Kamera, die auf den Monitor zeigen), aufzeigen, so wie es Digital Foundry (womöglich - nicht überprüft) auch gemacht hat. Insbesondere dann, wenn die Aufnahme-Kamera eine so hohe FPS hat, dass man "jedes Bild" erwischt. Ansonsten wäre eine "Software-Simulation" auch möglich, aber nicht notwendig.

Du verstehst es nicht.
Bei einem 60Hz Video kann das einzelne Bild nur alle 16,7ms ausgegeben werden, Egal ob es nun um ein Spiel oder einen Film geht.
VRR liefert aber gerade Bilder dazwischen.
Das hat doch nix mit rendern zu tun.
Es geht um die Ausgabe.
Du kannst also VRR mit einem Video auch nur dann einigermaßen demonstrieren, wenn du ein 120Hz Video auf einem 120Hz Monitor abspielst.
Nur dann kannst du eben die Unterschiede mit und ohne VRR bei einem unstetigen 60fps Signal sehen, obwohl das auch nicht ganz korrekt ist.
Ansonsten muss man sich eben mit Zeitlupe behelfen, da hier eben mehr Bilder ausgegeben werden als Im Videosignal codiert sind.

Wenn die GPU erst nach 20ms mit dem Rendern fertig ist, dann wird das Bild dank VRR auch erst und genau nach 20ms ausgegeben. Bei den weiteren Bildern ebenso. Ohne VRR bei aktiviertem V-Synch eben bei einer 60Hz Ausgabe (kleinste Zeiteinheit 16,67ms) erst nach 33,3ms. Bei einer 120Hz Ausgabe (kleinste Zeiteinheit 8,33ms)( nach 25ms.
Nach oben hin sind natürlich Grenzen gesetzt, die mit der maximalen Monitorfrequenz abgesteckt sind.
VRR funktioniert also nicht mehr bei Spielen, die stabil über 120fps liegen auf einem Monitor, der für die gewählte Auflösung nur 120Hz bietet.
Denn die Intervalle des auszugebenen Signals dürfen ja für diesen Monitor nicht kürzer sein als 1/120tel Sekunde, damit VRR überhaupt einschreiten kann.
Für normale 60fps Spiele ist VRR in diesem Beispiel also ideal.
 
Zuletzt bearbeitet:
Ich habe genug Konsolen-Spiele diese Generation gezockt, da brauche ich mich nicht "extern informieren".
so viel Ignoranz :shakehead:

Es ist immer vom Vorteil synchron mit dem TV zu sein. Aktuell wird es bei den Konsolen mit dem Triple Buffer https://de.wikipedia.org/wiki/Dreifachpufferung gelöst oder es wird direkt ein CUT bei 30Frames gemacht, da wohl die meisten Spiele die 30 Frames packen und daher auch kein Tearing. Das VRR für Zocker die synchron mit der Bildschirmdarstellung ohne Tearing zocken können, ein Vorteil ist, ist doch klar. Es müssen keine manipulierten Zwischenbufferbilder rein und man ist mit dem Render gleich auf. Die Range ist halt etwas hoch aber glaube die >40 Frames(besser wäre >30) werden die Spiele schon packen. Vorteil auch, Spiel schafft z.B mehr als 60Frames
Triple Buffering ändert nichts daran, dass der TV nur alle 16ms ein neues Bild ausgibt. Triple-Buffering synchronisiert nur die Ausgabe des Spiels mit der festen Bildwiederholrate des TV. Erst VRR/FreeSync synchronisiert per Übertragungsprotokoll den variablen Refresh des TVs mit der Fertigstellung eines Bildes, so dass zwischen 2 angezeigten Bildern auch wirklich etwas weniger oder etwas mehr als 16ms sein können.
 
so viel Ignoranz :shakehead:


Triple Buffering ändert nichts daran, dass der TV nur alle 16ms ein neues Bild ausgibt. Triple-Buffering synchronisiert nur die Ausgabe des Spiels mit der festen Bildwiederholrate des TV. Erst VRR/FreeSync synchronisiert per Übertragungsprotokoll den variablen Refresh des TVs mit der Fertigstellung eines Bildes, so dass zwischen 2 angezeigten Bildern auch wirklich etwas weniger oder etwas mehr als 16ms sein können.
??? Du wiederholst das was ich gesagt habe^^
 
Du verstehst es nicht.
Bei einem 60Hz Video kann das einzelne Bild nur alle 16,7ms ausgegeben werden, Egal ob es nun um ein Spiel oder einen Film geht.
VRR liefert aber gerade Bilder dazwischen.
Das hat doch nix mit rendern zu tun.
Es geht um die Ausgabe.
Genau das habe ich geschrieben.
Du kannst also VRR mit einem Video auch nur dann einigermaßen demonstrieren, wenn du ein 120Hz Video auf einem 120Hz Monitor abspielst.
Nur dann kannst du eben die Unterschiede mit und ohne VRR bei einem unstetigen 60fps Signal sehen, obwohl das auch nicht ganz korrekt ist.
Habe ich auch schon beschrieben. Das stimmt so nicht. Die Bild-Informationen sind vorhanden - gehen ja nicht verloren. Rest ist Videobearbeitung, um den Effekt des Tearings bzw. den Unterschied zwischen VSync und GSync aufzuzeigen. Was Digital Foundry mittels Slow-Motion zeigen wollte mit einem Ergebnis, was eher kontraproduktiv für die Diskussion ist.

Übrigens, wenn es nicht ginge, gäbe es eine ganz andere Lösung: Einfach das Gesamtkonstrukt halbieren. Statt 120 einfach 60, statt 60 einfach 30 und auch die Zwischenframes wie 40 oder 80 einfach halbieren, wobei alles unter 30 andere Effekte (Ruckeln) verursacht. Für eine Darstellung der beiden Lösungen sollte das dennoch reichen, wenn nicht sogar besser sein. Mit den Panels wird es natürlich schwer - gab vor einigen Jahren noch 30 Hz-Panels, wenn man es wirklich genau nehmen will. Aber mit dem jetzigen Equipment könnte man das auch schon mit 60 FPS machen.

Schließlich wurde noch ein paar Beiträge zuvor gesagt, dass es bei 60 und "Sub-60" FPS ein Game-Changer ist.
 
Nein. Triple Buffering sorgt nicht dafür, dass die Ausgabe mit dem TV synchron ist.

Das VRR für Zocker die synchron mit der Bildschirmdarstellung ohne Tearing zocken können, ein Vorteil ist, ist doch klar. Es müssen keine manipulierten Zwischenbufferbilder rein und man ist mit dem Render gleich auf.

Ich dachte , dass es klar ist, wenn ich Triple Buffer erwähne und dem Link hinzu und dann nochmal eine Zeile weiter das obere Zitat verwende, was ich damit meine. Aber ok, scheint wohl doch nicht ausgereicht zu haben^^
 
Wo Gsync/VRR übrigens auch ein echter Game Changer sein könnte, wäre bei der Switch (Pro). Leider unterstützt der Tegra das Feature bisher nicht. Andere mobile Chipsets für Notebooks nutzen es dagegen bereits erfolgreich. Das könnte Strom sparen und ein paar Switch-Games in Handheld-Modus bei der Framerate helfen.
 
Genau das habe ich geschrieben.

Ne, hast du in keiner Weise.

Habe ich auch schon beschrieben. Das stimmt so nicht. Die Bild-Informationen sind vorhanden - gehen ja nicht verloren. Rest ist Videobearbeitung, um den Effekt des Tearings bzw. den Unterschied zwischen VSync und GSync aufzuzeigen. Was Digital Foundry mittels Slow-Motion zeigen wollte mit einem Ergebnis, was eher kontraproduktiv für die Diskussion ist.

Übrigens, wenn es nicht ginge, gäbe es eine ganz andere Lösung: Einfach das Gesamtkonstrukt halbieren. Statt 120 einfach 60, statt 60 einfach 30 und auch die Zwischenframes wie 40 oder 80 einfach halbieren, wobei alles unter 30 andere Effekte (Ruckeln) verursacht. Für eine Darstellung der beiden Lösungen sollte das dennoch reichen, wenn nicht sogar besser sein. Mit den Panels wird es natürlich schwer - gab vor einigen Jahren noch 30 Hz-Panels, wenn man es wirklich genau nehmen will. Aber mit dem jetzigen Equipment könnte man das auch schon mit 60 FPS machen.

Schließlich wurde noch ein paar Beiträge zuvor gesagt, dass es bei 60 und "Sub-60" FPS ein Game-Changer ist.


Kann jemand anderes ihm das mal erklären.
Ich bin mit meinem Latein am Ende :)
 
Was kostet denn der C9 Oldes aktuell so, also in der 65er Variante und wie ist es mit einbrennen?
Überleg mir den auch zu holen oder den Nachfolger Ende 2020, bestimmt ein großer Unterschied zu meinem 4kLCD

Er wird sich wie damals die Plasmas, in deinen Augen verewigen! So das du keinen LCD mehr sehen möchtest Bis sie "ohne Hintergrundbeleuchtung" auskommen.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom