Bond
L99: LIMIT BREAKER
- Seit
- 23 März 2010
- Beiträge
- 51.712
Die Refreshrate eines TVs beträgt 60,30,20,15,12,10,6,5,4,3,2 oder 1 Hz.
den tv hast du wohl selber erfunden
Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
Die Refreshrate eines TVs beträgt 60,30,20,15,12,10,6,5,4,3,2 oder 1 Hz.
Du kannst jedes Frame umterschiedlich lange anzeigen lassen. Bei einem 30fps Game wird bei einem 60Hz TV jedes Frame halt doppelt so lange dargestellt wie bei einem 60fps Game. Bei 20fps sind es 3x, bei 15fps 4x usw.den tv hast du wohl selber erfunden
nur bieten pc spiele das in der regel nicht
Du kannst jedes Frame umterschiedlich lange anzeigen lassen. Bei einem 30fps Game wird bei einem 60Hz TV jedes Frame halt doppelt so lange dargestellt wie bei einem 60fps Game. Bei 20fps sind es 3x, bei 15fps 4x usw.
Why not settle on something like 40 or 45fps? The problem here is that 60 screen refreshes per second cannot be equally divided by 40 or 45 frames. Some frames stay on-screen for longer than others, resulting in off-putting judder. Locking to 30fps ensures that each rendered frame persists for two screen refreshes and presents with no screen-tear whatsoever.
Gsync/Freesync ist auch die Zukunft.
Gsync kann man bereits heute kaufen. Eim Kumpel spielt bereits mit seinem 30-144Hz Monitor. Da ruckelt gar nichts mehr, egal welche Framerate.
Mehr als 30 FPS hat er sicher, die 680 ist auch heute noch recht stark(zieht einer HD7970, und damit zB. einer R9 280X oder GTX960 davon) und dürfte wohl lustigerweise die gesamte PS4-Gen reichen![]()
-Und das obwohl die Karte anderthalb Jahre VOR der PS4 rauskam
Jep, weil Sony rumgeknausert hat, und Cerny seinen Jüngern keine 1080p@60FPS gönnen will![]()
980 = 224 GB/s.Die GDDR Bandbreite der PS4 ist geringer wie jene von besseren Grafikkarten.
PS4:176
GTX 980:336
[...] wohingegen auf der PS4 5,5GB zur Verfügung stehen.
Zweitrangig klingt etwas zu relativiert.In welchem Bezug besser? Bandbreite ist Bandbreite, was für ein Chip dahinter steht ist zweitrangig.
"Effektiv" 5500 Mhz bei 256-Bit bei der PS4 und 2133 Mhz bei der Xbox One.was eigentlich der speicher takt der konsolen?
Die 680 befindet sich auf dem gleichem Level wie eine 7970.Mehr als 30 FPS hat er sicher, die 680 ist auch heute noch recht stark(zieht einer HD7970, und damit zB. einer R9 280X oder GTX960 davon) und dürfte wohl lustigerweise die gesamte PS4-Gen reichen![]()
Das ganze wird sich auch bei TVs durchsetzen. Für Konsolen mit ihren tiefen FPS wäre es ja eigentlich noch interessanter.
Ich werde mir dieses Jahr garantiert einen 21:9 Gsync Monitor kaufen.
Sieht eher düster aus.Das ganze wird sich auch bei TVs durchsetzen. Für Konsolen mit ihren tiefen FPS wäre es ja eigentlich noch interessanter.
Ja und beim PC ist es anders?und weisste warum? weil TVs normalerweise stabile frameraten zugespielt bekommen, entweder übers tv signal, über blu-ray/dvd oder bei spielen über den 30fps lock
es gibt einfach keine Notwendigkeit TVs mit dieser Technik auszustatten
Sieht eher düster aus.
HDMI ist der Platzhirsch und selbst die neusten Versionen davon, haben meines Wissens nach kein adaptive refresh in der Spec.
Also ich denke, da kann man noch eine Gen warten.![]()
Ja und beim PC ist es anders?
Da "genießt" man ebenso seinen "stabilen" Input von 24 Hz judder Movie und Game Vsync.
Konsolenspieler würden davon genau so und zwar extrem profitieren.
Da gibt es gar keinen Unterschied zum PC-Monitor.
Der TV erneuert die Bilder mit einer bestimmten Refreshtime.
Konsolen-Spiele synchronisieren aufgrund der Verbreitung ihren Zyklus auf 30 oder 60 Bilder pro Sekunde.
Die meisten Spiele setzen auf Vsync, aber falls das Spiel nicht 100% Bombe läuft und das tun nun einmal einige Spiele nicht, dann haut es dich gleich auf 15 oder 30 FPS runter und es juddert.
Oder es teared, wenn Vsync off unter der Schwelle eingestellt wird.
Adaptive Sync würde vielen 60 FPS Konsolenspielen helfen, die ihre Framerate nicht 100% der Zeit einhalten können.
Dann liegt die Ausgabe nicht bei 45-55 FPS im Schnitt, weil es zwischen 60 und 30 FPS manchmal herum springt, sondern eher bei 55-< 60 FPS, weil es effektiv von 60 auf 50 runter zeigen kann und nicht gleich auf 30.
Und es teared auch niemals.
Und falls der Markt mal das etwas hypen würde, würden sich die Panel-Hersteller auch mehr Gedanken über schnelle Schaltzeiten machen.
Dann könnte man theoretisch ziemlich weit nach unten dynamisch anzeigen.
AMD möchte unter 40Hz nicht variabel refreshen, weil sie meinen bei einigen Displays sieht man dann Artefakte, weil das Panel nicht schnell genug schaltet.
Ja den 30 FPS Lock gibt es aus gutem Grund, ansonsten gibt es zu viel Judder oder Tearing zu genießen.
Einen zusätzlichen Scaler für 10 Dollar ist sicher kein Ding, beschäftigen sich die Leute mit so Zeug wie 500-1000 hz, Super Lightning, fern touch steuerung, Sprachbedienung, smart TV mit 500 Apps und Quad-Core Processor.
Aber ohne gemeinsame Initiative gibt es keinen Anreiz.
Wenn kein Gerät (Konsole) damit etwas anfangen kann und es sonst keine Anwendungsfälle gibt, wird es natürlich kein TV-Hersteller verbauen.
Ich stimme ja zu, dass es kein Thema sein wird.
Cool wäre es in einer alternativen Welt aber sehr.
Es könnte bei bis zu 30 Hz Paneln mit dynamischen 35-45 FPS gespielt werden, wo der Entwickler sich ansonsten lieber für ein 30 FPS Lock entschieden hätte.
Dynamische 35-45 FPS könnten je nach Spiel vielleicht angenehmer sein, als ein 30 Hz Lock.
Gsync/Freesync ist auch die Zukunft.
Gsync kann man bereits heute kaufen. Eim Kumpel spielt bereits mit seinem 30-144Hz Monitor. Da ruckelt gar nichts mehr, egal welche Framerate.
Für TVs nicht, aber PC Monitore, wo wir wieder bei PC vs. Konsole wären.
Man muss sich nur anschauen, wie hier herumgefahren wird um das Problem.
Es gibt nur 30 oder 60 FPS als Frame-Target, alles dazwischen stellt einen praktisch toten Bereich dar, den man nur mit Kompromissen versucht zu füllen.
Entweder gleich auf 30 FPS hinabfallen, dann gibt es erst einmal einen schönen judder.
Oder ein paar Frames immer buffern, dann zeigt man die alten Bildinhalt noch paar Frames an, was je nach Spiel Gott sei Dank kaum oder nie auffällt.
Aber alle Lösungen haben dann gemeinsam, dass der Input vom Controller darunter leidet, der dann irgendwann später dargestellt wird oder gar nicht sichtbar registriert.
Oder es teared dir halt dein Bild voll.
Kein Wunder wieso PCler das als Segen anpreisen, welche auf der anderen Seite noch einmal eine viel breitere Range haben können.