PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Du kannst jedes Frame umterschiedlich lange anzeigen lassen. Bei einem 30fps Game wird bei einem 60Hz TV jedes Frame halt doppelt so lange dargestellt wie bei einem 60fps Game. Bei 20fps sind es 3x, bei 15fps 4x usw.

eben

Why not settle on something like 40 or 45fps? The problem here is that 60 screen refreshes per second cannot be equally divided by 40 or 45 frames. Some frames stay on-screen for longer than others, resulting in off-putting judder. Locking to 30fps ensures that each rendered frame persists for two screen refreshes and presents with no screen-tear whatsoever.


also bleibt dir nur die 30fps option wenn du was flüssiges willst, weil 15 und 20 zuwenig sind und alles von 31-59 zu rucklern führt

genau deshalb setzt man auf Konsole auch auf den 30fps lock, weil das besser ist als ne variable Framerate die irgendwo zwischen 30 bis 60 ist


Gsync/Freesync ist auch die Zukunft.


zukunftsmusik ist aber zukunftsmusik
 
Zuletzt bearbeitet:
Gsync kann man bereits heute kaufen. Eim Kumpel spielt bereits mit seinem 30-144Hz Monitor. Da ruckelt gar nichts mehr, egal welche Framerate.
 
Gsync kann man bereits heute kaufen. Eim Kumpel spielt bereits mit seinem 30-144Hz Monitor. Da ruckelt gar nichts mehr, egal welche Framerate.


ich bin sicher man kann auch Rote Beete Eis mit Schokososse irgendwo kaufen, aber wieviele machen das?

hier gehts drum das zu nehmen was bei den Leuten im Wohnzimmer für TVs rumstehen und die Spiele dafür optimal anzupassen
 
Das ganze wird sich auch bei TVs durchsetzen. Für Konsolen mit ihren tiefen FPS wäre es ja eigentlich noch interessanter.

Ich werde mir dieses Jahr garantiert einen 21:9 Gsync Monitor kaufen.
 
Mehr als 30 FPS hat er sicher, die 680 ist auch heute noch recht stark(zieht einer HD7970, und damit zB. einer R9 280X oder GTX960 davon) und dürfte wohl lustigerweise die gesamte PS4-Gen reichen :lol:

-Und das obwohl die Karte anderthalb Jahre VOR der PS4 rauskam :nix:

Jep, weil Sony rumgeknausert hat, und Cerny seinen Jüngern keine 1080p@60FPS gönnen will :banderas:

eine 680 zieht einer 280x davon das will ich mal sehen
 
Die GDDR Bandbreite der PS4 ist geringer wie jene von besseren Grafikkarten.

PS4:176
GTX 980:336
[...] wohingegen auf der PS4 5,5GB zur Verfügung stehen.
980 = 224 GB/s.
Die Titan X hat 336 GB/s.

Bei Infamous wurden mal 4,5 GB auf einer Folie angezeigt und an irgendeiner anderen Stelle mal 5 GB.
Ich spekuliere mal, dass beide Konsolen bei ungefähr 5GB rumliegen.

In welchem Bezug besser? Bandbreite ist Bandbreite, was für ein Chip dahinter steht ist zweitrangig.
Zweitrangig klingt etwas zu relativiert.
Es interessiert schon, wie eine GPU mit ihrem Speicher haushaltet und Nvidias Maxwell Gen 2 und AMDs GCN Gen 3 GPUs gehen mit der Bandbreite dank neuer/verbesserter Kompression 30-40% effektiver mit ihrer Bandbreite um, als die alte Generation.
Im Vergleich zur PS4 könnte man bei einer 980 vermutlich "effektiv" eher ~300 GB/s hinschreiben, als ~220.

was eigentlich der speicher takt der konsolen?
"Effektiv" 5500 Mhz bei 256-Bit bei der PS4 und 2133 Mhz bei der Xbox One.

Mehr als 30 FPS hat er sicher, die 680 ist auch heute noch recht stark(zieht einer HD7970, und damit zB. einer R9 280X oder GTX960 davon) und dürfte wohl lustigerweise die gesamte PS4-Gen reichen :lol:
Die 680 befindet sich auf dem gleichem Level wie eine 7970.
Da zieht im Schnitt niemand dem anderem davon, außer es ist ein worst-case Spiel oder der Speicher geht aus.
Ich denke übrigens mit 2 GB wird man nicht glücklich.
Da muss man auf einer 680 schon sparen, je nach Spiel.
(Watch Dogs, Mordor, GTA5, Wolfenstein).
Wird in Zukunft ja sicherlich nicht besser.
 
Das ganze wird sich auch bei TVs durchsetzen. Für Konsolen mit ihren tiefen FPS wäre es ja eigentlich noch interessanter.

Ich werde mir dieses Jahr garantiert einen 21:9 Gsync Monitor kaufen.


vielleicht kommts irgendwann, ja, aber aktuell ist das bei TVs überhaupt kein Thema, nicht mal auf Sicht von mehreren Jahren, das ist nen PC Monitor only Thema

und weisste warum? weil TVs normalerweise stabile frameraten zugespielt bekommen, entweder übers tv signal, über blu-ray/dvd oder bei spielen über den 30fps lock


es gibt einfach keine Notwendigkeit TVs mit dieser Technik auszustatten
 
Das ganze wird sich auch bei TVs durchsetzen. Für Konsolen mit ihren tiefen FPS wäre es ja eigentlich noch interessanter.
Sieht eher düster aus.
HDMI ist der Platzhirsch und selbst die neusten Versionen davon, haben meines Wissens nach kein adaptive refresh in der Spec.
Also ich denke, da kann man noch eine Gen warten. :neutral:

und weisste warum? weil TVs normalerweise stabile frameraten zugespielt bekommen, entweder übers tv signal, über blu-ray/dvd oder bei spielen über den 30fps lock

es gibt einfach keine Notwendigkeit TVs mit dieser Technik auszustatten
Ja und beim PC ist es anders?
Da "genießt" man ebenso seinen "stabilen" Input von 24 Hz judder Movie und Game Vsync.
Konsolenspieler würden davon genau so und zwar extrem profitieren.
 
Zuletzt bearbeitet:
Sieht eher düster aus.
HDMI ist der Platzhirsch und selbst die neusten Versionen davon, haben meines Wissens nach kein adaptive refresh in der Spec.
Also ich denke, da kann man noch eine Gen warten. :neutral:


mach 2, 3 oder 4 gens draus

ich bezweifle ehrlich das das überhaupt mal ein thema bei TVs wird


Ja und beim PC ist es anders?
Da "genießt" man ebenso seinen "stabilen" Input von 24 Hz judder Movie und Game Vsync.
Konsolenspieler würden davon genau so und zwar extrem profitieren.


wieso würden sie davon profitieren?

im regelfall reden wir von ner refreshrate bei TVs die auf 60hz/50hz (bei Pal) ausgelegt ist, afaik gibts auch 30hz und dann gibts noch extra den 24hz Modus für Blu-Ray


(über die 100-500hz Spielereien rede ich jetzt mal nicht)


wo sollen die anderen Frameraten herkommen?

TV Signal läuft mit 60 bzw 50
BD läuft mit 24 oder 50 oder 60 (Halbbilder)/DVD läuft mit 50 Halbbildern also 25 Vollbildern
Spiele laufen 30 locked in der Regel oder bei manchen 60


das ist nicht so wie am PC wo man einfach die GPU das an frames ausgeben lässt was drin ist und diese dann vom Monitor optimal verarbeitet werden müssen


den 30fps lock gibts eben nicht umsonst, auch wenn manche dann immer wieder hier gerne lachen und sagen "höhöhö ps4 schafft nur 30fps statt 45 meiner pc gpu..."
 
Zuletzt bearbeitet:
Da gibt es gar keinen Unterschied zum PC-Monitor.

Der TV erneuert die Bilder mit einer bestimmten Refreshtime.
Konsolen-Spiele synchronisieren aufgrund der Verbreitung ihren Zyklus auf 30 oder 60 Bilder pro Sekunde.
Die meisten Spiele setzen auf Vsync, aber falls das Spiel nicht 100% Bombe läuft und das tun nun einmal einige Spiele nicht, dann haut es dich gleich auf 15 oder 30 FPS runter und es juddert.
Oder es teared, wenn Vsync off unter der Schwelle eingestellt wird.
Genau wegen dem tearing oder judder wird ein 30 FPS Lock verwendet, weil die Framerate eher bei 30, als bei 60 FPS liegt.

Adaptive Sync würde vielen Konsolenspielen helfen, die ihre Framerate nicht 100% der Zeit einhalten können.
Dann liegt die Ausgabe nicht bei 35-55 FPS im Schnitt, weil es zwischen 60 und 30 FPS manchmal herum springt, sondern eher bei 40-< 60 FPS, weil es effektiv von 60 auf 50 (und darunter bis 40) runter zeigen kann und nicht gleich auf 30.
Und es teared auch niemals.

Und falls der Markt das etwas hypen würde, würden sich die Panel-Hersteller auch mehr Gedanken über schnelle Schaltzeiten machen.
Dann könnte man theoretisch ziemlich weit nach unten dynamisch refreshen.
AMD möchte unter 40Hz nicht variabel refreshen, weil sie meinen bei einigen Displays sieht man dann Artefakte, weil das Panel nicht schnell genug schaltet.
 
Zuletzt bearbeitet:
Da gibt es gar keinen Unterschied zum PC-Monitor.

Der TV erneuert die Bilder mit einer bestimmten Refreshtime.
Konsolen-Spiele synchronisieren aufgrund der Verbreitung ihren Zyklus auf 30 oder 60 Bilder pro Sekunde.
Die meisten Spiele setzen auf Vsync, aber falls das Spiel nicht 100% Bombe läuft und das tun nun einmal einige Spiele nicht, dann haut es dich gleich auf 15 oder 30 FPS runter und es juddert.
Oder es teared, wenn Vsync off unter der Schwelle eingestellt wird.

Adaptive Sync würde vielen 60 FPS Konsolenspielen helfen, die ihre Framerate nicht 100% der Zeit einhalten können.
Dann liegt die Ausgabe nicht bei 45-55 FPS im Schnitt, weil es zwischen 60 und 30 FPS manchmal herum springt, sondern eher bei 55-< 60 FPS, weil es effektiv von 60 auf 50 runter zeigen kann und nicht gleich auf 30.
Und es teared auch niemals.

Und falls der Markt mal das etwas hypen würde, würden sich die Panel-Hersteller auch mehr Gedanken über schnelle Schaltzeiten machen.
Dann könnte man theoretisch ziemlich weit nach unten dynamisch anzeigen.
AMD möchte unter 40Hz nicht variabel refreshen, weil sie meinen bei einigen Displays sieht man dann Artefakte, weil das Panel nicht schnell genug schaltet.


du sagst es ja selber, bei manchen 60fps konsolengames wäre im grunde der einzige wirklich angriffspunkt, wenn die die 60 nicht stabil packen

dafür baut aber kein TV Hersteller extra ne neue Technik ein, wenn 99% der übrigen zugeführten Daten keinerlei Probleme machen

wie gesagt, den 30fps lock gibts mit gutem grund (weil man sich eben auf den existierenden TV Standard hin optimiert) und beim PC gibts diesen lock eben sehr selten als Option weswegen solche neuen Monitore die mit variablen fps umgehen können auch viel mehr Sinn machen

ich bleibe dabei, bei TVs wird das lange lange kein Thema werden
 
Zuletzt bearbeitet:
Ja den 30 FPS Lock gibt es aus gutem Grund, ansonsten gibt es zu viel Judder oder Tearing zu genießen.
Einen zusätzlichen Scaler für 10 Dollar ist sicher kein Ding, beschäftigen sich die Leute mit so Zeug wie 500-1000 hz, Super Lightning, fern touch steuerung, Sprachbedienung, smart TV mit 500 Apps und Quad-Core Processor.
Aber ohne gemeinsame Initiative gibt es keinen Anreiz.
Wenn kein Gerät (Konsole) damit etwas anfangen kann und es sonst keine Anwendungsfälle gibt, wird es natürlich kein TV-Hersteller verbauen.

Ich stimme ja zu, dass es kein Thema sein wird.
Cool wäre es in einer alternativen Welt aber sehr.
Es könnte bei bis zu 30 Hz Paneln mit dynamischen 35-45 FPS gespielt werden, wo der Entwickler sich ansonsten lieber für ein 30 FPS Lock entschieden hätte.
Dynamische 35-45 FPS könnten je nach Spiel vielleicht angenehmer sein, als ein 30 Hz Lock.
 
Ja den 30 FPS Lock gibt es aus gutem Grund, ansonsten gibt es zu viel Judder oder Tearing zu genießen.
Einen zusätzlichen Scaler für 10 Dollar ist sicher kein Ding, beschäftigen sich die Leute mit so Zeug wie 500-1000 hz, Super Lightning, fern touch steuerung, Sprachbedienung, smart TV mit 500 Apps und Quad-Core Processor.
Aber ohne gemeinsame Initiative gibt es keinen Anreiz.
Wenn kein Gerät (Konsole) damit etwas anfangen kann und es sonst keine Anwendungsfälle gibt, wird es natürlich kein TV-Hersteller verbauen.

Ich stimme ja zu, dass es kein Thema sein wird.
Cool wäre es in einer alternativen Welt aber sehr.
Es könnte bei bis zu 30 Hz Paneln mit dynamischen 35-45 FPS gespielt werden, wo der Entwickler sich ansonsten lieber für ein 30 FPS Lock entschieden hätte.
Dynamische 35-45 FPS könnten je nach Spiel vielleicht angenehmer sein, als ein 30 Hz Lock.


widerspreche dir ja gar nicht, als Option wäre es sicher zu begrüßen, dagegen kann niemand was haben

Infamous lief wie gesagt mit rund 40 fps im schnitt, die uncharted 4 demo auch, aber beide wurden gelocked auf 30

dasselbe wird bei gta 5 und allen anderen spielen auch der fall sein und wenn ein TV das bieten würde, könnte man eben auch mit zb 42 oder 45 oder whatever frames ohne ruckler spielen




mir gehts halt nur darum, das hier vorher schon wieder von Dingen geredet wurde, die auf dem TV Markt und damit für Konsolen im Moment und auf absehbare Zukunft nicht die geringste Rolle spielen werden, man muss das eben mal realistisch sehen

und deswegen kann ich bei solchen aussagen wie diesen hier eben nicht zustimmen wenns um TVs geht

Gsync/Freesync ist auch die Zukunft.

Gsync kann man bereits heute kaufen. Eim Kumpel spielt bereits mit seinem 30-144Hz Monitor. Da ruckelt gar nichts mehr, egal welche Framerate.
 
Zuletzt bearbeitet:
Für TVs nicht, aber PC Monitore, wo wir wieder bei PC vs. Konsole wären.

Man muss sich nur anschauen, wie hier herumgefahren wird um das Problem.
Es gibt nur 30 oder 60 FPS als Frame-Target, alles dazwischen stellt einen praktisch toten Bereich dar, den man nur mit Kompromissen versucht zu füllen.
Entweder gleich auf 30 FPS hinabfallen, dann gibt es erst einmal einen schönen judder.
Oder ein paar Frames immer buffern, dann zeigt man die alten Bildinhalt noch paar Frames an, was je nach Spiel Gott sei Dank kaum oder nie auffällt.
Aber alle Lösungen haben dann gemeinsam, dass der Input vom Controller darunter leidet, der dann irgendwann später dargestellt wird oder gar nicht sichtbar registriert.
Oder es teared dir halt dein Bild voll.

Kein Wunder wieso PCler das als Segen anpreisen, welche auf der anderen Seite noch einmal eine viel breitere Range haben können.
 
Der inputlag bei Vsync finde ich gerade bei BF4 nerfig am PC, daher hab ich da nie Vsync an und zocke lieber mit ab und zu tearing , was bei BF4 zum glück selten vorkommt( Bei BF3 gibts sogar noch weniger tearing)
Bei pCARS das selbe hab ~90fps wenn ich alleine fahre und 60-80 mit vollem feld, und wenn ich Vsync rein knalle hab ich leicht spürbahren lag bei schnellen lenkungen.
Daher muß nach ner VR brille auch mal ein G-Sync monitor her.
 
Für TVs nicht, aber PC Monitore, wo wir wieder bei PC vs. Konsole wären.


wir müssen aber nun auch nicht so tun, als ob das am PC Markt Standard werden wird, der Markt für diese Monitore wird auch dort auf Jahre hinaus äußerste Nische bleiben


Man muss sich nur anschauen, wie hier herumgefahren wird um das Problem.
Es gibt nur 30 oder 60 FPS als Frame-Target, alles dazwischen stellt einen praktisch toten Bereich dar, den man nur mit Kompromissen versucht zu füllen.
Entweder gleich auf 30 FPS hinabfallen, dann gibt es erst einmal einen schönen judder.
Oder ein paar Frames immer buffern, dann zeigt man die alten Bildinhalt noch paar Frames an, was je nach Spiel Gott sei Dank kaum oder nie auffällt.
Aber alle Lösungen haben dann gemeinsam, dass der Input vom Controller darunter leidet, der dann irgendwann später dargestellt wird oder gar nicht sichtbar registriert.
Oder es teared dir halt dein Bild voll.


funktioniert aber seit Ewigkeiten und ist nichts wo man sehnsüchtigt ne Änderung erwartet

solange variable Bildraten nicht für Filminhalte wichtig werden und das werden sie ganz sicher nicht, wirds halt keinen Markt dafür bei normalen TVs geben und wenns keinen Markt dafür gibt, wirds auch die Konsolen nicht interessieren und wir werden auch weiterhin 30fps oder 60fps sehen, aber nichts dazwischen

wer damit nicht leben kann, muss halt an den PC gehen und sich die entsprechende Ausrüstung anschaffen


Kein Wunder wieso PCler das als Segen anpreisen, welche auf der anderen Seite noch einmal eine viel breitere Range haben können.


wie gesagt, bei PCler bzw ja vor allem PC Gamern, denn den Rest der PCler interessiert das Thema ja auch nicht, ist erheblich sinnvoller wegen des fehlenden 30fps lock der meisten Games, gibt halt meistens nur Vsync

würde es standardmäßig nen 30fps und 60fps lock geben, wäre das Verlangen auch geringer nach diesen G Sync Monitoren
 
Zuletzt bearbeitet:
Ganz ehrlich, Gefühlt ist die Notwendigkeit einer Hardware im Monitor IMO Schlagenöl :ugly:
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom