Der Pixelanzahl Thread!

  • Thread-Ersteller Thread-Ersteller Marmul
  • Erstellungsdatum Erstellungsdatum

Wie wichtig ist Dir die Bildqualität?


  • Stimmen insgesamt
    135
MGS GZ

XBOX One 720p schlechtere Framerate
PS4 1080p bessere Framerate

So langsam frag ich mich schon was mit dieser grossen Kiste nicht stimmt. Die XBOX One hatte bisher bei allen Multititeln das Nachsehen und sie sahen deutlich schlechter aus oder lieferten eine deutlich schlechtere Bildrate. Traurig aber wahr. So richtig freuen kann man sich da nicht mehr. Die XBOX One ist vom Ergebnis her nur knapp über der 360er... was ich schon recht heftig finde.

Xbox One und PS4 laufen beide mit 60fps.
 
PS4:

ps4t6d4q.jpg

http://abload.de/img/pic_night_ps_ps4jgfcl.jpg

XbOne:
xbonel9i8m.jpg

http://abload.de/img/pic_daytime_xbox_one8nfn9.jpg

Kojima hat zwar versucht, die bilder so wenig wie möglich vergleichbar zu wählen, aber man merkt schon krasse unterschiede. Ich habe die 720p der Bone Version auf 1080p upscaled um die gleiche Auflösung zu bekommen(und jeweils nen 800x800 Pixel ausschnitt entnommen), das Ergebnis erschreckt einen schon und in Bewegung dürfte das vor allem mit dem miesen Scaler der Bone deutlich schlimmer aussehen :angst2:
 
Laut den Benchmarks von Digital Foundry erreicht die XO-Version von Tomb Raider im Mittel 29,98 fps, respektive 29,84 fps (Cutscenes/Gameplay). Das ist ja sehr, sehr nah an den 30 fps. Wenn man dann dort nicht von einer "locked" Framerate sprechen kann, wäre "locked framerate" eine auf die Theorie beschränkte Begrifflichkeit.

Locked Framerate funktioniert eben nur dann, wenn die Framerate konstant über der angepeilten Framerate liegt.
Sagen wir mal Spiel X hat eine durchschnittliche Framerate von 37FPS, eine maximale Framerate von 46FPS und eine minimale Framerate von 32FPS, dann sagt man als Entwickler halt, dass man es auf 30FPS locked, damit es keine Unregelmäßigkeiten/Slowdowns gibt, da schwankungen zwischen 30 und 60FPS viel nerviger sein können, als zwischen 26 und 30FPS.

Einem Spiel, das eine minimale Framerate von 26FPS hat, kann man auch keine locked Framerate von über 26FPS verpassen.

@Topic,

mir ist die eigentliche Bildqualität viel wichtiger als die reine Auflösung, ein 1080p-Bild kann viel schlechter aussehen, als ein 720p-Bild mit ordentlichem AA und anderen Effekten, deshalb ist die Aussage, dass man sich kein 720p mehr antun kann ziemlich infantil.

Dazu kommt noch der Stil, mir sind z.B. ein Muramasa oder ein FFCC in 480p viel lieber, als z.B. ein Gears of War oder ein Titanfall in 1080p.
 
@Topic,

mir ist die eigentliche Bildqualität viel wichtiger als die reine Auflösung, ein 1080p-Bild kann viel schlechter aussehen, als ein 720p-Bild mit ordentlichem AA und anderen Effekten, deshalb ist die Aussage, dass man sich kein 720p mehr antun kann ziemlich infantil.

Dazu kommt noch der Stil, mir sind z.B. ein Muramasa oder ein FFCC in 480p viel lieber, als z.B. ein Gears of War oder ein Titanfall in 1080p.

Bildqualität ist Auflösung. Wie kannst du genau das Gegenteil behaupten?? Vorallem schadet eine hohe Auflösung nie der Bildqualität, sondern genau das Gegenteilige ist der Fall. Je höhe desto besser das AA, denn du kannst davon Downsampling machen. Aber bervor man soweit ist, sollte man wenigstens die native Auflösung bewerkstelligen und dann je nach dem ein kostengünstiges AA, wenn mehr Leistung vorhanden, dann Abwägen was das beste Ergebnis liefert. Ein AA auf Kosten nativer Auflösung wäre der größe Bullshit den man machen könnte, da man durch das hochskalieren Aliasing wieder bekommt und zudem das Bild viele kleine Details verliert und eigentlich viel mehr Flimmert durch das neu entstandene Aliasing und die Texturen leiden auch, da sie z.B auf einer kleineren Fläche ausgegeben werden und dann wieder skaliert. Also Bidlqualität geht nur über native Auflösung und nicht anders.
 
Bildqualität ist Auflösung. Wie kannst du genau das Gegenteil behaupten?? Vorallem schadet eine hohe Auflösung nie der Bildqualität, sondern genau das Gegenteilige ist der Fall. Je höhe desto besser das AA, denn du kannst davon Downsampling machen. Aber bervor man soweit ist, sollte man wenigstens die native Auflösung bewerkstelligen und dann je nach dem ein kostengünstiges AA, wenn mehr Leistung vorhanden, dann Abwägen was das beste Ergebnis liefert. Ein AA auf Kosten nativer Auflösung wäre der größe Bullshit den man machen könnte, da man durch das hochskalieren Aliasing wieder bekommt und zudem das Bild viele kleine Details verliert und eigentlich viel mehr Flimmert durch das neu entstandene Aliasing und die Texturen leiden auch, da sie z.B auf einer kleineren Fläche ausgegeben werden und dann wieder skaliert. Also Bidlqualität geht nur über native Auflösung und nicht anders.

Mal davon abgesehen, dass ich ja auch noch von anderen Effekten, als nur AA schrieb, willst du also behaupten, dass das gleiche Bild mit 2xAA in 1080p immer besser aussieht, als in 720p mit 16xAA?
 
Mal davon abgesehen, dass ich ja auch noch von anderen Effekten, als nur AA schrieb, willst du also behaupten, dass das gleiche Bild mit 2xAA in 1080p immer besser aussieht, als in 720p mit 16xAA?

Beziehe das auf die Gleichsetzung der Leistung. Also 720p und 16xAA im Vergleich zu 1080p und 8xAA, ja 1080@8xAA wird immer besser aussehen als 720p mit 16xAA im Bezug auf die Bildqualität. Da sowas wie Texturen und allgemein die Bildinformation(da man 1152000 mehr Bildpunkte) als bei einer 720p Auflösung enthält und diese nun mal auf einem FullHD-Bildschirm fehlen und somit irgendwie durch den Scaler erzeugt werden müssen und zwar auf Kosten von Bildqualität und zudem mit Redundanz. Also eigentlich ganz klare Entscheidung^^
 
Mal davon abgesehen, dass ich ja auch noch von anderen Effekten, als nur AA schrieb, willst du also behaupten, dass das gleiche Bild mit 2xAA in 1080p immer besser aussieht, als in 720p mit 16xAA?

Ja. Das würde ich sogar stark behaupten! Bei 720p mit 16fach AA was auf Konsolen eh unrealistisch ist, bekommt man ein komplett verschwommenes Bild. Das dürfte recht beschissen aussehen. In erster Linie ist die native Auflösung bei sonst gleichem Bild wichtig. Wenn man 1280x720p Pixel zur Verfügung hat, und die werden noch durch den AntiAliasing Wolf gedreht, und dann noch auf 1080p skaliert, kommt ja nur noch Matsch bei raus.

Wie willst Du denn mehr Bilddetails bei 720p statt bei 1080p darstellen lassen? Es ist physikalisch einfach unmöglich.
 
Zuletzt bearbeitet:
Thief:
- PS4 1080p/30fps (locked)
- XOne 900p/30fps (locked)
http://www.areagames.de/games/thief...p-eidos-probleme-selbige-zu-erreichen-129164/

Edit: Weitere Gerüchte(!):
Watch_Dogs:
- PS4 1080p/30fps (locked)
- XOne 900p/30fps (locked)

The Witcher 3:
- PS4 900p/30fps (locked)
- XOne 720p/30fps (locked)
http://www.areagames.de/games/games...tcher-3-aufloesungen-ps4-xb1-geleaked-129165/

Mit den Unterschieden zur PS4 kann ich als One-User bisher gut leben.

Wenn man nur Last Gen Niveau möchte oder erwartet, kann man damit gut leben, keine Frage. Für mich wäre es allerdings nichts. 900p ist ein absoluter Notnagel den ich selber nicht möchte. Soviele Spiele in 720p ist eine Frechheit und für mich nicht diskutabel. WEG DAMIT!
 
Thief:
- PS4 1080p/30fps (locked)
- XOne 900p/30fps (locked)
http://www.areagames.de/games/thief...p-eidos-probleme-selbige-zu-erreichen-129164/

Edit: Weitere Gerüchte(!):
Watch_Dogs:
- PS4 1080p/30fps (locked)
- XOne 900p/30fps (locked)

The Witcher 3:
- PS4 900p/30fps (locked)
- XOne 720p/30fps (locked)
http://www.areagames.de/games/games...tcher-3-aufloesungen-ps4-xb1-geleaked-129165/

Mit den Unterschieden zur PS4 kann ich als One-User bisher gut leben.

War ja ne schlaue Entscheidung 100 Euro mehr hinzublättern für deutlich schlechte Multiports. :lol2:

Die Framerates der Spiele wird bestimmt auch noch schlechter sein. Glaubst ja wohl nicht das es nur bei der Auflösung bleibt.
 
Mich regt die XBOX One hier schon auf. Wieso war MS so dumm, wieder auf so einen Speicher zu setzen und zudem SO eine schwache GPU zu verwenden. Es ist einfach so schade. Die PS4 Games sehen in 1080p einfach zucker aus, die One Games zum davonlaufen. Das ist echt ein massives Manko.

Das ist einfach so schade. Die selbe GPU wie in der PS4 und 64MB eSRAM. Aber so... ists ein Trauerspiel und versaut echt alles.
 
Ja, war ne schlaue Entscheidung für die für mich interessanteren Exklusivtitel 100 € mehr zu investieren. Kann mit dieser Entscheidung auch perfekt leben bisher. Sachen gibts, was?
 
Ja, war ne schlaue Entscheidung für die für mich interessanteren Exklusivtitel 100 € mehr zu investieren. Kann mit dieser Entscheidung auch perfekt leben bisher. Sachen gibts, was?

Dann brauchst du die Multispiele ja gar nicht kaufen wenn du sie wegen den Exlusivtitel gekauft hast.
 
Mich regt die XBOX One hier schon auf. Wieso war MS so dumm, wieder auf so einen Speicher zu setzen und zudem SO eine schwache GPU zu verwenden. Es ist einfach so schade. Die PS4 Games sehen in 1080p einfach zucker aus, die One Games zum davonlaufen. Das ist echt ein massives Manko.

Das ist einfach so schade. Die selbe GPU wie in der PS4 und 64MB eSRAM. Aber so... ists ein Trauerspiel und versaut echt alles.

Nun, "zum Davonlaufen" sehen die Titel auf der Xbox One nicht aus.

Mir ist Grafik relativ unwichtig, meine Lieblingstitel der Xbox 360-Generation waren Indiegames wie Braid oder Trauma; ich liebe Mario - und der hüpft in HD genauso gut wie in nicht-HD. Ich spiele heute noch gerne alte Shooter, habe mein SNES an einem Röhrenfernseher. Ich bin alles andere als eine Grafikhure und sehr genügsam was die Optik angeht.

Aber, und jetzt kommts: Ich frage mich ernsthaft, was sich Microsoft beim Design der Maschine gedacht hat. Wie kann es sein, dass der Unterschied zwischen X360 und XOne so klein ausfällt, obwohl acht Jahre dazwischen liegen? Ich mag und behalte meine One, Titanfall ist vorbestellt und es kommen viele Sachen, auf die ich mich freue, aber was genau haben sich die Damen und Herren aus Redmon bitte gedacht?
 
Nun, "zum Davonlaufen" sehen die Titel auf der Xbox One nicht aus.

Mir ist Grafik relativ unwichtig, meine Lieblingstitel der Xbox 360-Generation waren Indiegames wie Braid oder Trauma; ich liebe Mario - und der hüpft in HD genauso gut wie in nicht-HD. Ich spiele heute noch gerne alte Shooter, habe mein SNES an einem Röhrenfernseher. Ich bin alles andere als eine Grafikhure und sehr genügsam was die Optik angeht.

Aber, und jetzt kommts: Ich frage mich ernsthaft, was sich Microsoft beim Design der Maschine gedacht hat. Wie kann es sein, dass der Unterschied zwischen X360 und XOne so klein ausfällt, obwohl acht Jahre dazwischen liegen? Ich mag und behalte meine One, Titanfall ist vorbestellt und es kommen viele Sachen, auf die ich mich freue, aber was genau haben sich die Damen und Herren aus Redmon bitte gedacht?

Naja, andererseits ist der Sprung von der alten Gen zur PS4 ebenfalls nicht so groß! Klar, die Auflösung von PS4 und XOne unterscheiden sich wohl standardmäßig... aber wenn das alles ist ...

Drum finde ich das auch lächerlich, wie die Sonys hier angeben... "zum davonlaufen" xD , wegen der geringfügigen Auflösungs + , der ein vorallem erst richtig auffällt, wenn man näher am HDTV dransitzt!
Aber wehe man erwähnt mal den PC und verweist auf die Optik-Vorteile, das schmeckt ihnen dann garnicht :ugly:
 
Naja, andererseits ist der Sprung von der alten Gen zur PS4 ebenfalls nicht so groß! Klar, die Auflösung von PS4 und XOne unterscheiden sich wohl standardmäßig... aber wenn das alles ist ...

Drum finde ich das auch lächerlich, wie die Sonys hier angeben... "zum davonlaufen" xD , wegen der geringfügigen Auflösungs + , der ein vorallem erst richtig auffällt, wenn man näher am HDTV dransitzt!
Aber wehe man erwähnt mal den PC und verweist auf die Optik-Vorteile, das schmeckt ihnen dann garnicht :ugly:

Ja, der PC ist immer das Totschlagargument. :D

Stimmt, der Unterschied zwischen PS3 und PS4 ist auch nicht groß, aber die PS4 packt wenigstens (fast) immer Full HD. Wie gesagt, ich zähle am TV keine Pixel, sondern zocke. Aber was MS da fabriziert hat, wundert mich schon.
 
Zurück
Top Bottom