Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Nach deiner Logik hätten die grafisch besten Spiele dieser Gen alle in 480p laufen müssen :ugly:

Nicht ganz, aber 720p reicht völlig aus, wenn man es mit Effekten zuknallt und die Ressourcen rein in die Optik steckt. Wäre aber durchaus interessant ein PS3 Game von Naughty Dog zu sehen, das auf 480p ausgelegt ist und alles aus der PS3 rausholt. ^^

Avatar sieht auch auf ner Röhre besser aus als jedes Game bisher ;) (vom Stil abgesehen)
 
Die scaler im tv sind doch egal, das 640p wiiU bild wird durch den Seelen-filter der wiiu gejagt um dann in prächtig glänzender seeligkeit auf dem tv zu erstrahlen :win:
 
Die scaler im tv sind doch egal, das 640p wiiU bild wird durch den Seelen-filter der wiiu gejagt um dann in prächtig glänzender seeligkeit auf dem tv zu erstrahlen :win:

Müssen solche grenzdebilen Ausbrüche immer sein? Ich finde die Unterhaltung interessant :sorry: Da ist MTC mal weg, dann kommen die anderen Kasperln....
 
Müssen solche grenzdebilen Ausbrüche immer sein? Ich finde die Unterhaltung interessant :sorry: Da ist MTC mal weg, dann kommen die anderen Kasperln....

Sorry, wie soll man diese diskussion auch ernst nehmen :nix:
Wenn ich skyrim und co am pc in 60" auf meinem full hdtv spiele und das spiel mal runter auf 720p drehe bekomme ich nen ekelanfall.

Im prinzip ist gegen 720p nix einzuwenden, aber zu behaupten der unterschied wäre nur gering und die scaler im tv würden das ausgezeichnet regeln ist hirnrissig und wurde schon hundertmal ausdiskutiert.
 
Uhm hier wird ja einiges durcheinandergemischt und Sachen verglichen, die keinen Sinn machen.

1) Runterskalieren & hochskalieren macht keinen Sinn für einen echten Vergleich (egal was für ein Scaler verwendet wird) - Games rendern die Pixel erst mal auf die interne Auflösung & dann wird ggf. hochskaliert. Das heisst es kann passieren, dass beim Rendern eine dünne Linie komplett unsichtbar ist in 720p und beim Hochskalieren natürlich nicht mehr erscheint. Wenn man erst mal 1080p rendert (und die Linie sichtbar ist), wird diese durch das Runter- und Hochskalieren lediglich ein wenig geblurred, nicht komplett ignoriert.

2) Die obigen Borderlandsscreens sind (für den Vergleich von Details im Bild) ungünstig gewählt, am besten erkennt man den Unterschied bei feinen Strukturen (Maschendrahtzäune, Gras, Telefonleitungen etc.)

3) Gerade in Bewegung kann der Unterschied wesentlich stärker sichtbar werden - wenn nämlich feine Linien in einem Bild erscheinen und im nächsten wieder nicht. Das ergibt das berüchtigte Flickering, das mich viel mehr stört als die Unschärfe durch die niedrigere Auflösung. Je nach Spiel kann es Sinn machen, eine tiefere Auflösung zu wählen, dafür mehr AA einzusetzen, kommt eben darauf an, was man darstellen will.

4) Man darf niemals Game-Footage mit Filmmaterial vergleichen. Bei Filmmaterial ist der Unteschied viel geringer, da dort nicht Details durch zu tiefe Auflösung komplett ignoriert werden, und das Bild somit bei kleinerer Auflösung / Hochskalierung lediglich ein wenig Schärfe verliert (was natürlich auch ein Detailverlust ist, aber bei Games ist der Effekt viel heftiger)

5) FXAA ist besonders anfällig für das Problem der verschluckten Pixel - schliesslich kann es nur das glätten, was auch im Bild sichtbar ist.

6) Pixelzählen ist doof, trotzdem muss ich mal den Klugscheisser raushängen, sind ja schliesslich im Technik-Thread :P

Edit: 7) Alle Punkte sind eigentlich das gleiche Ding, nämlich es geht darum, dass bei geringerer Auflösung beim Rendern Pixel verschluckt werden, sprich Details verloren gehen (um mal auf den Ursprung der Diskussion zurückzukommen) ;)
Danke für deinen ausführlichen Post :goodwork:
 
Sorry, wie soll man diese diskussion auch ernst nehmen :nix:
Wenn ich skyrim und co am pc in 60" auf meinem full hdtv spiele und das spiel mal runter auf 720p drehe bekomme ich nen ekelanfall.

Im prinzip ist gegen 720p nix einzuwenden, aber zu behaupten der unterschied wäre nur gering und die scaler im tv würden das ausgezeichnet regeln ist hirnrissig und wurde schon hundertmal ausdiskutiert.

Und jetzt stelle dir vor, dein PC (oder ein noch stärkerer) würde all seine Kraft von Haus aus in das 720p Bild stecken und für Tesselation, Effekte etc. nutzen (völlig auf die Hardware programmiert) ;) So hirnrissig wie du vielleicht denkst ist mein Argument nicht. Kann mich auch täuschen, aber imo werden die grafisch besten PS4 Games nicht in 1080p entwickelt werden.
 
Und jetzt stelle dir vor, dein PC (oder ein noch stärkerer) würde all seine Kraft von Haus aus in das 720p Bild stecken und für Tesselation, Effekte etc. nutzen (völlig auf die Hardware programmiert) ;) So hirnrissig wie du vielleicht denkst ist mein Argument nicht. Kann mich auch täuschen, aber imo werden die grafisch besten PS4 Games nicht in 1080p entwickelt werden.

Selbst wenn ich antialising und af auf maximum schraube erkennt man den unterschied.
Durch aa wird zwar das bild weicher aber es gehen unmengen an details verloren von 1080 auf 720p
 
Selbst wenn ich antialising und af auf maximum schraube erkennt man den unterschied.
Durch aa wird zwar das bild weicher aber es gehen unmengen an details verloren von 1080 auf 720p

Er meint, dass die ersparte Leistung gegenüber einer höheren Auflösung auch für andere Dinge genutzt werden kann. Das ist ja ein Grund, weswegen Spiele auf PS360 vorzugsweise auf 720p setzen. Müssten sie in 1080p rendern, ist zu bezweifeln, dass die Spiele auf den Konsolen das bieten könnten, was sie bieten, Abseits der Auflösung.
 
@Harlock: Wie gesagt, kommt halt darauf an, was man auf dem Bildschirm darstellen will - wenn man viele feine Strukturen hat, kann es sich durchaus lohnen, die höhere Auflösung zu nehmen statt mehr Effekte. Dazu kommt, dass weniger Auflösung nicht unbedingt mehr Ressourcen freigibt - das häng davon ab, wo die Flaschenhälse stecken. Wenn z.B. die CPU die Framerate eingrenzt, hilft das Runterstellen der Auflösung nix. Auch innerhalb der GPU gibt es diverse Flaschenhälse, die Auflösung betrifft nur einen Teil von diesen..
 
Verstehe die Logik nicht so ganz :D Du hast ein 1080p-Bild Down... auf 720p und dann wieder UP... auf 1080p gemacht? und dann dem Vergleich gezogen?? Aber das geht doch nicht, denn du hast dann die Bildinfo von 1080p auf 720p gezeigt, sprich Downsampling mehr oder weniger :D Es geht aber eher in die Richtung, dass man mit weniger Informationen ein Bild von 720p auf 1080p aufzeigen möchte und nicht ein Bild welches viel mehr Bildinformationen besitzt als die Ausgabequelle, sprich von 1080p auf 720p
Das war auch nicht der Zweck dieser Bilder. Was der Vergleich zeigen sollte ist, dass 720p nicht deshalb scheiße aussieht, weil es zu wenige Pixel hat um alle Details zu zeigen (was hier aber behauptet wird und Unsinn ist), sondern wenn schon, dann weil die wenigen Pixel schlechte Pixel sind. Wir schon 10x gesagt, ein 1080p Panel ist bei üblichen Sichtdistanzen bereis ein Retina-Display. Ihr überschätzt eure Augen alle gerade gewaltig. Dass es in der Praxis leichter ist zu guten Resultaten mit 1080p zu kommen liegt ja jetzt auch nur an der Nichtverfügbarkeit nativer 720p-Displays. Was ich aber definitiv sagen kann ist, dass 720p immer die bessere Wahl wäre wenn Displays und Scaler nicht limitieren würden. :-P
 
Ist am Ende die Frage, was mehr bringt. Höhere Auflösung oder bessere Effekte bei stabiler Framerate? Die Leistung der Konsolen wird da ein limitierender Faktor sein, der den Entwickler zu einer Entscheidung zwingt. Will ich jede Pore in grau sehen oder einfach ne bombastische Optik die begeistert? Ich denke die Entwickler werden werden bei aufwändigen Projekten auch auf PS4/X3 auf 720p setzen. Und nein, das ist kein Fanboygeblubber, da es schlechter für die WiiU sein wird bei Ports, als wenn sie 1080p verwenden^^

Wie soll etwas bombastisch aussehen wenn es matschig/unscharf und verstärktes Aliasing besitzt?? Wie ich schon schrieb, ist mir dann lieber, wenn es weniger Effekte dafür aber sauberes Bild gibt. Zumal das Dumme ist, dass durch das Skalieren man Aliasing erhält, welches man vorher durch AA's weggetan hat. Dann kann man direkt lieber 1080p ohne AA machen und man hat wenigstens ein sauberes Bild. Vorallem stellst du es hier mit der Aussage so dar " Will ich jede Pore in grau sehen oder einfach ne bombastische Optik die begeistert als ob matschiges mit Alaising behaftetes Bild mit vielen Effekten toll wäre im Vergleich zum sauberen Bild. Ich verstehe unter bombastisches Bild was anderes^^
 
Du lässt dich vom Grafikunterschied der Lastgen (SD) und Currentgen (HD) blenden. Du müsstest mir schon 3x den gleichen TV mit 3x unterschiedlichen nativen Auflösungen aufstellen. Nehmen wir nen 46" bei 2m an, dann ist der Unterschied von 720p zu 1080p gewiss grösser als jener von 460/540p zu 720p.

Ridge Racer 7:

Nativ 1080p
Skaliert 720p
Skaliert 540p

JvPpL.jpg

8K6o1.jpg

yQyJ4.jpg

Und hier nochmal vergrößerte Ausschnitte:
zXogM.jpg

u5Em6.jpg

PUX0X.jpg

Und das bei 125% zu 77%.;-)
 
Das war auch nicht der Zweck dieser Bilder. Was der Vergleich zeigen sollte ist, dass 720p nicht deshalb scheiße aussieht, weil es zu wenige Pixel hat um alle Details zu zeigen (was hier aber behauptet wird und Unsinn ist), sondern wenn schon, dann weil die wenigen Pixel schlechte Pixel sind. Wir schon 10x gesagt, ein 1080p Panel ist bei üblichen Sichtdistanzen bereis ein Retina-Display. Ihr überschätzt eure Augen alle gerade gewaltig. Dass es in der Praxis leichter ist zu guten Resultaten mit 1080p zu kommen liegt ja jetzt auch nur an der Nichtverfügbarkeit nativer 720p-Displays. Was ich aber definitiv sagen kann ist, dass 720p immer die bessere Wahl wäre wenn Displays und Scaler nicht limitieren würden. :-P
Nun, wie gesagt, bei Filmen gelten Deine Aussagen, bei Games sieht es anders aus - AA macht die Pixel zwar etwas weniger "schlecht", trotzdem ist der Effekt viel grösser als bei Filmmaterial.

Exakt das gleiche gilt im übrigen auch für die Framerate - für einen Kinofilm kann es durchaus reichen, 25fps zu haben. Bei Games ist das natürliche Motionblur durch die Kamerabelichtung aber nicht gegeben.

Darum darf man auch nicht einfach so mit physiologischen Limiten argumentieren (das Auge sieht nicht mehr Auflösung als Retina, kann nicht mehr als 25 Bilder / sec wahrnehmen etc.) - bei Computergrafik stimmt das schlichtwegs nicht.
 
Er meint, dass die ersparte Leistung gegenüber einer höheren Auflösung auch für andere Dinge genutzt werden kann. Das ist ja ein Grund, weswegen Spiele auf PS360 vorzugsweise auf 720p setzen. Müssten sie in 1080p rendern, ist zu bezweifeln, dass die Spiele auf den Konsolen das bieten könnten, was sie bieten, Abseits der Auflösung.


Ähm,,, ja...aber was ist jetzt daran neu? :ugly:

Auf wiiu und auch ps4 und co wirds weiterhin 720p games geben. Ist ja auch okay solange es sich dabei um grafisch ansprungsvolle games mit vielen details handelt und nicht um 2,5d jump and runs ;-)
 
Das war auch nicht der Zweck dieser Bilder. Was der Vergleich zeigen sollte ist, dass 720p nicht deshalb scheiße aussieht, weil es zu wenige Pixel hat um alle Details zu zeigen (was hier aber behauptet wird und Unsinn ist), sondern wenn schon, dann weil die wenigen Pixel schlechte Pixel sind. Wir schon 10x gesagt, ein 1080p Panel ist bei üblichen Sichtdistanzen bereis ein Retina-Display. Ihr überschätzt eure Augen alle gerade gewaltig. Dass es in der Praxis leichter ist zu guten Resultaten mit 1080p zu kommen liegt ja jetzt auch nur an der Nichtverfügbarkeit nativer 720p-Displays. Was ich aber definitiv sagen kann ist, dass 720p immer die bessere Wahl wäre wenn Displays und Scaler nicht limitieren würden. :-P

Aber da die TV's als Standardauflösung nun mal 1080p haben und man bei skalieren von 720p auf 1080p auf einem FullHD-TV viel an Bildqualität verliert, ist deine Aussage irrelevant . Denn die Frage stellst sich nicht^^ Und man sollte auch erwähnen(hab das so in Erinnerung, hoffe es stimmt :D ), dass je höher die Auflösung des TV's bzw. nativen Bildes, desto weniger Aliasing hat man^^
 
Zuletzt bearbeitet:
Nun, wie gesagt, bei Filmen gelten Deine Aussagen, bei Games sieht es anders aus - AA macht die Pixel zwar etwas weniger "schlecht", trotzdem ist der Effekt viel grösser als bei Filmmaterial.

Exakt das gleiche gilt im übrigen auch für die Framerate - für einen Kinofilm kann es durchaus reichen, 25fps zu haben. Bei Games ist das natürliche Motionblur durch die Kamerabelichtung aber nicht gegeben.

Darum darf man auch nicht einfach so mit physiologischen Limiten argumentieren (das Auge sieht nicht mehr Auflösung als Retina, kann nicht mehr als 25 Bilder / sec wahrnehmen etc.) - bei Computergrafik stimmt das schlichtwegs nicht.
Du hast meinen Post falsch verstanden, der Unterschied ist mir durchaus bewusst. Bei Filmen macht das Supersampling die Kamera, bei Videospielen muss man es selbst machen. Ich sage lediglich, dass 720p bei der Ausgabe des Bildes noch lange ausreicht bevor wir uns zwingend neue Auflösungen suchen müssen weil unsere Grafikkarten sonst Däumchen drehen oder kein Unterschied mehr sichtbar wird. Das interne Sampling ist ein vollkommen anderes Problem und jeder vernünftige Programmier gibt lieber in 720p aus und entscheidet selektiv welche Elemente des Bildes höhere Abtastfrequenzen benötigen, bevor er das ganze Bild in 1080p rendert, obwohl die meisten Texturen auch in 720p in identischer Qualität ausgegeben werden können. Das wäre eine erhebliche Verschwendung der Ressourcen. ;-)
 
Zuletzt bearbeitet:
OK, scheint tatsächlich ein Missverständnis gewesen zu sein. Für die Ausgabe des Bildes reicht 720p tatsächlich häufig aus (mal agbesehen vom Desktop Bereich, wo eine 720p Ausgabe für die Distanz & die dargestellten Elemente definitiv nicht für ein sauberes Bild reicht).

Allerdings gehen Programmierer nach meinen Erfahrungen genau andersrum vor - das finale Bild wird auf die höchstmögliche Auflösung gerendert, und für gewisse Effekte (typischerweise transparente Effekte wie Rauch etc.) wird intern mit tieferer Auflösung gerechnet. Gerade für feine Strukturen macht es meiner Meinung nach wenig Sinn, diese mit hoher Abtastfrequenz zu samplen, das dann in ein Bild mit tieferer Auflösung (720p) reinzurendern und am Schluss doch wieder auf 1080p (auf Seite GPU oder TV) hochzuskalieren.

Vernünftig ist, direkt auf die native Auflösung des Ausgabegeräts zu rendern, und gewisse Teile des Bildes intern mit tieferer Auflösung zu behandeln. Und da sind wir uns wohl einig, dass in ein paar Jahren 1080p bei den allermeisten Geräten die native Auflösung sein wird :)
 
Zuletzt bearbeitet:
Verstehe deine Argumentation nicht so ganz?? Bei einem 1080p Frame werden alle Objekte die sichtbar sind von der der 3D Welt in die 1080p-2D-Welt übernommen/gerendert und je nachdem werden halt die Objekte vorher geglättet und watt weiß ich noch was(hängt immer vom Verfahren ab) usw. usf.. Wie willst du das in 720p machen?? wenn die Objekte vielleicht garnicht in 720p vorhanden sind??? Sprich, du nimmst nur einen 720p-Ausschnitt aus der 3D-Welt und bei 1080p halt einen 1080p, welcher wohl mehr 3D-Welt-Details darstellt. Also verstehe deine Logik nicht so ganz^^ Zumal du auch mit Texturen ankommst, die kaum bzw. eigentlich garnicht an Performance kratzen und es eher mit Speicher und Bandbreite zu tun hat.
 
Zuletzt bearbeitet:
The actual console is significantly longer than I had anticipated, hinting at the level of power under the hood. Most people in attendance were surprised by this, having probably imagined the device to be about the same size as the original Wii console. Nintendo representatives on the day informed me that it was “19 times more powerful than PS3”.

Quelle: http://totalrevue.com/nintendo-wiiu-preview/

:v:
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom