Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Ist ja auch albern, da die Effekte nun mal vom Lucas eigenen Studio stammen welches ja fast für alle bekannten Filme zumindest den Großteil der CGIs abliefert. T2, Jurassic Park oder Avatar seien da nur stellvertretend zu nennen.

Wobei man sagen muss, dass ILM "nur" unterstützend tätig war - den Großteil hat Weta Digital gemacht (also bei Avatar).

@"Sehen" vom Unterschied:

Ich gehe davon aus, dass man den Unterschied zwischen Wii U und PS4/Xbox 3 sehen wird - wie deutlich, kommt dann auf die Leistungsfähigkeit der Wii U an (und natürlich auf die Endprodukte der Entwickler).
 
Zuletzt bearbeitet:
Doch, man wird.
Es gibt so viel, was man grafisch noch verbessern kann und das Gesamtbild macht den Unterschied.
Vor allem ist die Auflösung, die viele dabei immer in den Ring schmeißen, dabei am uninteressantem. Ein Spiel mit schwachen Effekten und niedrigem Polycount wird auch durch eine höhere Auflösung nicht besser.
Wii-Spiele sehen nicht so mies aus aufgrund der niedriegen Auflösung sondern weil der Rest eben nicht stimmt.
Ein Gears of War oder Uncharted sehen auf 360 bzw. PS3 auch in Pal Auflösung noch Bombe aus und kein Mensch käme auf die Idee dass das die Wii in dieser Auflösung auch packen würde.

Genauso sieht auch Avatar auf einer Pal-Röhre um Längen besser aus als Tron (Teil 1) in 1080p.
Höhere Auflösung führt dazu, dass ein gut aussehendes Prudukt noch besser aussehen kann aber aus enem schlechten wird dadurch kein gutaussehndes.
Also nur weil in der Next Gen alle Konsolen standardmäßig intern mit 1080p rendern werden sagt das nichts über deren einzelnen grafischen Qualitäten aus.

Und Star Wars - dessen letzter Teil immerhin auch schon wieder sechs Jahre alt ist - keine guten CGIs zu attestieren grenzt ja schon fast an Blasphemie :)

Ist ja auch albern, da die Effekte nun mal vom Lucas eigenen Studio stammen welches ja fast für alle bekannten Filme zumindest den Großteil der CGIs abliefert. T2, Jurassic Park oder Avatar seien da nur stellvertretend zu nennen.

Das Thema haben wir jetzt auch schon vielfach diskutiert, das Problem ist, man muss reale und gefühlte Grafikqualität unterscheiden. So nehmen wir einfach mal an die Wii U erreicht gerade mal die Qualität der PS3 und die PS4 erreicht die Qualität eines aktuellen Highend PC's. Dann kann man sich den Unterschied doch schon heute anschauen

[video=youtube;XGSZCtneW5E]http://www.youtube.com/watch?v=XGSZCtneW5E[/video]

Natürlich ist offensichtlich welches die PC und welche die PS3-Version ist. Aber ist der Unterschied gefühlt so groß wie zwischen PS3 vs. Wii

[video=youtube;5QcwcXZTFGE]http://www.youtube.com/watch?v=5QcwcXZTFGE[/video]

Imho ist der gefühlte Unterschied zw. PS3 und Wii deutlich größer und auf einem aktuellen Fernseher statt so einem crappy YT-Video noch viel mehr !
 
Zuletzt bearbeitet:
könnte man so hinnehmen, wennn der 360 Nahfolger 2009 erschienen wäre.
Das ändert aber trotzdem nichts daran, dass die Technologie momentan ziemlich stagniert. Ich habe das schon vor langer Zeit prophezeit, wollte auch damals niemand hören. Sehen wir uns mal die in jedem Jahr schnellste AMD Single-Chip GPU an und ihre Effizienz.

Radeon HD 6970(2011): 10,8 GFLOPs/Watt
Radeon HD 6970 (2010): 10,8 GFLOPs/Watt
Radeon HD 5870 (2009): 14,5 GFLOPs/Watt
Radeon HD 4870 (2008): 8 GFLOPs/Watt
Radeon HD 3870 (2007): 4,7 GFLOPs/Watt
Radeon X1950 XTX (2006): 2,8 GFLOPs/Watt
Radeon X1800 XT (2005): 1,1 GFLOPs/Watt

Deutlicher Trend zu sehen, oder nicht? Seit 2009 sehen wir praktisch keine merkliche Leistungssteigerung und sogar einen Rückschritt bei der Effizienz. 2010 hat man mehr Features in die Karten eingebaut und dafür Effizienz aufgegeben, das ist ein Schritt vorwärts und ein halber zurück. Southern Islands verspricht zwar wieder einen ordentlichen Leistungsschub aber so wie in der Vergangenheit wird's vermutlich nie wieder werden.

Zukünftig wird es extrem schwer wenigstens die gewohnten Leistungssprünge der Vergangenheit einzubehalten, die grafische Steigerung konstant zu halten wird noch viel schwerer. Bekanntermaßen wird der Aufwand für ein gleichbleibendes grafisches Delta immer größer. Die Qualität der Hardware hängt noch immer stark von der Reife des Fertigungsprozesses ab und diese ist momentan reichlich suspekt. Die aktuellen Projektionen der Forschung für die Zukunft sind zudem eher düster. Ich würde meine Ansprüche an Next-Gen Hardware deshalb erstmal auf Sparflamme halten. Viel mehr als etwa ~10-fache Leistung ist selbst unter optimistischen Bedingungen eher unwahrscheinlich und das haben wir auch schon heute am PC.
 
Zuletzt bearbeitet:
Es kommt nicht nur auf gflops an
6970_uni6dnx.jpg


Außerdem war die HD 6970 ja auch nur ne leicht verbesserte HD 5870.
Aber es spricht nichts dagegen das mit den 28NM GPU´s wieder ein größerer Sprung gemacht wird.
 
Das ändert aber trotzdem nichts daran, dass die Technologie momentan ziemlich stagniert. Ich habe das schon vor langer Zeit prophezeit, wollte auch damals niemand hören. Sehen wir uns mal die in jedem Jahr schnellste AMD Single-Chip GPU an und ihre Effizienz.

Radeon HD 6970(2011): 10,8 GFLOPs/Watt
Radeon HD 6970 (2010): 10,8 GFLOPs/Watt
Radeon HD 5870 (2009): 14,5 GFLOPs/Watt
Radeon HD 4870 (2008): 8 GFLOPs/Watt
Radeon HD 3870 (2007): 4,7 GFLOPs/Watt
Radeon X1950 XTX (2006): 2,8 GFLOPs/Watt
Radeon X1800 XT (2005): 1,1 GFLOPs/Watt

Deutlicher Trend zu sehen, oder nicht? Seit 2009 sehen wir praktisch keine merkliche Leistungssteigerung und sogar einen Rückschritt bei der Effizienz. 2010 hat man mehr Features in die Karten eingebaut und dafür Effizienz aufgegeben, das ist ein Schritt vorwärts und ein halber zurück. Southern Islands verspricht zwar wieder einen ordentlichen Leistungsschub aber so wie in der Vergangenheit wird's vermutlich nie wieder werden.

Zukünftig wird es extrem schwer wenigstens die gewohnten Leistungssprünge der Vergangenheit einzubehalten, die grafische Steigerung konstant zu halten wird noch viel schwerer. Bekanntermaßen wird der Aufwand für ein gleichbleibendes grafisches Delta immer größer. Die Qualität der Hardware hängt noch immer stark von der Reife des Fertigungsprozesses ab und diese ist momentan reichlich suspekt. Die aktuellen Projektionen der Forschung für die Zukunft sind zudem eher düster. Ich würde meine Ansprüche an Next-Gen Hardware deshalb erstmal auf Sparflamme halten. Viel mehr als etwa ~10-fache Leistung ist selbst unter optimistischen Bedingungen eher unwahrscheinlich und das haben wir auch schon heute am PC.

Ich hatte hier im Thread schon mal irgendwo geschrieben, dass ich schon glücklich wäre, wenn die Next Gen Konsolen die Leistung heutiger High End PCs hätten, also erschreckst du mich nicht wirkich :)
Spiele auf Basis dieser Leistung wurden meiner Meinung weit beeindruckendere Resultete mit sich bringen, als Spiele auf Basis heutiger Konsolen hochgerechnet auf diese PC Leistung.
Natürlich klingt 10* stärker nicht viel aus den ersten Blick, gerade wenn man es mit dem 50*stärker ( Wert jetzt rein aus der Luft gegriffen ) von PS2 zur PS3 vergleicht, aber zu bedenken ist, dass allein ein Faktor bei 10*PS3 für 50*PS2 steht. Womit der Faktor vielleicht geringer wird, die Leistungsunterschiede trotz alledem große Sprünge nach vorn vollziehen.
Ich sehe dem ganzen also durchaus ganz optimistisch entgegen, auch weil ich aus einen neogaf Thread weiß wie Assets von Konsolenspielen auf High End PCs wirken können, und weil deine Werteteballe bis 2011 geht, und somit durchaus noch ein wenig Luft bis 2013 besteht :)

Edit:

Übrigens sehe ich in deiner Wertetabelle 2009 eine ca. 13 fach bessere GFLOP/ Watt Effizients
gegenüber 2005, dem Erscheinungsdatum der 360, und das halte ich durchaus schon für eine gute Hausnummer ;-)
 
Zuletzt bearbeitet:
Das Thema haben wir jetzt auch schon vielfach diskutiert, das Problem ist, man muss reale und gefühlte Grafikqualität unterscheiden. So nehmen wir einfach mal an die Wii U erreicht gerade mal die Qualität der PS3 und die PS4 erreicht die Qualität eines aktuellen Highend PC's. Dann kann man sich den Unterschied doch schon heute anschauen

[video=youtube;XGSZCtneW5E]http://www.youtube.com/watch?v=XGSZCtneW5E[/video]

Natürlich ist offensichtlich welches die PC und welche die PS3-Version ist. Aber ist der Unterschied gefühlt so groß wie zwischen PS3 vs. Wii

[video=youtube;5QcwcXZTFGE]http://www.youtube.com/watch?v=5QcwcXZTFGE[/video]

Imho ist der gefühlte Unterschied zw. PS3 und Wii deutlich größer und auf einem aktuellen Fernseher statt so einem crappy YT-Video noch viel mehr !

PS360 sind bis zu fünfzehnmal stärker als die Wii.
Zwischen Next Gen und Wii-U wird der Faktor aber wohl "nur" um den Faktor fünf liegen.
Logisch, dass der Unterschied nicht so krass sein wird wie zwischen derzeitigen HD- Kosolen und der Wii.
Bei COD darf man auch nicht vergessen dass die Wii Version nur mit 30fps läuft.
 
Zuletzt bearbeitet:
Der Unterschied zwischen WiiU und die restlichen beiden wird bestimmt nicht so groß wie der jetzige zwischen Wii und PS3!
Mann wird aber trotzdem Unterschiede sehen zu dieser Gen vorallem wenn endlich genug RAM eingebaut wird, da wird ne Menge möglich sein bei den Konsolen.
 
Der Unterschied zwischen WiiU und die restlichen beiden wird bestimmt nicht so groß wie der jetzige zwischen Wii und PS3!
Mann wird aber trotzdem Unterschiede sehen zu dieser Gen vorallem wenn endlich genug RAM eingebaut wird, da wird ne Menge möglich sein bei den Konsolen.

Denke ich auch das es so kommen wird, für käme sonst alles andere Überraschend:D
 
Der Unterschied zwischen WiiU und die restlichen beiden wird bestimmt nicht so groß wie der jetzige zwischen Wii und PS3!
Mann wird aber trotzdem Unterschiede sehen zu dieser Gen vorallem wenn endlich genug RAM eingebaut wird, da wird ne Menge möglich sein bei den Konsolen.

Schaut man sich mal RDR auf 360 und PS3 an. Und da liegt der Faktor der GPUs vielleicht bei 0,05-0,1 :kruemel:
 
Es kommt nicht nur auf gflops an
6970_uni6dnx.jpg


Außerdem war die HD 6970 ja auch nur ne leicht verbesserte HD 5870.
Aber es spricht nichts dagegen das mit den 28NM GPU´s wieder ein größerer Sprung gemacht wird.
Natürlich nicht, der Rest der GPU (TMUs, ROPs, Bandbreite) hat sich aber noch schlechter entwickelt als die GFLOPs. Selbstverständlich verschweigen die Daten, dass da immer ein wenig an der Effizienz getüftelt wurde, das trifft auf die älteren Karten aber auch eher zu als auf die akteullen. Bei den Größenordnungen macht es außerdem keinen großen Unterschied. Dass die HD6970 nur ein modifizierter Evergreen war ist außerdem der Punkt an der Sache.

Ohne neue Fertigung gibt's keine besseren Chips und dieses "jedes Jahr ein neuer Prozess" ist sowas von Geschichte, darauf wird man sich jetzt einstellen müssen. Unigine ist außerdem eine ziemliche Rosinenpickerei, das weißt du aber sicher. 35% Rechenleistung für das neue Frontend und Tesselation zu opfern würde nicht jeder Entwickler eingehen, ich würde also nicht unbedingt sagen, dass die HD6970 wirklich besser wäre.

squallsdestiny schrieb:
Ich sehe dem ganzen also durchaus ganz optimistisch entgegen, auch weil ich aus einen neogaf Thread weiß wie Assets von Konsolenspielen auf High End PCs wirken können, und weil deine Werteteballe bis 2011 geht, und somit durchaus noch ein wenig Luft bis 2013 besteht
Angeommen sie schaffen eine 70% Steigerung bis 2013 (28nm wird von IBM auf +50% geschätzt, plus eventuelle Effizienzverbesserungen oder niedrigerer Takt der µArch), dann sind wir hier bei 18,36 GFLOPs/Watt. Damit kommt man bei 150 Watt fast exakt auf die Leistung einer HD5870/6970 und das ist eben in etwa Faktor 10. Dein Post implizierte nämlich, dass der steigende Rechenaufwand für den gleichen Grafiksprung der letzten Gen dadurch aufgefangen wird, dass diese Gen so viel länger dauert als letzte Gen. Das muss man nun mal deutlich relativieren wenn man sich die Geschwindigkeit der Entwicklung der Hardware früher und heute ansieht. Ich denke wir verstehen uns in dem Punkt aber eh. ;-)
 
man sollte den pc nicht ganz als maßstab nehmen
es kann gut sein dass die heutigen pcs um 10 mal stärker sind als die derzeitige gen aber kein spiel nutzt das wirklich aus
würde ein battlefield 3 für die xbox 3 und ps 4 erscheinen dann würde die pc version noch besser aussehen als sie es jetzt schon ist
die konsolen treiben die pc grafik teilweise voran
es wird einen ordentlichen sprung geben
 
Zuletzt bearbeitet:
Doch, man wird.
Es gibt so viel, was man grafisch noch verbessern kann und das Gesamtbild macht den Unterschied.
Was du nicht sagst. Aber ich verrate dir einfach was: die Unterschiede aktueller HD-Grafik zur berüchtigten Samaritan-Demo sind in meinen Augen keine wahnsinnig großen grafischen Unterschiede. Bzw. sind die Unterschiede irrelevanterer Natur geworden. Und du brauchst mir jetzt keine tollen Details aufzählen oder Bilder hinzuklatschen, ich weiß, wie es aussieht. Nur war halt eines der letzten grafischen Aha-Erlebnisse Rogue Leader am Gamecube, und das ist etwa ein Jahrzehnt her. Mittlerweile beeindrucken derlei Grafiksprünge schlicht nicht mehr so sehr und man nimmt die Unterschiede nicht so krass wahr. Oder willst du etwa bestreiten, dass Samaritan und aktuelle HD-Games näher beieinander liegen als letztere und Spiele der PS2-Gen?

Und Star Wars - dessen letzter Teil immerhin auch schon wieder sechs Jahre alt ist - keine guten CGIs zu attestieren grenzt ja schon fast an Blasphemie :)
Ich habe ja nicht von "keine guten CGIs" gesprochen, sondern davon, dass sie nicht zu den besten gehören. Was sie auch nicht tun. Das Gesamtbild ist in Ordnung, wird aber durch zuviele Patzer stark runtergezogen.

Ist ja auch albern, da die Effekte nun mal vom Lucas eigenen Studio stammen welches ja fast für alle bekannten Filme zumindest den Großteil der CGIs abliefert. T2, Jurassic Park oder Avatar seien da nur stellvertretend zu nennen.
Die genannten Filme mögen schön und gut sein, allerdings sprachen wir ja von Star Wars. Und bei den letzten Filmen dort muss sich ILM beispielsweise Weta in vieler Hinsicht schlicht und ergreifend geschlagen geben. Gollum ist leider besser als Yoda geworden, das muss einem zwar nicht gefallen, aber man muss es zugeben. Nur weil das Studio von George gegründet wurde, heißt das nicht, dass es über Kritik erhaben sei. Ganz im Gegenteil, möchte ich sagen, wenn man ILM mit den Leistungen von Lucas in den letzten Jahren in eine direkte Verbindung bringen möchte...
 

We didn't even have running the game on the touch screen on our 'to do' list. but once we got it running, we just fooled around with getting it on the touch screen as a lark. It took all of five minutes and two lines of code, and boom! - there was the entire game running on the controller. Amazing.

Schon lustig, wenn man dann von anderer Seite hört, wie schwer bestimmte Sachen sind ... während andere sofort etwas hinkriegen.

Daher sind generell Entwickleraussagen mit Vorsicht zu genießen.

Es wird interessant sein, wie der Controller bei DS II genutzt wird - meine Kaufentscheidung hängt für mich nicht nur von der technischen Überlegenheit des Spiels ab, sondern auch die Nutzung der speziellen Eigenheiten der Wii U-Hardware.

DS I war für mich "nur" ein gutes Spiel - aber die Infos zu DS 2 machen mir Lust auf mehr ... da könnte was Großes entstehen.
 
Naja das Spiel auf dem Controller zu streamen, anzeigen sollte auch kein Problem sein!
Soviel Code ist da sicherlich nicht nötig, gibt er ja selbst zu. Mal gucken wie es aussieht wenn schwierigere Aufgaben bewältigt werden müssen :)
 
Wer hat denn behauptet, dass WiiU nicht stärker als PS360 wird. Werden hier anderen wieder Wörter in den Mund gelegt, um seinen eigenen Aussagen mehr Ausdruck zu verleihen?
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom