Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Wie kommst du auf 54GB/s ?
http://www.xbitlabs.com/images/news/2004-04/xbox2_scheme_bg.gif

So wie ich das interpretiere ist der Speicher mit 22,4GB an die NB angeschlossen. Dabei handelt es sich um die gesamte Bandbreite Lesen und Schreiben.
Die GPU kann dann aus dem Speicher und gleichzeitig aus dem Cache der CPU lesen. So dass hier maximal 33,2 GB möglich sind.
Schreiben kann sie nicht in den Cache, deshalb bleiben 22,4GB beim Schreiben in den Speicher der Maximalwert.
Die CPU wieder kann mit 10,8 GB lesen und gleichzeitig mit 10,8GB schreiben. Zum Beispiel kann sie aus dem Speicher mit 10,8 GB lesen und gleichzeitig mit 10,8 GB in die GPU schreiben. In dem Moment kann die GPU aber natürlich nur mit 11,6GB (22,4-10,8) sich aus dem Ram bedienen oder etwas hineinschreiben.
Wenn ich das so richtig verstehe.
Du verstehst das schon richtig. Ich rechne auch nur die Bandbreite von eDRAM (32GB/s) und Hauptspeicher (22,4GB/s) zusammen. Wenn du das eDRAM nicht hättest, bräuchtest du nämlich trotzdem 32GB/s mehr zum Hauptspeicher um die gleiche 3D-Performance zu bekommen. Sieh es so, eine PC-Grafikkarte bräuchte etwa 40GB/s (wenn du die 10GB/s für die CPU abziehst) um die gleiche Bandbreite für alle Grafik-relevanten Operationen zu haben. Es ist nun einmal so, dass Framebuffer-Operationen gut 2/3 der gesamten Bandbreite auffressen, ist ja auch am PC so. Bei der Xbox 360 ist das alles auf die 32GB/s zum Daughter-Die ausgelagert, was eine verdammt kluge Idee in einer Konsole ist.
 
Bei Nintendo Fans definiert sich Innovation schon lange nicht mehr über Software, da zählt nur Gimmick, Gimmick, Gimmick, mit der Einschränkung dass diese nur auf N Platformen zählen und nirgends anders.
eben...vergessen viele leider.
Ich halte Nintendo nicht für so innovativ wie manche hier tun. Da gab es auf den HD-Twins (und PC) innovativere Spiele...
 
Dies ist nun anders! Ports dürften locker möglich sein, vorallem wenn die Entwicklung mehr richtung GPU geht! Dann schraubt man halt die Grafik notfalls nen quäntchen runter...

Euer Problem (Nintendofans) ist, dass ihr die Wahrheit nicht akzeptiert.
PS4 und Xbox 8 werden nicht "nur ein Quäntchen" stärker sein, sondern sind eine völlig andere Generation.
Die Engines, die für die Nextgen gedacht sind, werden niemals auf der WiiU lauffähig sein.
Diese Träumerei, von möglichen Ports, könnt ihr mal so langsam vergessen.
Die Engines der Nextgenkonsolen werden nicht so skalierbar sein, wie man es vom PC kennt.
Ihr glaubt doch nicht allen ernstes, dass eine Engine, die für mindestens 4GB GDDR5 (PS4) Ram und 2.5 Tflop GPU Leistung gedacht ist, auf 1GB DDR3 und einer 400GFlop GPU lauffähig wäre? Das ist schier absurd.
 
Die WiiU fährt ne andere Schiene als die Wii! Das merkt man alleine schon an der tatsache, dass sie jetzt wieder auf Standardmässigen Controller bauen! Auf der Wii wollte kaum einer was porten! ganz einfach wegen arger technikdefizite (u.a. Auflösung, fehlende Shader usw) und weil die Entwickler nie davon ausgehen konnten, dass die Leute auch nen normalen Controller daheim haben!
Ich glaube das hing auch damit zusammen, dass kein Publisher die Konkurrenz durch 1st Party Entwickler mag. Nintendo ist ja extrem stark auf den eigenen Geräten. Davon abgesehen ist es auf keiner Plattform fairer Wettbewerb. 1st Parties bekommen die Hardware viel früher, sie können wesentlich höhere Budgets rechtfertigen bzw. mehr Risiko eingehen weil man das Geld nicht zwingend dadurch hereinholen muss (anders als bei einem reinen Software-Publisher), sie bekommen gratis Werbung weil das Spiel meistens gleichzeitig mit der Hardware beworben wird, müssen keine Lizenzgebühren zahlen und außerdem haben 1st Parties einen konstanten revenuestream um kurzzeitige Flops einzustecken.

1st Parties sind wichtig um Löcher im LineUp zu schließen sowie der Konsole ein Profil zu verpassen und die Hardware am Anfang zu pushen, wenn die Third-Parties noch nicht so richtig wollen. Bei Nintendo sind die internen Spiele ja schon fast die einzige Daseinsberechtigung für die Konsole. Als Publisher hätte ich auch keine Lust auf so einer Plattform meine Core-IP (Core im Bezug auf die Wichtigkeit für das Unternehmen) zu platzieren.

Junkman schrieb:
Und Nintendo hält taktisch ein paar Spiele zurück! Wären ja auch dumm, wenn sie ihr Pulver gleich verschiessen ...
Man könnte auch behaupten es ist taktisch dumm nicht gleich Vollgas zu geben, wenn man schon ein Jahr Vorsprung hat. Erst recht wenn die alte Konsole seit einem Jahr praktisch tot ist. Alles Interpretationssache. ;-)

Bayonetta 2 und SSB haben sie ja auch schon angekündigt obwohl sie NICHTS dazu zeigen könnten.
 
Zuletzt bearbeitet:
Du verstehst das schon richtig. Ich rechne auch nur die Bandbreite von eDRAM (32GB/s) und Hauptspeicher (22,4GB/s) zusammen. Wenn du das eDRAM nicht hättest, bräuchtest du nämlich trotzdem 32GB/s mehr zum Hauptspeicher um die gleiche 3D-Performance zu bekommen. Sieh es so, eine PC-Grafikkarte bräuchte etwa 40GB/s (wenn du die 10GB/s für die CPU abziehst) um die gleiche Bandbreite für alle Grafik-relevanten Operationen zu haben. Es ist nun einmal so, dass Framebuffer-Operationen gut 2/3 der gesamten Bandbreite auffressen, ist ja auch am PC so. Bei der Xbox 360 ist das alles auf die 32GB/s zum Daughter-Die ausgelagert, was eine verdammt kluge Idee in einer Konsole ist.

Ach so hast du das verstanden. Du kannst aber davon ausgehen, dass ich wohl weiß, wozu das eDRAM in der 360 Verwendung findet :)

Aber ich sprach ja bzgl. der Bandbreite gerade von gleicher Architektur wie bei der 360. Also das eDRAM natürlich mit einkalkuliert. In dem Fall müssten 200GB/sec locker reichen. Das habe ich gemeint.
Und wenn man das eDRAM so einsetzen würde wie bei der Wii-U, käme man eben mit weniger Bandbreite aus. Denn in der Wii-U wird das eDRAM ja nicht nur als Framebuffer verwendet sondern auch als schneller Zwischenspeicher für diverse Grafikdaten. Denn sonst wäre die Speicherbandbreite der Wii-U nicht ausreichend.
 
Dies ist nun anders! Ports dürften locker möglich sein, vorallem wenn die Entwicklung mehr richtung GPU geht! Dann schraubt man halt die Grafik notfalls nen quäntchen runter...

Wenn es so einfach wäre... aktuell schaut es danach aus, dass die Wii U nicht nur deutlich schwächer, sondern auch erheblich anders aufgebaut ist als die nächste Gen von Sony und MS... einfache Ports kann man also höchstwahrscheinlich knicken. Es ist also nicht anders, sondern immer noch erstaunlich ähnlich zur Wii-Situation.

Wie gesagt, da mache ich mir keine Sorgen!

Ich glaube, du siehst das viel zu blauäugig...
 
Die sind aber auch Low-Power. Es wurde von Anfang an erwartet, dass sich Chip-Stacking zuerst im Mobile-Segment durchsetzt weil die Kühlung hier keine so große Rolle spielt. Wie sich 8 Lagen DDR3-1600 mit 1024Bit-SI (was für eine Konsole in etwa ideal wäre) thermisch verhalten, keine Ahnung. Der Low-Power DDR3-1066 für Haswells GT3 wird aber in jedem Fall deutlich weniger ambitioniert ausfallen. Chip-Stacking in einer Konsole wäre jedem anderen Gerät zur Zeit um Längen voraus. Es geht eh weniger um die technische Realisierbarkeit und mehr darum, dass immer ein Hersteller alle anderen ausbremst. Die gesamte Supply-Chain muss dafür umgekrempelt werden und momentan geht's eben auch noch ohne HMCs.

Wenn man die Technologie im mobilen Bereich einsetzen kann, scheint eine SC ja durchaus vorhanden zu sein, bei der am Ende aber nur die technische Realisierbarkeit im Wege steht.

Dies ist nun anders! Ports dürften locker möglich sein, vorallem wenn die Entwicklung mehr richtung GPU geht! Dann schraubt man halt die Grafik notfalls nen quäntchen runter...

Wenn MS und Sony mit 4-5 mal so starken Platformen daher kommen, ist es mit einen Quäntchen nicht getan. Und als erstes blockiert bei WiiU sowieso die CPU, da kann mit Ports schneller Schluss sein, da ist die GPU das geringere Übel bei WiiU.

eben...vergessen viele leider.
Ich halte Nintendo nicht für so innovativ wie manche hier tun. Da gab es auf den HD-Twins (und PC) innovativere Spiele...

Ist auch so, braucht man auch gar nicht drüber reden.
 
Ich hab hier nur die 360 Version. Und da sehen die Videos, wenn man mal die Fokussierungseffekte außen vor lässt, genau so aus wie während des Spielens. Als letztes Argument wäre dann noch der Speicherplatz zu nennen. Die 360 Version ist 7,5GB groß. Da wäre überhaupt kein Platz für die ganzen 720p Videos.

Und bei der Wii U nicht. Da merkt man sofort, dass gerade ein Video abgespielt wird. Wie ich sagte: wirkt so, als ob man ein geringer aufgelöstet Video hochskaliert. Ein Youtube-Video.

Ich frage mich, wie du überhaupt argumentieren versuchst? Ich habe das Spiel und habe hier Fakten in meinen Händen. Ich sehe, dass das Videos sind. Du nicht, du rätselst rum und versuchst, die Sache noch für dich zu gewinnen.

Es bleibt nämlich dabei: Die Sequenzen sind Videos.:-)

Was dich irritiert ist die Fokusierung. Hier wird wie beim Film eben nur das Scharf abgebildet, was im Fokus liegt.
Deshalb ist dann die Umgebung unscharf wenn der Fokus auf der Person im Vordergrund liegt.
Sollte man eigentlich annehmen, dass das bekannt ist.

Jo, das, was du beschreibst, passiert übrigens, wenn man den rechten Analogstick drückt. (Zoom) Da ist das Objekt, was man anvisiert und im Vordergrund steht, scharf und der Rest unscharf. Du kannst es von mir aus auch DoF nennen.
Was man sieht, ist was anderes: Komprimierungsartefakte. :)

Und sorry, mir kannst du hier nichts vorspielen. Ich bin kein Laie und weiß, was ein Video und was realtime ist. Es gibt paar Szenen, die in realtime abgespielt werden, das sind aber eher die "langweiligen" Szenen, wo eigentlich nichts passiert, bis auf ein paar Bewegungen oder Dialoge.

Die Sequenz, wo z. B. Harvey Catwoman töten will oder die Sequenz, wo Batman vom Joker vergiftet wird (und auch die Szene, wo der Schatten zu sehen war in den Bildervergleichen), ist ein Video, nicht mehr, nicht weniger.
Offenbar sogar noch schlechtere Videos, als auf X360 und PS3. Wie ich sagte: Auf diesen Videos scheint das ganze Spiel schlechter auszusehen, sei es die Schatten, die Beleuchtung, die Charaktere. Ja, sogar AA ist aus. Im Spiel ist FXAA an.

Die Szene, wo Bruce seinen Bat-Suit bekommt, ist z. B. ingame, wenn ich das jetzt richtig in Erinnerung habe. Der Unterschied ist - wie jetzt zig mal gesagt - da auch ​deutlich.
 
Zuletzt bearbeitet:
Also ich bin mir ziemlich sicher, dass Konsolenbaby etwas mehr Ahnung in diesem Bereich hat, Kretshi. :rolleyes:
 
Also ich bin mir ziemlich sicher, dass Konsolenbaby etwas mehr Ahnung in diesem Bereich hat, Kretshi. :rolleyes:

Er hat das Spiel nicht, ich schon. Dass du Konsolenbaby eher glaubst, weil es Contra-Wii U ist, verwundert mich übrigens so oder so nicht.
Er könnte auch sagen, dass die Erde eine Scheibe sei (und nebenbei noch ein Wii U Bash) und du würdest ihn angöttern.
 
Er hat das Spiel nicht, ich schon. Dass du Konsolenbaby eher glaubst, weil es Contra-Wii U ist, verwundert mich übrigens so oder so nicht.
Er könnte auch sagen, dass die Erde eine Scheibe sei (und nebenbei noch ein Wii U Bash) und du würdest ihn angöttern.

Gibt's die besagte Sequenz nicht auf YouTube?
Da kann man das doch mal hier im Thread gemeinsam auswerten?
 
Und bei der Wii U nicht. Da merkt man sofort, dass gerade ein Video abgespielt wird. Wie ich sagte: wirkt so, als ob man ein geringer aufgelöstet Video hochskaliert. Ein Youtube-Video.

Ich frage mich, wie du überhaupt argumentieren versuchst? Ich habe das Spiel und habe hier Fakten in meinen Händen. Ich sehe, dass das Videos sind. Du nicht, du rätselst rum und versuchst, die Sache noch für dich zu gewinnen.

Es bleibt nämlich dabei: Die Sequenzen sind Videos.:-)



Jo, das, was du beschreibst, passiert übrigens, wenn man den rechten Analogstick drückt. (Zoom) Da ist das Objekt, was man anvisiert und im Vordergrund steht, scharf und der Rest unscharf. Du kannst es von mir aus auch DoF nennen.
Was man sieht, ist was anderes: Komprimierungsartefakte. :)

Und sorry, mir kannst du hier nichts vorspielen. Ich bin kein Laie und weiß, was ein Video und was realtime ist. Es gibt paar Szenen, die in realtime abgespielt werden, das sind aber eher die "langweiligen" Szenen, wo eigentlich nichts passiert, bis auf ein paar Bewegungen oder Dialoge.

Die Sequenz, wo z. B. Harvey Catwoman töten will oder die Sequenz, wo Batman vom Joker vergiftet wird (und auch die Szene, wo der Schatten zu sehen war in den Bildervergleichen), ist ein Video, nicht mehr, nicht weniger. Die Szene, wo Bruce seinen Bat-Suit bekommt, ist z. B. ingame, wenn ich das jetzt richtig in Erinnerung habe.

Offenbar sogar noch schlechtere Videos, als auf X360 und PS3. Wie ich sagte: Auf diesen Videos scheint das ganze Spiel schlechter auszusehen, sei es die Schatten, die Beleuchtung, die Charaktere. Ja, sogar AA ist aus. Im Spiel ist FXAA an.

Die Wii-U verfügt über ein Laufwerk mit Blu-Ray Kapazität. Trotzdem sollen die Zwischensequenzen, die bei PS360 in Echtzeit gerendert werden bei der Wii-U als Video vorliegen und dann auch noch in mieserabler Qualität, obwohl dafür überhaupt kein Grund vorliegt.

Mal ganz davon abgesehen, dass du mir keine meiner Fragen beantwortet hast gibt es da also zwei Möglichkeiten.

1. Es handelt sich nicht um Videos und die Wii-U ist einfach bei den Cutszenen überfordert, weshalb die Entwickler hier das Grafiksetup herunter gedreht haben.
2. Es handelt sich tatsächlich um Videos, die aber aus den von mir in meinem letzen Post genannten Gründen, mit der Wii-U in Echtzeit berechnet und als Video dann abgespeichert wurden.
Dass das in dem Fall so sein muss, habe ich ja erläutert

In beiden Fällen schafft es die Wii-U aber nicht, an die Qualität der PS360 Version heran zu reichen.
Bleibt sich also gleich.
 
Er hat das Spiel nicht, ich schon. Dass du Konsolenbaby eher glaubst, weil es Contra-Wii U ist, verwundert mich übrigens so oder so nicht.
Er könnte auch sagen, dass die Erde eine Scheibe sei (und nebenbei noch ein Wii U Bash) und du würdest ihn angöttern.

Ich kritisiere Nintendo nicht für das was sie sind, sondern für das was sie tun.
Ich wäre der erste hier, der sich eine WiiU mit Nextgenleistung gekauft hätte. Das sei dir gewiss.
Aber ich bekommen eben bei der Konkurrenz mehr für mein Geld und meie Vorlieben werden auch besser bedient. Und aus Nostalgie allein, kaufe ich mir kein Produkt. Egal in welchem Bereich im Leben.
 
Ist aber so, was weiß ich, was die genauen Gründe sind. :)

Fakt ist, und es bleibt jetzt wirklich dabei oder, du bringst mir eindeutige Beweise bzw. Fakten: viele Sequenzen sind vorgerendert. Das sind Videos, die abgespielt werden. Ich habe die Disk gerade in meiner Wii U und kann das so sagen. Ich erkenne den Unterschied, ob ein Video abgespielt wird oder es in realtime läuft.

Wie ich sagte: die Sequenzen haben ziemlich genau die selbe Qualität wie bei den Sequenzen bei Deus Ex 3 (Human Revolution). Und ja, da gab es auch zig Videos. Der Unterschied ist da nämlich auch groß, aber nicht so groß wie bei Batman. Dennoch sieht man, dass das nicht realtime ist.

Kann mich jemand, der Deus Ex gespielt hat, eventuell bestätigen? :)

Mir zu unterstellen, ich sähe schlicht den Unterschied zwischen vorgerendert und Echtzeit nicht, ist schon dreist. Was ist das denn für eine Argumentation? Ist ungefähr genauso, ich würde dir sagen, dass du zu blöd bist und deshalb rede ich nicht mehr mit dir. :ugly:

Noch ein Fakt: Die Kompression bei den Sequenzen ist einfach grauenhaft bei Batman Wii U. Schrecklicher gehts nicht.
 
Sogar die PC Version hat zu einem großen Teil Videosequenzen, die als Vid-Dateien abgespeichert sind und einfach nur abgespielt werden. Wieso sollte die WiiU Version plötzlich als einzige alles in Echtzeit berechnen?
 
Sogar die PC Version hat zu einem großen Teil Videosequenzen, die als Vid-Dateien abgespeichert und einfach nur abgespielt werden. Wieso sollte die WiiU Version plötzlich als einzige alles Echtzeit berechnen?

Die PC-Version hatte ich bei einem Freund angespielt und kam bis zum Joker (Vergiftung von Batman).
Die Kompression bei der Wii U Version aber definitiv extrem. Also ich kann mir nicht vorstellen, dass das bei den anderen Versionen auch so schlimm ist, das hätte definitiv zu Abwertungen geführt.

Ich frage mich nur: Wenn schon Video, wieso so schlecht? Schatten sehen noch schlechter aus als ingame, kein Anti-Aliasing (ingame: FXAA), nur um mal zwei Sachen zu erwähnen. :ugly:
 
Ist das so wie bei den Mass Effect Videos am PC? Die sind auch total schlecht aufgelöst.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom