Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
du warst es doch gestern der mir nicht glaubte das die wii-u cpu NICHT gleichwertig wie xenon ist
War ich? Wo denn? Ich habe lediglich ein altes Gerücht wiedergegeben und den hier kolportierten Auffassungen widersprochen, dass die Wii-U-CPU sei wegen der niedrigen Taktrate deutlich schlechter als Xenon. Also nichts, wo mir Konsolenbaby in seinem Post widerspricht. Aber ganz ehrlich: Jetzt, wo ich die Wii U habe und insbesondere das Gamepad absolut genial finde, könnte mir die Wii-U-CPU nicht mehr egaler sein. ;)
 
Die CPU-Vergleiche auf eine Aussage zu reduzieren ist doch eher Banane. Wird Sachen geben, wo die WiiU besser als Xenon performt, wahrscheinlich besonders im Integer-Bereich. Bei umfangreichen Vektorrechnungen wird das Teil aber wohl ohne breite SIMD-Schaltungen kein Land sehen, wo soll da die floating point Performance herkommen? Was Optimierungen betrifft, die Grundarchitektur ist > 10 Jahre alt, da sollten die Compiler mittlerweile genügend gut sein und es auch entwicklerseitig genug Erfahrungen geben, wie man mit dem Teil umgehen muss. Dazu kommt, dass der Source der multi-Projekte schon manuell soweit optimiert ist, dass er auf den inorder PPUs mit wenig Cache ordentlich performt.


Wo läuft eigentlich das WiiU-OS ingame, auf einem der 3 Hardwarethreads?


Enttäuschend finde ist übrigens, dass Square Enix sich für vorgebackenes GI entschieden hat um Rechenleistung zu sparen. Das wird ihnen nicht gerade dabei helfen ihre Spiele zukünftig schneller zu entwickeln, insbesondere bei einem großen RPG.
Das ist allerdings wirklich etwas enttäuschend. Der Trend geht ja eher dahin, Rechenleistung beim User dafür einzusetzen kürzere turn around Zeiten bei der Entwicklung zu haben. Mal ganz davon abgesehen, dass damit dynamische Änderungen in den Levels usw. nicht gerade einfach werden.

Die E3 wäre irgendwie zu spät wenn sie noch im gleichen Jahr launchen wollen, das wäre eine noch kürzere Zeitspanne als bei der Xbox 360, die wurde bereits im Mai gezeigt. Die E3 2013 ist erst im Juni. Ich rechne schon damit, dass sie vorher etwas zeigen werden. Konsolen sind ja inzwischen komplex genug um eine ganze Stunde damit füllen zu könnte nur über die Online-Features und das UI zu sprechen. Das muss man ja fast auf mehrere Events aufteilen. Ist in etwa wie bei einem MMO, wo es so viele Features gibt, dass man das Spiel zwingend zwei Jahre vorher ankündigen muss um das Marketing zu organisieren.
MS hat ihre letzten größeren Dinge (Surface, WP 8) doch eigentlich immer auf eigenen Events angekündigt. Ich denke bei der nächsten XBox wird es auch so laufen. Gibt einfach mehr Aufmerksamkeit.
 
War ich? Wo denn? Ich habe lediglich ein altes Gerücht wiedergegeben und den hier kolportierten Auffassungen widersprochen, dass die Wii-U-CPU sei wegen der niedrigen Taktrate deutlich schlechter als Xenon. Also nichts, wo mir Konsolenbaby in seinem Post widerspricht. Aber ganz ehrlich: Jetzt, wo ich die Wii U habe und insbesondere das Gamepad absolut genial finde, könnte mir die Wii-U-CPU nicht mehr egaler sein. ;)


ich habe auch nicht gesagt das er NUR wegen der taktrate schwächer ist...:lol:

naja, das teil macht spaß, vor allem nintendoland, aber so ganz egal ist mir die technik auch nicht, ich will ja auch in ein paar jahren noch neue spiele die spaß machen...
die erfahrungen mit der wii liegen mir einfach nochn bissel zu schwer im magen...
 
Ich plädiere ja noch immer dafür, dass Sony Miracast standardmäßig in die PS4 einbauen sollte und ein optionales PS4 Gamepad mit 6" 720p Display anbietet. Das ist nämlich wirklich das genialste Feature der WiiU. Ist einfach eine andere, wesentlich intimere Art Spiele zu spielen. Passt bei manchen Titel einfach besser als am großen 55" TV zu zocken. Bei manchen Musikstücken sind mir Kopfhörer auch lieber als große Standboxen, ist in etwa das gleiche Phänomen aber das ist bloß meine Meinung. ;-)
 
Ich plädiere ja noch immer dafür, dass Sony Miracast standardmäßig in die PS4 einbauen sollte und ein optionales PS4 Gamepad mit 6" 720p Display anbietet. Das ist nämlich wirklich das genialste Feature der WiiU. Ist einfach eine andere, wesentlich intimere Art Spiele zu spielen. Passt bei manchen Titel einfach besser als am großen 55" TV zu zocken. Bei manchen Musikstücken sind mir Kopfhörer auch lieber als große Standboxen, ist in etwa das gleiche Phänomen aber das ist bloß meine Meinung. ;-)

Noch hat Sony Zeit, die "fantastic innovation" (also Bildschirm im Controller) umzusetzen, ein Jahr ist schon viel für ihre Verhältnisse :v: Aber darüber hinaus bin ich echt auf die Innovationen von MS und Sony gespannt. Beide werden was bringen müssen, um interessant zu bleiben. Mit "mehr vom bisherigen" erreicht man nicht mehr so viele Leute, wie einst üblich, glaube ich.
 
Ich plädiere ja noch immer dafür, dass Sony Miracast standardmäßig in die PS4 einbauen sollte und ein optionales PS4 Gamepad mit 6" 720p Display anbietet. Das ist nämlich wirklich das genialste Feature der WiiU. Ist einfach eine andere, wesentlich intimere Art Spiele zu spielen. Passt bei manchen Titel einfach besser als am großen 55" TV zu zocken. Bei manchen Musikstücken sind mir Kopfhörer auch lieber als große Standboxen, ist in etwa das gleiche Phänomen aber das ist bloß meine Meinung. ;-)
Da hätte ich überhaupt nichts dagegen und nicht nur optional, sondern gerne als Standard, damit es auch genutzt wird.
 
7.12. sind doch VGA? Da kommt maybe eine Spieleankündigung oder irgendwas Kleines, aber doch keine Konsole.
Ich gehe davon aus, dass sowohl Sony, als auch MS die Konsole entweder auf der E3 oder auf einem eigenen Event kurz davor zum ersten Mal zeigen.

das auf den VGAs irgend was von der nextgen gezeigt wird ist schon ein halbes jahr bekannt, wurde ja getwittert. “sneak at the next-generation of gaming”
Nur ob es ein trailer nen neue Engine Demo oder sonst was wird ist halt nicht bekannt.

Ja das weiss ich auch. Im podcast ging es aber explizit um eine neue Konsole in der februarausgabe die im januar 2013 rauskommt. (Das magazin nicht die konsole) Hatte eigentlich nicht vor märz damit gerechnet, das irgenwas geteased und/oder veröffentlicht wird. Wäre auf jedenfall klasse. Für mich kann es nicht früh genug losgehen mit info häppchen.
 
Da hätte ich überhaupt nichts dagegen und nicht nur optional, sondern gerne als Standard, damit es auch genutzt wird.
Das sollte man alles automatisch regeln können. Ich will ja nur das Bild vom TV am Controller, keine Dual-Screen Nutzung. Im Prinzip gefallen mir ja Handheld als Alternative für kleinere Spiele, nur hätte ich gerne einen für zuhause, mit einem vernünftigen Screen und Buttons in Originalgröße. Die meisten Dual-Screen Elemente werden eher eine Spielerei. Im Gegenteil, wenn Sony das Teil jeder Konsole beilegt fangen die Entwickler noch an den zweiten Screen mit unnötigen Menüs vollzustopfen und ich kann die Spiele mit dem Pad alleine nicht mehr spielen. :-P
 
Keine In-Order CPU ist jemals auch nur annähernd an die IPC einer OoO CPU herangekommen. Da bringt dir auch Optimierung nix, das Verhalten eines derart komplexen Stücks Software kann man mit einem Profiler niemals perfekt vorhersagen, schon gar nicht bei dem Zeitdruck einer Videospiele-Produktion.

Die WiiU wird schon eine erheblich höhere IPC haben, nur nicht annähernd hoch genug um den gigantischen Taktunterschied auszugleichen, dazu müsste die IPC in etwa so weit vorne liegen wie ein Core i7 gegenüber aktuellen Smartphone-CPUs vorne liegt und das ohne wesentlich mehr Transistoren zu verbrauchen. Das ist einfach absolut unrealistisch. Den DSP haben sie ja auch nicht umsonst eingebaut.

Da hast du mich missverstanden.
Ich bezweifel ja auch nicht, dass die Wii-U einen besseren IPC Wert hat wie der Xenon.
Ich sprach nur an, dass man eben die IPC Werte, die man unreflektiert erhält, wenn man die üblichen Benchmarkprogramme nutzt, nicht direkt miteinander vergleichen kann.
Bei einer festen Hardware kann man da schon noch einiges optimieren und wenn das Preis/Leistungs-Verhältnis stimmt, ist das auch wirtschaftlich vertretbar. Man wird aber eben nicht an das IPC Verhältnis einer OoO-Architektur heran kommen, was in dem Fall, aufgrund der hohen Taktfrequenz (Xenon) eben auch nicht notwendig ist.

Das war meine Kernaussage, die darin resultierte, dass selbt bei besserem IPC Wert das Taktverhältnis zu groß sein dürfte, um dieses auszugleichen.
Damit stimmen wir ja dann auch wieder überein :)
 
Wundert mich warum Nintendo die WiiU Chips nicht gleich als SoC gefertigt hat. Hat eigentlich gute Voraussetzungen, die Fläche der einzenlen Chips ist klein und der Takt niedrig, so hätten sie gleich nochmal sparen können.
 
Dann helf ich dir schon mal dabei was die technsichen Daten angeht :)

Xenon:
3 Kerne
6 Hardwarethreads
3.2GHz Taktung
gute Altivec-Einheit (SIMD)
In-Order Architektur
Chipgröße: 168mm^2bei 90nm, entspricht ca. 42-45mm^2 bei 45nm Fertigung.
1MB L2 Cache


Wii-U CPU
3 Kerne
3 Hardwarethreads
1.24 GHz Taktung
schwache SIMD Einhein
Out-of-Order Architektur
Chipgröße: ca. 32,8mm^2 bei 45nm
3MB L3 Cache

Also wenn man sich die nackten Daten anguckt, ist die Wii U dem Xenon schon überlegen, nur in Bezug auf Takt,SIMD und Threads ist sie schwächer.
 
Also wenn man sich die nackten Daten anguckt, ist die Wii U dem Xenon schon überlegen, nur in Bezug auf Takt,SIMD und Threads ist sie schwächer.

Reicht ja wohl aus..

codwiiu.png

:v:

Besser ausgedrückt wäre wohl, dass es bei der WiiU CPU nicht viel gibt, in welches sie überlegen ist, außer dem IPC, aber der Vorteil wird durch den geringen Takt aufgefressen.
 
Aber irgendwie check ich das immer noch nicht und obwohl ich ausgepennt bin :coolface:

Also: Warum wird bei Kürzung einer Pipeline die SIMD-Fähigikeit verschlechtert und die IPC verbessert?? Denn bei Kürzung erhält man doch weniger Befehlsätze . Denn je größer die Pipeline, desto mehr Befehle können doch ausgeführt werden oder nicht?? hm, ?? Das kann nur eine Bedeutung haben und zwar das weniger Transistoren und somit weniger Parallelarbeit und somit schlechter für SIMD, da man aber wolh den Takt erhöht hat, ist es besser für komplexe Berechnungen. Anders kann ich es nicht deuten :coolface: würde auch die kleine CPU erklären bzw. die Fläche :D
 
Zuletzt bearbeitet:
Konsolenbaby, beziehst du in die Rechnung auch die OoOE und den DSP-Chip für den Sound mit ein?

Immerhin kostet die Audioausgabe die 360-CPU einen vollen Kern, Wii-U hat den DSP. Marcan sprach auch von einem zusätzlichen Arm-Chip.;-)
 
Zuletzt bearbeitet:
SIMD hat ja erstmal nichts mit der Länge der Pipeline zu tun, sondern das sind Erweiterungen/Teile des Befehlssatzes. SIMD = ein Kommando auf mehr als einem Datensatz absetzen (Datenparallelität), z.B. wenn man einen Vektor aus 4 floats mit einem skalar multiplizieren will. Da Rechnungen für Grafik, Physik im 3D (oder eher 4D) Raum ausgeführt werden, ist sowas sehr nützlich. Aktuell operieren SIMD-Instruktionen meist auf 128Bit, d.h. auf 4 32-Bit-Werten gleichzeitig.
 
@Nullpointer

Ich verstehe echt nicht warum eine verkürzte Pipeline was positives sein soll, wenn der Takt gleich bleibt??? irgendwas stimmt da nicht oder ich hab nen Logikproblem^^
 
Aber irgendwie check ich das immer noch nicht und obwohl ich ausgepennt bin :coolface:

Also: Warum wird bei Kürzung einer Pipeline die SIMD-Fähigikeit verschlechtert und die IPC verbessert?? Denn bei Kürzung erhält man doch weniger Befehlsätze . Denn je größer die Pipeline, desto mehr Befehle können doch ausgeführt werden oder nicht?? hm, ??
What? Der ganze Post macht für mich keinen Sinn. Du verwechselst da gerade einige Begriffe glaube ich.

Mit Pipeline meint er wohl die Instruction Pipeline, wie viele Takte ein Prozessor an einer Instruktion ackert, von der Prefetch-Stage bis zum Writeback. In jedem Takt wird eine Stufe erledigt. Wenn du die Pipeline verlängerst ist es meistens einfacher den Takt in die Höhe zu treiben weil du weniger Abhängigkeiten zwischen den einzelnen Stufen hast. Je mehr Stufen eine Instruktion bis zur finalen Ausgabe durchläuft, desto primitiver wird der Schaltkreis einer einzelnen Stufe. Aufgrund diverser Limitierungen beim Layout und der Fertigung ist es so einfacher hochperformante Schaltkreise zu entwerfen, z.B. weil in der Fertigung nicht jeder Transistor die gleichen Charakteristika erreicht und diese noch eher einfach auszugleichen sind wenn du es mit geringer Komplexität zu tun hast.

Ist die Pipeline kurz, so taktet der Prozessor zwar langsamer, dafür brauchst du aber auch weniger Takte um eine einzelne Instruktion zu berechnen. Im Prinzip kannst du auch bei einer langen Pipeline jeden Takt eine Instruktion durch jede Stufe jagen und es sollte somit keinen Unterschied machen wie lange die Pipeline ist, es gibt aber viele komplizierte Gründe warum das nicht immer funktioniert. Jedes Mal wenn der Prozessor einen Thread wechselt (deshalb sagte er auch, die WiiU bräuchte SMT bei der kurzen Pipeline nicht so sehr) oder eine branch prediction fehlschlägt, wird die gesamte Pipeline geleert (reduziert damit die IPC), das Spiel hat also seine Grenzen. Sieht man ja am Pentium 4 mit bis zu 31 Stufen, die Core-µArch hat nur 14 Stufen, taktet langsamer und ist trotzdem weit schneller. IBM verwendet oft noch kürzere Pipelines. Das Optimum muss man mit extrem komplizierten Simulationen selbst herausfinden aber kürzer ist in der Regel besser. ;-)
 
Wo wir schonmal bei den Mhz-Diskussionen sind, marcan42 hört die Vögel zwitschern:

"Hector Martin ‏@marcan42

If you want more evidence that MHz isn't everything, a little birdie points out that Durango (Xbox 720) is specc'ed to have a 1.6GHz CPU." ;-)
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom