hutzelmann
Moderator
war glaub der hier, habs aber net selbst gepostet:
http://www.eurogamer.de/articles/2012-11-29-tekken-tag-tournament-2-wii-u-edition-test
ich glaub der war von mir

Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
war glaub der hier, habs aber net selbst gepostet:
http://www.eurogamer.de/articles/2012-11-29-tekken-tag-tournament-2-wii-u-edition-test
Joel from Frozenbyte here. Great to see this, very nice.Worth of note is that the game actually has a dynamic resolution scaling feature on PS3 and Xbox 360 to keep a steady 30 frames per second. This shows in some levels (e.g. the 11th level Icewarden Keep has a scene in the beginning where this is somewhat visible, if I remember right). On Wii U the resolution is 720p solid.
Just to be clear, we will indeed be updating the "washed out" look. The observation about gamma level is correct, as there was a bug in the game that applied excessive gamma to the final output. It went unnoticed until release but we have now fixed it. So the game will soon look even better (similar in colour to the other versions). We're estimating a mid-December release for the update, give or take a few days, and it will also include support for Wii U Pro Controller, Voice Chat, some languages, and some minor things.
Fazit:
Und zum Thema "schwache CPU" (= "ein Mario braucht keine komplexe Physik"):
Joel weiß nicht genau, woran's liegt:Verstehe ich richtig? PhysX Elemente in der Wii U Version, aber in den anderen Versionen nicht? Peinliche Show für alle.![]()
http://www.neogaf.com/forum/showpost.php?p=45059487&postcount=67The game is using all the CPU power available on all of the consoles, but it is generally more focused on the GPU - our AI routines for example are quite simple, and the general gameplay is not that demanding either (even if the calculations are all done in 3D I believe). The physics do add a bit though.
We're using a bit higher settings on Wii U in general but I don't know if it really extends to physics much. There's at least a tiny bit more animation data going on and more dynamic particles, but I don't know if those would count. If I remember right we use a newer version of PhysX on Wii U than on the other consoles, so that might do a difference (still within the 2.8.x though). I would say that whatever difference there is in physics, it's rather minimal. If this thread is still active tomorrow, I can find out more from the programmers.
Dir ist schon klar, dass FrozenByte einer der ganz wenigen Entwickler ist, die nicht nur komplett auf Deferred Shading setzen, sondern obendrein als einer von noch viel weniger Entwicklern überhaupt eine entsprechende Engine gebaut hat, die sowohl auf PS3 als auch auf Xbox360 vernünftig läuft? Den Jungs ihre technischen Qualifikationen abzusprechen ist schon heiß. Und wenn's um Erfahrung ginge, warum ist dann die PS3-Version die schwächste, obwohl sie schon seit 2008 für diese Plattform entwickeln?
Trine. Erschien im September 2009 für PS3.Laut Wiki ist Trine 2 das einzige Game für PS360 bisher.
Was gabs denn noch für die PS3 ?
Siehe Post direkt über Deinem.Es geht aber darum, dass Trine 2 eben das erste Game für die 360 war und bereits vor einem Jahr erschien.
Jetzt ist es das erste Game für die Wii-U von denen. Dazu eben ein Jahr später.
Und dass die Wii-U eine stärkere GPU besitzt als PS360 bestreitet niemand.
Und viel CPU Leistung braucht man bei dem Game eh nicht, was der Wii-U von Vorteil gereicht.
Deferred Rendering läuft schließlich auf der GPU. Und Physx oder was sie bei der Wii-U einsetzen, läuft wohl auch auf der GPU
Deshalb ist es doch wohl selbstverständlich, dass diese Game besser auf der Wii-U performan sollte. Alles andere wäre ungewöhnlich.
Das ist kein Bash sondern einfache Logik.
Glückwunsch, da scheint sich ja die 1,5fache 360 Power der WiiU endlich auszuzahlen.
Jetzt müsste man es nur noch schaffen, dass Spiele wie Call of Duty oder Batman nicht schwächer ausschauen
Wenn die Entwickler sich erstmal reingefuchst haben und Macken in der Middleware ausgebügelt sind, kommt das im Zweifel von ganz alleine. Bei CoD vielleicht per Patch, wenn die Verkaufszahlen es rechtfertigen (was ich aktuell nicht glaube).Glückwunsch, da scheint sich ja die 1,5fache 360 Power der WiiU endlich auszuzahlen.
Jetzt müsste man es nur noch schaffen, dass Spiele wie Call of Duty oder Batman nicht schwächer ausschauen
Wenn die Entwickler sich erstmal reingefuchst haben
War klar, dass die Leute auch so was schlechtreden, was soll man machen.![]()
Logisch. Wobei ich Konsolenbaby hier schon verstehen kann. Teilweise geht er von falschen Voraussetzungen aus, weil Trine auf dem PC die CPU wirklich kaum fordert, aber PC-CPUs sind nunmal auch eine ganz andere Welt als Konsolen-CPUs, und tatsächlich ist die Wii U-Version nunmal auch in CPU-lastigen Bereichen überlegen. Sowohl laut Analyse von Eurogamer als auch laut Sprecher des Herstellers. Wenn's bei der Physik auch minimal ist, Animationen und Partikeleffekte laufen auch auf der CPU. Wenn die CPU bei PS3 und 360 eh nichts zu tun hat, warum gibt's dann diese Verbesserungen nicht auf den Plattformen? Und das Spiel hat nichtmal einen D3D10-Pfad, mit dem beispielsweise die sehr ansehnlichen Partikeleffekte auf der Wii U deutlich effizienter berechnet werden könnten. Aber es ist in der Tat schwer zu sagen, was nun tatsächlich durch stärkere Hardware machbar wurde, und was einfach durch zusätzliche Entwicklungszeit und Optimierungen rausgekitzelt wurde. So oder so, das Ergebnis überzeugt.War klar, dass die Leute auch so was schlechtreden, was soll man machen.![]()
warum dann technisch unbegabte Entwickler wie Shinen oder Frozenbyte?![]()
http://www.pcgameshardware.de/AMD-R.../News/Spezifikationen-Radeon-HD-8000-1038581/Modell Stream-Prozessoren RAM-Interface GPU-Takt Speichertakt GDDR5-Speicher TDP Idle/Max
Radeon HD 8990 2x 2.560 2 x 384 Bit 950 MHz 2.500 MHz 6 - 12 GiByte 6/375 Watt
Radeon HD 8970 2.560 384 Bit 1.050 MHz 3.000 MHz 3 GiByte 3/260 Watt
Radeon HD 8950 2.304 384 Bit 1.050 MHz 2.750 MHz 3 GiByte 3/210 Watt
Radeon HD 8870 1.792 256 Bit 1.000 MHz 3.000 MHz 2 GiByte 3/160 Watt
Radeon HD 8850 1.536 256 Bit 925 MHz 2.500 MHz 2 GiByte 3/130 Watt
Radeon HD 8770 896 192 Bit 850 MHz 2.300 MHz 2 GiByte 3/250 Watt
Radeon HD 8750 768 128 Bit 800 MHz 2.300 MHz 2 GiByte 3/250 Watt