Wii U Wii U

Status
Nicht offen für weitere Antworten.
Alter schön und gut, aber kommt es nicht auch eher auf die Leistung der "alten" Hardwareteile an?
Natürlich. Aber die kennen wir nicht und die kennen die Entwickler nicht (genau). Nintendo gibt nur grobe Richtwerte an, also "mindestens soundsoviel", "zwischen X und Y" und so weiter. Tatsache ist auch, dass die ersten 360-Kits ein kompletter Witz im Vergleich zur finalen Hardware waren, besonders hinsichtlich der GPU. Da stimmte weder die Leistung noch das Featureset, und sogar die Architektur war vollkommen anders.
 
leute, nintendo hat sich aus dem wettrüsten verabschiedet und daran hat sich nix aber auch gar nix geändert.
 
Nochmal zurück zur möglichen Hardware, wenn man sich allein schon die kommende HD7770 mit Grafic Core Next wohlgemerkt ansieht, auch Stromverbrauch und vermutlicher Preis im PC-segment, ist es völlig absurd, das Wii U sich darunter ansiedeln wird.

http://www.hartware.de/news_53666.html

http://www.pcgameshardware.de/aid,8...Core-i5-3550-News-des-Tages/Grafikkarte/News/

Zum möglichen Preis, im PC-Segment wohlgemerkt:

http://www.tweakpc.de/news/23037/amd-radeon-hd-7770-fuer-149-us-dollar/


Das führt jegliche R 700 Spekulationen ad absurdum, wurde wohl ne 0 und das HD vorneweg vergessen? :lol:

Bezüglich Speicherbandbreiten und RAM, das ist eine PC-Karte, ein Devirat in einer Konsole würde sicherlich optimiert werden für ein SoC mit ganz anderen Bandbreiten und schnellerem RAM. ;-)

Mal schauen,
die Karte läuft mit 1GHz und verfügt vermutlich über 896 Streamingprozessoren.
Ergibt also eine Rechenleistung von 1792 Gflops.
An Energie benötigt sie 90-100 Watt.
Fertigungstechnik 28nm

Die Wii-U wird wie gesagt nicht mehr als 60-80 Watt vertragen können. Mehr ist mit dem Gehäuse nicht drin -auch wenn das einige immer noch nicht wahr haben wollen.
Da die CPU natürlich auch einen guten Teil am Gesamtsystem benötigt und der Rest auch ein paar Watt braucht schätze ich mal den GPU Verbauch auf maximal 40-50 Watt (schon sehr großzügig bemesse)

Damit dürfte man ziemlich genau die Hälfte der von dir erwähnten Karte und deren Leistung erreichen.
Also ca 800 Gflop.

Und was sage ich seit Monaten.
Die GPU der Wii-U wird aller Voraussicht nach bei 800-1000 Gflops liegen.
Also schon wieder eine Bestätigung meiner These :goodwork:
 
leute, nintendo hat sich aus dem wettrüsten verabschiedet und daran hat sich nix aber auch gar nix geändert.
Du hast Iwatas Aussage falsch verstanden. Nintendo entwickelt die Hardware nicht mit dem Schwerpunkt, sinnlose Zahlen gegen sinnlose Zahlen von Sony und Microsoft antreten zu lassen, sondern sie entwickeln Hardware, mit der ihre eigenen Teams und ihre engsten Partner arbeiten wollen. Wenn EAD oder Capcom sagen, sie wollen leistungsfähige Hardware, bekommen sie leistungsfähige Hardware. Ganz unabhängig davon, was Sony oder Microsoft machen.
 
Natürlich. Aber die kennen wir nicht und die kennen die Entwickler nicht (genau). Nintendo gibt nur grobe Richtwerte an, also "mindestens soundsoviel", "zwischen X und Y" und so weiter. Tatsache ist auch, dass die ersten 360-Kits ein kompletter Witz im Vergleich zur finalen Hardware waren, besonders hinsichtlich der GPU. Da stimmte weder die Leistung noch das Featureset, und sogar die Architektur war vollkommen anders.

Ich will ja nicht deine Träume ruinieren aber wie oft muss man das eigentlich noch erklären.
Langsam macht es auch keinen Spaß mehr.
Allein in diesem Thread habe ich sicherlich schon drei- bis viermal erläutert warum man die Dev-Kit Situation der Wii-U nicht mit der der 360 vergleichen kann.
Und diese Argumentation war schlüssig und deshalb verstehe ich nicht, warum du hier schon wieder damit ankommst.
 
Ich will ja nicht deine Träume ruinieren aber wie oft muss man das eigentlich noch erklären.
Langsam macht es auch keinen Spaß mehr.
Allein in diesem Thread habe ich sicherlich schon drei- bis viermal erläutert warum man die Dev-Kit Situation der Wii-U nicht mit der der 360 vergleichen kann.
Und diese Argumentation war schlüssig und deshalb verstehe ich nicht, warum du hier schon wieder damit ankommst.
Ich kann mich irgendwie nicht an schlüssige Argumente von Dir zu diesem Thema erinnern. Inwiefern kann man die Situation denn nicht vergleichen, Deiner Meinung nach? Hast Du überhaupt schonmal ein Wii U Devkit gesehen?
 
Zuletzt bearbeitet:
Ich kann mich irgendwie nicht an schlüssige Argumente von Dir zu diesem Thema erinnern. Inwiefern kann man die Situation denn nicht vergleichen, Deiner Meinung nach? Hast Du überhaupt schonmal ein Wii U Devkit gesehen?

Nein, ich habe noch kein Wii-U Dev-Kit gesehen, wie wohl niemand hier im Thread.
Du darfst aber wild spekulieren und andere nicht, oder wie habe ich das zu verstehen ?

Ich beziehe mich auf Äußerungen diverser Entwickler. Und danach steckt oder steckte in den dersten Dev-Kits eben eine Mittelklassekarte der HD 4000 Serie.
Nicht die zu dieser Zeit stärkste und auch nicht zwei davon. Denn die HD 4000 Serie konnte man schon zu zweit betreiben.

Und bevor du jetzt fragst woher ich weiß, wie alt die ersten Dev-Kits sind.
Ich weiß es nicht, spielt aber auch keine Rolle.
Als erste Karte der HD 4000 Serie wurde die HD 4870 veröffentlicht, die bereits über die maximale Anzahl von 800 Streamingprozessoren verfügte. Und die steckt eben zu 99% nicht in den Dev-Kits und wie erwähnt, schon gar nicht zwei davon.

In den 360 Dev-Kits steckte aber die damals schnellste ATI Karte. Und da man diese nicht im Dualbetrieb betreiben konnte, war auch nur eine vorhanden. Das Gesamtsystem brachte es gerade mal auf ca. ein Sechstel der Rechenleistung der finalen 360, weil eben mehr zur damaligen Zeit mit ATI GPUs nicht drin war.

Die Entwickler wussten das aber, da ihnen MS das gesagt hatte.
Bei Nintendo und der Wii-U trifft aber all das nicht zu.
 
Du hast Iwatas Aussage falsch verstanden. Nintendo entwickelt die Hardware nicht mit dem Schwerpunkt, sinnlose Zahlen gegen sinnlose Zahlen von Sony und Microsoft antreten zu lassen, sondern sie entwickeln Hardware, mit der ihre eigenen Teams und ihre engsten Partner arbeiten wollen. Wenn EAD oder Capcom sagen, sie wollen leistungsfähige Hardware, bekommen sie leistungsfähige Hardware. Ganz unabhängig davon, was Sony oder Microsoft machen.

bei der wii haben sie capcom ganz offensichtlich nicht gefragt. :awesome:

nintendo schaut sich in erster linie techniken an und überlegt ob man damit nen zugewinn für die games generieren kann. wenns dann noch publikumswirksam ist, überlegt man eine strategie. am ende wird über die rechenpower nachgedacht, die von nöten ist um das ganze umzusetzen und dem gamer ne gute spielerfahrung zu liefern. dabei fließt noch die frage des mediums (HD TV oder nicht - bei stationären konsolen) ein.

das habe ich nicht gelesen und das haben sie so nicht gesagt aber die produkte sprechen eindeutig diese sprache und die wiiU macht da keine ausnahme. der controller ist da beweis genug, die größe der hardware ist ein weiterer hinweis. sieht man sich das gesamtpaket an, so dürfte klar sein, wie der hase läuft. zudem: supidupi hardware + controller = nicht bezahlbar.

ne, freut euch auf den controller, überlegt was man damit machen kann aber lasst die grafikdebatten. darum gehts bei der wiiU einfach nicht.
 
Zuletzt bearbeitet:
Egal wie es kommt. Mit einer Nintendo Konsole Spiele zu spielen, die zumindest ein wenig besser aussehen als auf den aktuellen Konsolen, ist für mich schon sehr spannend.
 
@konsolenbaby wenn ich mich recht erinnere war in den 360 devkits ne GraKa von 2003 ;-)
 
Egal wie es kommt. Mit einer Nintendo Konsole Spiele zu spielen, die zumindest ein wenig besser aussehen als auf den aktuellen Konsolen, ist für mich schon sehr spannend.

Vor allem muss man sich bei Nintendospielen ja den Sprung von Wii zur Wii-U und nicht von PS360 zur Wii vor Augen halten.
Auch nach meinen - für den ein oder anderen zu niedrigen Schätzung - dürfte die Wii-U ca. die 35-40 !! fache Wii Rechenleistung besitzen.
Da ist schon mehr drin als höhere Auflösung und ein paar bessere Effekte.
 
Nein, ich habe noch kein Wii-U Dev-Kit gesehen, wie wohl niemand hier im Thread.
Du darfst aber wild spekulieren und andere nicht, oder wie habe ich das zu verstehen ?

Ich beziehe mich auf Äußerungen diverser Entwickler. Und danach steckt oder steckte in den dersten Dev-Kits eben eine Mittelklassekarte der HD 4000 Serie.
Nicht die zu dieser Zeit stärkste und auch nicht zwei davon. Denn die HD 4000 Serie konnte man schon zu zweit betreiben.
Und da liegt der Denkfehler: Es ist eben keine Mittelklasse-GPU, sondern eine RV770 - das Topmodell der R700-Serie, genau wie die Radeon 9800 und die GeForce 6800 damals. Nur überhitzte die und wurde entsprechend runtergetaktet (bzw. wurden zwei SIMD-Units und 160 SPUs abgeschaltet).

Ich habe den Vergleich mit Grafikkarten vor einigen Tagen nebenbei bemerkt nicht grundlos gebracht, denn das Kühlkonzept der Devkits erinnert stark an das moderner Grafikkarten. Nur eben eine Nummer größer. Großer Einlass über dem Chipsatz, Fan Duct, kleinerer Auslass direkt dahinter.
 
Zuletzt bearbeitet:
@konsolenbaby wenn ich mich recht erinnere war in den 360 devkits ne GraKa von 2003 ;-)

Ja natürlich, was auch sonst.
Die ersten Alpha Kits kamen schließich 2003 raus und da konnte dann auch nur eine Karte drin stecken, die man auch aktuell erwerben konnte.
Wenn du es genau wissen willst. Es war eine Radeon 9800XT.
 
Und da liegt der Denkfehler: Es ist eben keine Mittelklasse-GPU, sondern eine RV770 - das Topmodell der R700-Serie, genau wie die Radeon 9800 und die GeForce 6800 damals. Nur überhitzte die und wurde entsprechend runtergetaktet (bzw. wurden zwei SIMD-Units und 160 SPUs abgeschaltet).

Ich habe den Vergleich mit Grafikkarten vor einigen Tagen nebenbei bemerkt nicht grundlos gebracht, denn das Kühlkonzept der Devkits erinnert stark an das moderner Grafikkarten. Nur eben eine Nummer größer. Großer Einlass direkt über dem Chipsatz, Fan Duct, kleinerer Auslass direkt dahinter.

Es ist nirgends erwähnt, dass eine RV770 drin steckt. Es wird immer nur von einer Karte der R700 Serie geredet. Manche Seiten machten daraus dann eine RV770.
Und selbst wenn.
Dass die Karten überhitzten und man deshalb einen Teil deaktivierte halte ich schon mehr an den Haaren herbei gezogen. (Die Quelle dazu hätte ich auch gerne mal genannt) Ein Dev-Kit baut man um die entsprechende Hardware herum. Zur Not steht da eben ein gut gekühltes PC Gehäuse. Da überhitzt dann auch keine GPU.

Und selbst wenn wir mit klitzekleiner Wahrscheinlichkeit annehmen, dass beide Aussagen richtig sind, dann bleibt immer noch die Frage, warum steckt man nicht zwei GPUs ins Dev-Kit wenn die finale Hardware mehr leisten soll.
Oder warum sagt man den Entwicklern nicht, mit wie viel Leistung sie bei der Wii-U letztendlich zu rechnen haben ?

Nach Ockhams Rasiermesser ist die einfachste Erklärung auch die plausibelste.
Und da sind deine Ausführungen meiner Ansicht nach ziemlich weit von entfernt.
 
Zuletzt bearbeitet:
Die ersten Gerüchte bezogen sich ebenfalls auf frühe Devkits, ich verstehe nicht, wieso das bei Wii U jetzt anders sein soll?

Ich hab von vornherein gesagt, das Wii U ein 2 bis max. 3 Terraflopsystem wird, abhängig im Endeffekt, wie stark die GPU wirklich wird, nur eben nicht theoretisch bzw. pseudotheoretisch siehe Ps3, sondern real nutzbar.

Und da kommen wir zu den damaligen Ps3-Prerender-Trailern von der E3 2005, diese wurden anhand von 2Terrafloprechnern gefertigt, also was bei dieser Rechenleistung möglich sein müsste, und da sind insbesondere der Motorstorm, Warhawk-und der Killzone 2-Trailer gemeint, sowie der erste MGS4-Trailer von der Tokyo Game Show 2005, nur mit Texturen halt. :lol:

So in etwa könnte es jetzt erreichbar werden, zumindest meine Etwavorstellung, von der zu erwartenden Ingameleistung, und das wär beachtlich, und NextGen. ;-)

Wenn jetzt einer kommt, mit das Guerilla das getoppt hätte, empfehle ich Brille Fielman.
 
Zuletzt bearbeitet:
Es ist nirgends erwähnt, dass eine RV770 drin steckt. Es wird immer nur von einer Karte der R700 Serie geredet. Manche Seiten machten daraus dann eine R770.
Und selbst wenn.
Das die Karten überhitzten und man deshalb einen Teil deaktivierte halte ich schon mehr an den Haaren herbei gezogen. Ein Dev-Kit baut man um die entsprechende Hardware herum. Zur Not steht da eben ein gut gekühltes PC Gehäuse. Da überhitzt dann auch keine GPU.

Und selbst wenn wir mit klitzekleiner Wahrscheinlichkeit annehmen, dass beide Aussagen richtig sind, dann bleibt immer noch die Frage, warum steckt man nicht zwei GPUs ins Dev-Kit wenn die finale Hardware mehr leisten soll.
Oder warum sagt man den Entwicklern nicht, mit wie viel Leistung sie bei der Wii-U letztendlich zu rechnen haben ?

Nach Ockhams Rasiermesser ist die einfachste Erklärung auch die plausibelste.
Und da sind deine Ausführungen meiner Ansicht nach ziemlich weit von entfernt.
Fakt ist, dass diverse Quellen es unabhängig voneinander berichtet haben, sowohl, dass es sich um eine RV770 handelt, als auch, dass die Devkits überhitzten und entsprechend nicht mit voller Leistung gefahren werden konnten. Shit happens, kommt in den besten Familien vor. Und wozu sollte man eine Crossfire-Konfiguration bauen? Wenn eine GPU zu schwach aber zwei zu stark sind, belässt man's halt einfach bei einer GPU. Wozu sollte man sich einen abbrechen? Wenn man am Ende mehr Dampf unter der Haube hat, ist das schön, aber kein Entwickler will runterschrauben müssen. Finale Hardware kommt früh genug, und niemand erwartet allzuviel von Launch-Software. Das ist sogar die tatsächlich einfachste Erklärung, wenn Du schon mit Ockham kommen willst. Selbst die frühen Devkits konnten ohne Probleme PS360-Ports abnudeln, und mehr kommt zum Launch sowieso nicht.
 
Zuletzt bearbeitet:
Fakt ist, dass diverse Quellen es unabhängig voneinander berichtet haben, sowohl, dass es sich um eine RV770 handelt, als auch, dass die Devkits überhitzten und entsprechend nicht mit voller Leistung gefahren werden konnten. Shit happens, kommt in den besten Familien vor. Und wozu sollte man eine Crossfire-Konfiguration bauen? Wenn eine GPU zu schwach aber zwei zu stark sind, belässt man's halt einfach bei einer GPU. Wozu sollte man sich einen abbrechen? Wenn man am Ende mehr Dampf unter der Haube hat, ist das schön, aber kein Entwickler will runterschrauben müssen. Finale Hardware kommt früh genug, und niemand erwartet allzuviel von Launch-Software. Das ist sogar die tatsächlich einfachste Erklärung, wenn Du schon mit Ockham kommen willst. Selbst die frühen Devkits konnten ohne Probleme PS360-Ports abnudeln, und mehr kommt zum Launch sowieso nicht.

Das sag mal den Entwicklern. Die werden dir sicherlich zustimmen dass sie lieber im Dunkeln gelassen werden wollen, was die finalen Daten angeht und sich wie ein Schneekönig darüber freuen, wenn am Ende so viel mehr Leistung im System steckt, dass sie ihre Games ruhig etwas aufwändiger hätten gestalten können.

Ich weiß auch nicht was an dreifacher 360 Leistung jetzt so herumgenörgelt wird.
Die aktuelle 360 Slim - immerhin schon die zweite Slim-Revision- verbraucht immer noch unter Last gut 80 Watt.
Deren Chips sind in 45nm gefertigt und in der zweiten Revision wurden weitere sekundäre Chips zusammen geführt.
Der Sprung von 45nm auf 28nm ergibt untefähr Faktor 2,5 was die Stromersparnis angeht.
Also würde eine fiktive 360 Slim in 28nm ca. 30 Watt verbrauchen.

Jetzt die Rechenleistung verdreifachen und man erhält ca. 90 Watt.
Wie man es dreht oder wendet. Mehr als dreifache 360 Leistung ist mit 60-80 Watt wirklich nicht drin.
Und das sind eben ca. 1000-1200 Gflops.

Von den völlig utopischen Werten, mit denen Pitty mal wieder um die Ecke kommt, ganz zu schweigen.

Wenn im Wii-U mehr Rechenleistung stecken soll, geht kein Weg an einem größeren Gehäuse vorbei.

Hier mal eine schöne Tabelle bzgl. der einzelnen Stromverbrauchswerte der letzen Konsolen.

http://www.computerbase.de/news/2008-11/konsolen-grosse-unterschiede-beim-stromverbrauch/

Da ist aber auch kein Gerät dabei was bei annähernd Wii-U Größe mehr als 60 Watt verbraucht.
 
Zuletzt bearbeitet:
Das sag mal den Entwicklern. Die werden dir sicherlich zustimmen dass sie lieber im Dunkeln gelassen werden wollen, was die finalen Daten angeht und sich wie ein Schneekönig darüber freuen, wenn am Ende so viel mehr Leistung im System steckt, dass sie ihre Games ruhig etwas aufwändiger hätten gestalten können.
Nintendo lässt Entwickler eigentlich immer bis zum letzten Moment im Dunkeln. Bis mindestens einschließlich der V4 Devkits steht in der Dokumentation nichtmal drin, wieviel RAM die finale Hardware haben wird. Es gab nur eine "von-bis"-Angabe in der Dokumentation, mit dem Vermerk an Entwickler, sich sicherheitshalber vorläufig am unteren Limit zu orientieren. Außerdem hat beispielsweise THQ ja schon gesagt, dass man bei Wii U-Ports in jedem Fall deutlich mehr machen könnte, aber es fehlen Zeit und Geld dafür. Deshalb ist es wirklich egal. Finale Devkits erscheinen erfahrungsgemäß so etwa sechs Monate vor dem Launch - damit haben die Entwickler also noch genug Zeit, beispielsweise von Konsolen- auf PC-Assets umzustellen oder an LOD-Settings und anderen Variablen zu feilen.


Da ist aber auch kein Gerät dabei was bei annähernd Wii-U Größe mehr als 60 Watt verbraucht.
Geschlossenes Gehäuse, deutlich geringeres Volumen, weniger Lüftung, 280W:

ICL3l.jpg


So weit wird Nintendo nicht gehen, aber tatsächlich ist von 60W bis 260W ALLES drin, wenn man allein auf die Größe schaut, ohne Lüfter und Kühlkörper gesehen zu haben. In Anbetracht der Kühlung der Devkits und des angeblich auffällig hohen Gewichts der Vorführgeräte würde mich eine Leistungsaufnahme jenseits der 100W nicht wirklich wundern.
 
Zuletzt bearbeitet:
Was ist denn an meinem oben abgegeben Tipp utopisch? :-?

Weil nintendo drauf steht schätz ich mal, bei der Xbox Next, sind laut dir ja schon 2 HD7970 im frühen Devkit drin, da kanns nicht utopisch genug sein, is klar. :lol:
 
Was ist denn an meinem oben abgegeben Tipp utopisch? :-?

Weil nintendo drauf steht schätz ich mal, bei der Xbox Next, sind laut dir ja schon 2 HD7970 im frühen Devkit drin, da kanns nicht utopisch genug sein, is klar. :lol:

Mir falsche Thesen in den Mund zu legen macht deine Argumentation auch nicht schlüssiger.
Wo sprach ich von 2 HD 7970, völliger Käse.
Die Dev-Kits der X3 sind ja schon länger unterwegs, somit käme ich sicherlich nicht auf die Idee ihnen Hardware zu unterstellen, die zur Zeit der Auslieferung noch gar nicht fertig war.

Deine 2Terraflop oder gar darüber sind mehr als unrealistisch. Fertig aus.

Die X3 wird sicherlich nicht in so einem mickrigen Gehäuse wie die Wii-U stecken.
Und sie erscheint erst frühestens Ende 2013 und somit könnten ihre Chips sogar in 22nm gefertigt werden, was noch einmal Verlustleistung einsparen würde.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom