Wii U Wii U

Status
Nicht offen für weitere Antworten.
Nein, denn er redet da vom Multiplayer, nicht von der WiiU Version^^

Yes, yes...das sagt er im letzten Satz! Jedoch sagt er vorher ja, dass Nintendo baldig seinen Kimono des Schweigens, bezüglich der Wii U, ein wenig lüften dürfte. Und sie sind ja auch auf der PAX vertreten und Gearbox gibt dort eine Podiumsdiskussion oder dergleichen...

Jaja...ich klammere mich an jedem kleinen Strohalm! LASST MICH DOCH!! >:3
 
Yes, yes...das sagt er im letzten Satz! Jedoch sagt er vorher ja, dass Nintendo baldig seinen Kimono des Schweigens, bezüglich der Wii U, ein wenig lüften dürfte. Und sie sind ja auch auf der PAX vertreten und Gearbox gibt dort eine Podiumsdiskussion oder dergleichen...

Jaja...ich klammere mich an jedem kleinen Strohalm! LASST MICH DOCH!! >:3
Ja gut, wenn man das so liest... ich denke, Nintendo wird zur E3 einen netten Striptease hinlegen ;-) Vorher glaube ich mittlerweile nicht mehr dran, nett wäre es aber natürlich :D
 
Mal was anderes interessantes ausm Gaf:


Spekulation User 1
I've been thinking about the GPU a bit recently, and in particular what we can infer from the decision to use an R700 series (Radeon HD4xxx) chipset in the development kits. Firstly, we know that the Wii U's GPU is, to some extent, a custom chip. It may well be based around an existing chip, but at the very least it has 32Mb of eDRAM onboard, and quite possibly some other extra stuff we don't know about. We also know that it began development in 2009. We can expect that in 2009 and early 2010 Nintendo and AMD settled down on the basic specifications for the chip, ie the number of SPUs, TMUs and ROPs, the use of VLIW5, VLIW4 or GCN architectures, and the intended manufacturing node. Now, sometime in late 2010 or early 2011, when Nintendo were putting together the first dev kits to be sent out to third parties, the GPU quite obviously wasn't ready, so they had to go with one of AMD's off the shelf cards as a stand-in, and they chose one from the R700 line (I've heard the HD4830, but I don't know if we've got confirmation of this).

Why did they do this?

We can pretty safely say that whatever GPU ends up in the Wii U, it will be manufactured at a 40nm or smaller process. Why then go with an older 55nm card when there were plenty of 40nm HD5xxx and HD6xxx cards available which could provide pretty much identical performance with a lower power draw? What characteristic does the Wii U's GPU share with the HD4xxx series that it doesn't with any card in the HD5xxx or HD6xxx lines? There's only one aspect that I can think of:

The HD4xxx series were the only 640 SPU cards available at the time the dev-kits were being put together.

This is actually a fairly sensible reason for putting a R700 series card in the dev kit; Nintendo had settled on a core configuration with 640 SPUs (and perhaps 32 TMUs and 16 ROPs), so a HD4830 would naturally have been the best fit for a development kit. I don't think it would be a stretch to say that this is good evidence for the final GPU being a 640 SPU part.

Now comes the real speculation. Early this year, we started to get reports that developers were getting new development kits with a performance boost over previous kits. That's the sort of thing you'd expect to hear if Nintendo replaced the R700 stand-in card with an early production version of the actual Wii U GPU. This lines up exactly with AMD's new 28nm HD7xxx series coming off the production line, and in particular the HD7770 (Cape Verde), their first 640 SPU part since the HD4xxx series. The HD7770, clocked down to about 600MHz-700Mhz, would fit pretty much perfectly into Nintendo's requirements as far as performance, size and heat are concerned.

Nintendo approached AMD in 2009 looking for a reasonably powerful, but low-wattage GPU to put in their mid-2012 console. It's not unreasonable to speculate that AMD said "we've got a 640 SPU part on a 28nm process planned for late 2011, how about we customise something around that?". It explains why they went with a HD4xxx card in the dev kits, it explains why the dev kit power boost came when it did, and it fits very neatly to what we've heard about performance and power consumption.

And to the inevitable "Nintendo would never do 28nm" responses, keep in mind that Nintendo have always used the smallest available node in manufacturing their hardware, right back to the 350nm chips in the N64. Also this would have been decided back in 2009/2010, when it would have been reasonable to expect the 28nm node to be ready for a 2012 reasonably-priced console. In fact, the push back of the release date from the summer could well be due in part to a desire to wait until the yields on 28nm chips increase.

We also have to consider whether NEC (now Renesas), who manufactured the Gamecube and Wii GPUs, and we can expect are first in line to manufacture the Wii U GPU, are capable of manufacturing at 28nm. As it happens, NEC announced a deal back in 2009 (when Nintendo would have been making the decision) with none other than IBM, to manufacture 28nm chips at East Fishkill, New York, in the very same facility which the Wii U's CPU is being manufactured. How's that for a coincidence?

Spekulation User 2
Also if Sony is really using a Southern Islands chip, I can't imagine them using a chip bigger than a HD7870, if our speculation of the 7700 range is right, that means the GPUs are comparable, the 7870 is twice what the 7770 is.

These will likely be customized cards, and in Wii U's case, likely won't resemble the HD7770 but should have performance somewhere around it.

TL:DR PS4 at best, about twice the graphical power of where we think Wii U's GPU will be. Also Wii U and Xbox3's architecture will have much more in common then PS4's (confirmed if AMD CPU in P4 is true) leaves less room for easy ports for PS4.
 
Was wollt ihr mir erklaeren? Ich habe die entscheidung von nintedo schon seit gefuehlten 5 seiten abgehakt und den resisitiven bildschirm ja auch seine vorteile eingeraeumt.

Es gibg mir nur um multitouch, das laut aussage in diesem thread, ja auch auf einem resisitven screen moeglich waere.

Und veispiele werd ich jetzt keine weiter nennen. Warum? Ich nannte berwits welche und egal as ich jetzt nenne, das erste kommentar von dir in einem antwortpist wird lauten"fail!"

Ich verschwinde jetzt wieder aus dem thread.
Gibt einige hier mit denen man echt toll ueber sowas schreiben kann, aber du mein lieber roylet gehoerst nicht dazu.

Es ist deswegen ein "Fail", weil du Seitenlang darüber geschrieben hast, ohne selbst mal gute Argumente anzuführen (bzw. es sehr lange gedauert hat, bis du z.B. mit Beispielen ankamst). Man hatte das Gefühl, dass du Argumente von anderen verlangst, aber selbst ungerne welche bringen möchtest. Dabei haben sich andere sogar die Mühe gemacht, dich aufzuklären und haben sogar Argumente geliefert und es hat lange gedauert, bis da eine Erkenntniss von dir kam.
Und das es dir nur um den Multiscreen ging, ist ja nun auch etwas gelogen. Siehe hier:

nenn mir doch bitte mal eine idee die nicht einem minispielchen gleicht für die der touchbildschirm gut ist?

Hier scheint es dir nicht länger um Multitouch zu gehen, sondern allgemein über den Nutzen eines Touchscreens. Ich habe dir sogar ausführlich erläutert, wieso Multitouch ein NoGo ist auf so einem Pad. Ich liste es aber gerne nochmal auf (weil du ja meintest man könnte mit mir nicht diskutieren):

- weniger Präzission
- teilweise Probleme wegen Hautleitfähigkeit
- versehentliche Berührungen (egal wie sanft) führen sofort zu einer Aktion
- um einiges teurer wenn man eine gute Qualität verbaut
- sinnfrei, da man für Multitoucheingaben den Screen aus der Hand nehmen müsste, bzw. ihn auf den Schoß legen muss um Multitoucheingaben tätigen zu können

Ich schrieb ja sogar, dass deine Ideen ganz nett sind. Dennoch führen sie wie gesagt dazu, dass ich den Screen z.B. aus der Hand nehmen muss und das somit nicht in Coregames wie Shootern praktikabel ist. Ist zwar schön, dass es dann vielleicht 2-3 Spiele in der gesamten WiiU Laufzeit gibt, die vielleicht Coregames sind und diesen Screen sinnvoll nutzen, aber ganz ehrlich: Für 3 Games würde ich nicht die ganzen obigen Nachteile in Kauf nehmen müssen und für IPhone/Android Games sowieso nicht.

Das UPad bietet so schon genug Eingabemöglichkeiten. 2 Analogsticks, Schultertasten, Buttons, Sensorleiste für Wiimote, Motioncontrol... Da kann man auf einen Multitouch wohl verzichten.

Falls mein Text ein wenig fies rübergekommen ist, entschuldige ich mich dafür, dass Fail im vorigen Post hätte ich vielleicht wirklich stecken lassen sollen.
 
Zuletzt bearbeitet:
Die erste Spekulation die dort der GAF User aufgeführt hat, die hat es wirklich in sich.
Alles ist ja eigentlich reine Spekulation und an und für sich ist es schönes Gedankengut, ohne Hand und Fuß. Aber dann haut er dem leser den letzten Absatz um die Ohren und diese beginnen dann doch ein wenig zu schlackern...das wären dann doch ein paar Zufälle zuviel und ich könnte mir gut vorstellen das damit seine Spekulationen doch fast in Richtung Realität wandern.

Nur, dumm wie ich leider bin (meine Mutter hat während der Schwangerschaft mehr Tabak als Atemluft konsumiert), lässt mich das immer noch nicht so wirklich auf eine gnadenlos gute und optimierte Hardware schließen oder etwas Nintendospezifisches und damit vllt. einfach nicht viel mehr als der Standard, gepaart mit Eigenheiten ohne großen Mehrwert.
 
Eine 28nm GPU wäre natürlich klasse. Noch ein Stück mehr Leistung bei gleichem Verbrauch.
Bleibt halt die Frage, ob Nintendo wirklich eine einbaut und, ob die Produktion überhaupt schon weit genug ist, eine neue Konsole damit zu versorgen :-?
 
Na, toll! :mad:

Muss ich wohl doch nackig durch die Stadt flitzen, was? :v:

Und plötzlich passt amd's Aussage im Februar zu "Mobil hd 7*** sind fertig werden aber noch nicht für Notebook Hersteller hergestellt" Werden die Fabs für BigN gerade gebraucht?

Vielleicht wird's mit den ganzen Optimierungen sogar von der Leistung eine HD 7790!
 
Immer her damit :D!

Möge Nintendo meinen Unglauben bestrafen!
Offtopic:
Müsste es nicht "I am the Lord of Deadside! - Shadow Man" in deiner Sig heißen? Bin richtiger Fan des Spiels, und so hab ich das in Erinnerung. Freut mich aber, dass es hier auch einen gibt der das Spiel so sehr feiert. :)
 
Es würde keinen Sinn machen die CPU in 40/45nm und die GPU in 28nm anfertigen zu lassen.
Beide Komponenten sollten möglichst mit dem gleichen Prozess hergestellt werden um beide später in einem Chip zu integrieren.
Ich würde bei der CPU auf 40nm tippen.
Nach den letzten Gerüchten könnte man von einem RV740 Derivat ausgehen.
Dieser schafft immerhin 700GFlops, glaub letztendlich werdens aber weniger weil man den Takt etwas verringern wird.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom