Wii U Wii U

Status
Nicht offen für weitere Antworten.
Wenn man nichts genaues hat muss man spekulieren. Das ist nun mal so.
Aber bei den Spekulationen sollte man auch von empirschen Daten ausgehen und von den statistisch wahrscheinlichsten.
Und wenn man das macht kommt man zu dem Schluss, dass zwei GPUs in einem Dev-Kits nur Sinn machen, wenn sie zusammen mehr leisten als eine einzelne Karte. Klar kann man sagen, möglich ist dies und das, nur wie wahrscheinlich ist es ?
Und da muss ich feststellen, dass von mancher Seite hier gerne mal das unwahrscheinlichste Szenario angenommen wird, sowohl was die finale Hardware der Wii-U als auch der X3 angeht.

Die hier angeführten Argumente des niedrigeren Stromverbrauchs zweier Karten sind schon mal totaler Schwachsinn und das habe ich auch schon mehrfachs widerlegt. Sie verbrauchen bei gleichen Daten nicht weniger Strom als eine einzelne, eher umgekehrt. Außerdem spielt der Stromverbrauch bei einem Dev-Kits mal so was von überhaupt keine Rolle.
Jeder 08/15 User schafft es einen PC mit einer hochgezüchteten GPU stabil zum laufen zu bringen. High-End Gamer PCs besitzen gar zwei der stärksten GPUs. Und die X3 Alpha-Dev-Kits werden, wie schon die der 360, aus ganz normalen Tower Gehäusen bestehen. Da ist genug Platz um ordendliche Verlustleistung abzuführen.
Da will mir hier echt jemand erzählen MS wäre nicht in der Lage ein Dev-Kit zu fertigen, was mit nur einer High-End Karte stabil läuft ?
Das ist doch kompletter Kokolores.

Der einzige Grund beim PC mit zwei schwächeren GPUs zu arbeiten ist der, dass man schon eine GPU-Karte besitzt und sich für kleines Geld eine zweite dazu kauft. Oder eben dass beide Karten zusammen mehr leisten als das Flagschiff und dabei nicht mehr kosten.
Beides trifft auf Dev-Kits aber mit nichten zu.
Vielleicht stecken ja in den X3 Dev-Kits überhaupt keine zwei GPUs. Aber wenn, dann sind sie auch stärker als das Flagschiff. Wer etwas anderes behauptet sollte das mit konkreten und vor allem auch plausiblen Gründen belegen.


Klingt absolut logisch und verstaendlich und ich denke das kannmman so stehen lassen.
Aber um zum thema wiiu zurueckzukehren:

Wird die eigentlich abwaertskompatibel zu wii spielen?
Da koennte ich meine wii im prinzip ja jetzt schon abstossen....spiele eh kaum damit und jetzt wueder es noch etwas mehr geld dafuer geben als in einem jahr.

Und da wir schonmal dabei sind: wie sieht es mit gamecube aus?
 
Wii: ja
Gamecube: Gerüchteweise per Download, ansonsten die einzige stationäre Nintendokonsole, die nicht unterstützt wird.
 
Klingt absolut logisch und verstaendlich und ich denke das kannmman so stehen lassen.
Aber um zum thema wiiu zurueckzukehren:

Wird die eigentlich abwaertskompatibel zu wii spielen?
Da koennte ich meine wii im prinzip ja jetzt schon abstossen....spiele eh kaum damit und jetzt wueder es noch etwas mehr geld dafuer geben als in einem jahr.

Und da wir schonmal dabei sind: wie sieht es mit gamecube aus?
Völlig abwärtskompatibel zur Wii incl. Eingabegeräten, Cube nein.

Habe Konsolenbaby auch nicht die Logik abgesprochen, mir sind Fakten nur lieber, wenn ich irgendwas so stehenlassen will ;) Empirisch lässt sich nur die Erwartungshaltung feststellen, was nicht viel wert ist. Wenn wir Glück haben gibts echte Leaks bis zur nächsten E3
 
Lassen wir mal die ewigen Fraktionenvorwürfe weg^^

Wir wissen nichtmal ob das Gerücht stimmt und wenn es stimmt kann es eben viel bedeuten. Wer sagt denn, dass MS überhaupt die gleichen Daten wie eine absolute highend karte ansteuert? Vielleich ist der Aufbau der Konsole anders, als du es dir vorstellst? Du gehst imo zu sehr vom PC aus. Wobei ich gar nicht sage das du unrecht hast, mir gefällt nur der Absolutheitsanspruch nicht wirklich. Kannst du verneinen, dass man mit 2 kleinen GPUs die weit niedriger getaktet sind, abwärme, Strom whatever spart? Was ist mit 2 GPus gemeint, da gibts auch verschiedene Lösungen oder? Auch schwebt immer noch das Fusion Gerücht über den Next Gen Konsolen. Ich würde einfach nichts ausschließen, bevor wir es nicht wirklich wissen.

Du begründest deine Spekulationen gut, muss man anrechnen, aber ich sehe wie viele andere eben auch Microsofts Situation, die 360er verkauft sich extrem in Amerika und das nicht nur wegen den Cores und Casualshootern ;) Klar werden sie 2 SKUs veröffentlichen, aber imo mit den selben Spezifikationen, eine halt abgespeckt wie bei der 360er (vielleicht extremer ohne Laufwerk).

Wie auch immer, ich nehme nichts als Fakt hin, bis es auf dem Papier steht.

Es geht darum, dass zwei schwache PC GPUs keinerlei Vorteile ggü. einer einzelnen stärkeren aufweisen. Eher Nachteile.
Ich glaube, hier besteht ein grundsätzliches Missverständnis was eine starke GPU stark macht.
Eine starke GPU ist nicht aufgrund höherem Takt stärker, sondern weil sie mehr Rechenwerke beinhaltet. Die Flagschiffe werden dann zusätzlich noch etwas höher getaktet aber die eigentliche Mehrleistung resultiert aus der höheren Anzahl der Rechenwerke.

Also warum soll ich zwei GPUs mit X Rechenwerken einbauen wenn ich auch eine einzelne nehmen kann mit zwei X Rechenwerken.
Das macht doch überhaupt keinen Sinn.
Anders im Mobilbereich. Dort werden GPUs aus einheitlichen Modulen aufgebaut. Je nach erwünschter Leistung schaltet man mehrere Module zusammen. Deshalb besitzt die Vita und das Ipad 2 die gleichen GPUs. Nur werden in der Vita vier GPU Module zusammen geschaltet und im Ipad 2 nur zwei. Das hat aber nichts mit dem doppelten GPU Betrieb beim PC zu tun. Dort werden zwei GPUs parallel betrieben weil auf einen einzelnen Chip einfach nicht mehr an Recheneinheiten drauf passen. Es ist also notwendig.
Bei den Mobilchips sieht das aber anders aus. Dort werden GPU Module aus wirtschaftlichen Gründen genutzt. So wie bei PC CPUs, bei denen ja auch mehrere Kerne auf einen Chip passen und je nach Anwendungsfall die gleichen Kerne einfach Modulartig zu größeren Chips zusammen geschaltet werden.

Bei den PC GPUs ist das aber eben nicht der Fall
Konkretes Beispiel.
Die derzeitige aktuelle AMD GPU-Generation besteht aus der HD 6000 Serie.
Das Ein-Chip Flagschiff, die HD 6970 verfügt über 1536 Streamingprozessoren welche im Referenzdesign mit 880Mhz betrieben werden.
Ergibt eine theoretische Rechenleistung von 2703Gflops oder 2,7 Terraflops.

Jetzt nehme ich zwei HD 6750 mit je 720 Streamingprozessoren und 700Mhz Takt.
Ergibt eine Gesamtleistung von 2 Terraflops.

Was habe ich da jetzt gewonnen ?
Beide Karten verbrauchen zusammen maximal ca. 160 Watt und leisten ca. 30% weniger als die HD 6970, welche 270 Watt verbrät.
Geht es mir nur um die Leistung kann ich aber auch eine HD 6870 reinpacken die ebenfalls 2 Terrawatt verbraucht und auch nur 155 Watt maximal sich saugt.

Da die Treiber die Aufteilung auf die verschiedenen Streamingprozessoren bewerkstelligen ist es auch ziemlich egal, wie viele Streamingeinheiten ich für eine gewissen Leistung benötige. Dass nur für den Fall jemand argumentiert, es stecken eben zwei GPUs in den Dev-Kits da man nur so auf eine ganz bestimmte Anzahl von Streamingprozessoren kommt.
Ergibt auch keinen Sinn und wäre zu aufwendig.
Lieber nimmt man eben eine Karte mit ein paar mehr Streamingprozessoren und taktet diese etwas runter um auf die gleiche Performance zu kommen.

Wie du sieht sehe ich überhaupt keinen Grund ein Dev-Kit mit zwei GPUs auszustatten, wenn diese Lösung nicht mehr Leistung als die stärkste zur Verfügung stehende Karte erbringen könnte.
 
Zuletzt bearbeitet:
Bei den PC GPUs ist das aber eben nicht der Fall
Konkretes Beispiel.
Die derzeitige aktuelle AMD GPU-Generation besteht aus der HD 6000 Serie.
Das Ein-Chip Flagschiff, die HD 6970 verfügt über 1536 Streamingprozessoren welche im Referenzdesign mit 880Mhz betrieben werden.
Ergibt eine theoretische Rechenleistung von 2703Gflops oder 2,7 Terraflops.

Jetzt nehme ich zwei HD 6750 mit je 720 Streamingprozessoren und 700Mhz Takt.
Ergibt eine Gesamtleistung von 2 Terraflops.

Was habe ich da jetzt gewonnen ?
Beide Karten verbrauchen zusammen maximal ca. 160 Watt und leisten ca. 30% weniger als die HD 6970, welche 270 Watt verbrät.
Geht es mir nur um die Leistung kann ich aber auch eine HD 6870 reinpacken die ebenfalls 2 Terrawatt verbraucht und auch nur 155 Watt maximal sich saugt.

Deiner Rechnung nach gehst du bei 2x Karten von einer doppelten Leistung aus. Das wäre mir aber neu. Die Verlustleistung bei SLI ist doch groß. Dazu noch deutlich mehr Abwärme, Lautstärke und am schlimmsten: Micro-Ruckler (http://www.youtube.com/watch?v=CbME2RIQ_Bc http://www.youtube.com/watch?v=jWYgu6i5wq4 grauenhaft).

Bsp: 2x 560GTX leisten zusammen nur 154% von 1x560GTX http://www.computerbase.de/artikel/...geforce-gtx-560-ti-sli/6/#abschnitt_3dmark_11
SLI müsste die Optimierung auch erschweren.
Und: Billige Karten fallen langsamer im Preis (in absoluten €-Beträgen). Damit würde eine (schnelle) Preissenkung erschwert gegenüber einer teureren 1x-GPU Lösung.
 
Zuletzt bearbeitet:
Deiner Rechnung nach gehst du bei 2x Karten von einer doppelten Leistung aus. Das wäre mir aber neu. Die Verlustleistung bei SLI ist doch groß. Dazu noch deutlich mehr Abwärme, Lautstärke und am schlimmsten: Micro-Ruckler (http://www.youtube.com/watch?v=CbME2RIQ_Bc http://www.youtube.com/watch?v=jWYgu6i5wq4 grauenhaft).

Bsp: 2x 560GTX leisten zusammen nur 154% von 1x560GTX http://www.computerbase.de/artikel/...geforce-gtx-560-ti-sli/6/#abschnitt_3dmark_11
SLI müsste die Optimierung auch erschweren.
Und: Billige Karten fallen langsamer im Preis (in absoluten €-Beträgen). Damit würde eine (schnelle) Preissenkung erschwert gegenüber einer teureren 1x-GPU Lösung.


Is nich boese gemeint....aber manchmal glaube ich ihr wollt garnicht verstehen was er seit 10 kommentaren logisch versucht zu erklaeren:

Wenn in den dev kits 2 grakas drinnen sind, so wie es die geruechte momentan nunmal besagen, dann nur, weil zum zeitpunkt der herstellung der devkits keine graka auf dem markt war die alleine so schnell,war wie die 2 verbauten gpus.

Wo zur hoelle ist da das problem?

Heisst einfach:
Die eingebauten grakas ergeben zusammen mehr leistung als das damalige spitzenmodell zum zeitpunkt der devkitproduktion.

Ist das wirklich so schwer zu verstehen?
 

Ich persönlich glaube ja nicht, dass es so eine Art Redisgn geben wird.
Bei einer WiiU-Mote wird grundsätzlich bestimmt genau dasselbe sein, wie eine WiiMote.
Also die WiiU-Mote wird man auch für die Wii nutzen können.

Das Redesign wird sich wohl eher auf Sachen beziehen, wie
die Form vllt. etwas verändern,
etwas bessere Speaker,
vllt. die Positionierung und Größe der Knöpfe ändern,
WiiMotionPlus wird in jeder WiiUMote eingebaut sein
und das Logo wird selbstverständlich von "Wii" auf WiiU" umgeändert.
Achja und Akkus natürlich.

Der Nunchuk wird wohl ziemlich gleich bleiben, nur eben auch mit Akkus und Wireless^^

Also ich behaupte: Die WiiU-Mote wird eigentlich im Grunde genau dasselbe, wie die WiiMote sein, sodass man diese sogar für die Wii verwenden könnte^^
 
ich finde das Design der Remotes in deinem Blo, Grid, ein bischen seltsam.Wie will man mit 2 Remotes gleichzeitig zocken.Also da bleib ih liebet beim Pad ;)
 
Na, erstmal abwarten ... bis das nächste Zelda kommt, wird wohl noch einige Zeit vergehen und ich kann mir nicht wirklich vorstellen, dass man den Tablet-Controller bei einem so wichtigen Titel wie Zelda einfach so links liegen lässt.

Die Vorteile des WiiU-Kontrollers ist sein Screen. Da sind wir uns einig. Und er hat eine Sensorleiste eingebaut. Das ist bekannt. Also wird es auch einen Stand geben, welche die Akkus des Kontrollers wohl auch gleich laden wird.
Selbst wenn man den WiiU-Kontroller nicht in Händen hält, kann man ihn durchaus nutzen.

Aonuma sagte zwar, dass er die Motion-Steuerung gewiss nicht verwerfen will, aber er sagte mit keinem Wort, dass er den WiiU-Kontroller nicht nutzen möchte. Er kann durchaus beides benutzen.



Im Spiel nutzt man die bekannte Steuerung aus SS.
Auf dem WiiU-Kontroller sieht man die Karte und alle anderen wichtigen Informationen.
Man könnte den WiiU-Kontroller sogar aktiv nutzen, da es ja eine Sensorleiste gibt und man auf ihn pointen kann. Man müsste halt per Knopfdruck wechseln können.

Also ich kann mir das gut vorstellen. Der TV-Bildschrim zeigt lediglich das Spielgeschehen. Keine Herzen, keine Rubine, kein gar nichts. Ein Traum^^
 
Die Vorteile des WiiU-Kontrollers ist sein Screen. Da sind wir uns einig. Und er hat eine Sensorleiste eingebaut. Das ist bekannt. Also wird es auch einen Stand geben, welche die Akkus des Kontrollers wohl auch gleich laden wird.
Selbst wenn man den WiiU-Kontroller nicht in Händen hält, kann man ihn durchaus nutzen.

Aonuma sagte zwar, dass er die Motion-Steuerung gewiss nicht verwerfen will, aber er sagte mit keinem Wort, dass er den WiiU-Kontroller nicht nutzen möchte. Er kann durchaus beides benutzen.

Im Spiel nutzt man die bekannte Steuerung aus SS.
Auf dem WiiU-Kontroller sieht man die Karte und alle anderen wichtigen Informationen.
Man könnte den WiiU-Kontroller sogar aktiv nutzen, da es ja eine Sensorleiste gibt und man auf ihn pointen kann. Man müsste halt per Knopfdruck wechseln können.
Also ich kann mir das gut vorstellen. Der TV-Bildschrim zeigt lediglich das Spielgeschehen. Keine Herzen, keine Rubine, kein gar nichts. Ein Traum^^

Wir müssen einfach abwarten, was bis dahin passiert - das, was heute von den Entwicklern gesagt/angedacht ist, wird morgen wieder evtl. verworfen (siehe auch z.B. die relativ späte Implementierung von WM+ in Skyward Sword).

Ich persönlich wäre skeptisch, ob dein Beispiel so vernünftig durchführbar wäre und bin erst einmal überhaupt gespannt, was mit dem Wii U alles versucht wird :).
 
Is nich boese gemeint....aber manchmal glaube ich ihr wollt garnicht verstehen was er seit 10 kommentaren logisch versucht zu erklaeren:

Wenn in den dev kits 2 grakas drinnen sind, so wie es die geruechte momentan nunmal besagen, dann nur, weil zum zeitpunkt der herstellung der devkits keine graka auf dem markt war die alleine so schnell,war wie die 2 verbauten gpus.

Wo zur hoelle ist da das problem?

Heisst einfach:
Die eingebauten grakas ergeben zusammen mehr leistung als das damalige spitzenmodell zum zeitpunkt der devkitproduktion.

Ist das wirklich so schwer zu verstehen?

Ich habe mich nicht durch alle Seiten gelesen. Das ist zu verstehen, ja.
 
Der screen kann aber auch sein Verhängnis sein.Den ein Screen kann sehr leicht kaputtgehen.Und wenn das so passiert, muss man sich einen neuen Controller kaufen, welcher extrem viel kosten wird...
 
Der screen kann aber auch sein Verhängnis sein.Den ein Screen kann sehr leicht kaputtgehen.Und wenn das so passiert, muss man sich einen neuen Controller kaufen, welcher extrem viel kosten wird...

Der WiiU Controller hat keinen Bildschirm aus Glas. Daher ist das ding auch fast unverwüstlich, es sei denn, man kloppt mit Gewalt drauf ein. Als ich bei T-Mobile UK war, haben wir einige Prototypen von HTC, LG und Samsung zerstören müssen. Wir haben ausprobiert, wie man die weichen Kunstoff Touchscreens zerstören kann. Aber wir haben uns dabei sehr schwer getan. Selbst einen Kugelschreiber halten die lange aus, wenn du drauf einstichst. Bei gewöhnlichem Gebrauch passiert da rein gar nichts. Maximal Kratzer können entstehen, wenn man extrem unvorsichtig ist.
 
Wir müssen einfach abwarten, was bis dahin passiert - das, was heute von den Entwicklern gesagt/angedacht ist, wird morgen wieder evtl. verworfen (siehe auch z.B. die relativ späte Implementierung von WM+ in Skyward Sword).

Ich persönlich wäre skeptisch, ob dein Beispiel so vernünftig durchführbar wäre und bin erst einmal überhaupt gespannt, was mit dem Wii U alles versucht wird :).

Ja, daran habe ich auch gedacht, als ich meinen Beitrag schreiben wollte.
Aber dann habe ich mir gedacht "Die haben die perfekte Steuerung eigentlich schon entworfen und spaßiger als die SS-Steuerung ist nicht möglich". Deswegen bin ich auch recht überzeugt davon, dass sie wieder die MotionPlus-Steuerung einbauen werden.
Dass der WiiU-Kontroller als Anzeige von Karte und Information sinnvoll umzusetzen ist steht außer Frage für mich. Ob das mit dem Pointen ordentlich umzusetzen ist, ist eine andere Frage. Von dieser Teilidee bin ich selbst nicht zur gänze überzeugt. Die Aktive Nutzung des WiiU-Kontrollers ist noch ein großes Fragezeichen, aber der passive Gebrauch als Karte ist glasklar^^
 
Ja, daran habe ich auch gedacht, als ich meinen Beitrag schreiben wollte.
Aber dann habe ich mir gedacht "Die haben die perfekte Steuerung eigentlich schon entworfen und spaßiger als die SS-Steuerung ist nicht möglich". Deswegen bin ich auch recht überzeugt davon, dass sie wieder die MotionPlus-Steuerung einbauen werden.
Dass der WiiU-Kontroller als Anzeige von Karte und Information sinnvoll umzusetzen ist steht außer Frage für mich. Ob das mit dem Pointen ordentlich umzusetzen ist, ist eine andere Frage. Von dieser Teilidee bin ich selbst nicht zur gänze überzeugt. Die Aktive Nutzung des WiiU-Kontrollers ist noch ein großes Fragezeichen, aber der passive Gebrauch als Karte ist glasklar^^

sehe ich genauso!
Hoffe auch das sie die SS Steuerung weiter ausbauen und das der WiiU Controller als HUD verwendet wird :)
 
Ja, daran habe ich auch gedacht, als ich meinen Beitrag schreiben wollte.
Aber dann habe ich mir gedacht "Die haben die perfekte Steuerung eigentlich schon entworfen und spaßiger als die SS-Steuerung ist nicht möglich". Deswegen bin ich auch recht überzeugt davon, dass sie wieder die MotionPlus-Steuerung einbauen werden.
Dass der WiiU-Kontroller als Anzeige von Karte und Information sinnvoll umzusetzen ist steht außer Frage für mich. Ob das mit dem Pointen ordentlich umzusetzen ist, ist eine andere Frage. Von dieser Teilidee bin ich selbst nicht zur gänze überzeugt. Die Aktive Nutzung des WiiU-Kontrollers ist noch ein großes Fragezeichen, aber der passive Gebrauch als Karte ist glasklar^^

Das letzte Mal, als ich so etwas gemacht habe, war bei Wind Waker + GBA ... fand ich persönlich nicht so prickelnd.

Nintendo ist eigentlich stets bemüht, Sachen so simpel wie möglich händeln (zumindest in den letzten Jahren). Daher fällt es mir schwer, dass sie 2 Controller-Typen unterstützen werden ... evtl. als optionale "Spielerei", die man nicht zum Durchspielen braucht (was deine Spekulation zu Gute kommen würde) ;).
 
Das letzte Mal, als ich so etwas gemacht habe, war bei Wind Waker + GBA ... fand ich persönlich nicht so prickelnd.

Nintendo ist eigentlich stets bemüht, Sachen so simpel wie möglich händeln (zumindest in den letzten Jahren). Daher fällt es mir schwer, dass sie 2 Controller-Typen unterstützen werden ... evtl. als optionale "Spielerei", die man nicht zum Durchspielen braucht (was deine Spekulation zu Gute kommen würde) ;).
Ich gehe ja auch davon aus, dass eine WimotePlus und Nunchuk der WiiU beiliegt.
Dann kann man das nicht mehr mit WW+GBA vergleichen. Einen GBA war nicht beim GC dabei, also war es eine Spielerei.
Bei Zelda WiiU ist das dann eineeine Spielerei, die jeder WiiU-Besitzer sowieso nutzen kann.

Aber du bringst mich auf eine Idee. Diese Tingle-Spielerei könnte man jetzt wieder einbauen. Fand das damals recht cool. Nur dieses Mal sollte man Tingle sehen, wenn er herumfliegt mit seinem Balon.
 
Ich gehe ja auch davon aus, dass eine WimotePlus und Nunchuk der WiiU beiliegt.
Dann kann man das nicht mehr mit WW+GBA vergleichen. Einen GBA war nicht beim GC dabei, also war es eine Spielerei.
Bei Zelda WiiU ist das dann eineeine Spielerei, die jeder WiiU-Besitzer sowieso nutzen kann.
Aber du bringst mich auf eine Idee. Diese Tingle-Spielerei könnte man jetzt wieder einbauen. Fand das damals recht cool. Nur dieses Mal sollte man Tingle sehen, wenn er herumfliegt mit seinem Balon.

Hmmm ... ich denke auch nicht, dass Nintendo so viele Controller beilegen wird (höchstens in einer Art "Deluxe"-Box).

Aber wer weiß, was sie machen werden ... wir müssen uns halt bis zur E3 gedulden, wo Nintendos ihre Strategie mit der Wii U zeigen wird.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom