Wii U Wii U

Status
Nicht offen für weitere Antworten.
irgendwie widerspricht sich das ganze...wenn zelda zum Launch kommt,dann von wegen den 3rds viel Spielraum lassen ;)
 
Ok grad den Kommentar von Iwata gelesen, hatte ne ältere News von Ende letzten Jahres im Kopf.

Dann macht das mit zeitgleichem Release wirklich keinen Sinn. Zwei neue Geräte in einem Jahr bringt Nintendo sicher nicht auf den Markt. Schon garnicht so kurz nach der Ankündigung (falls diese wirklich auf der E3 kommt).
 
Ok grad den Kommentar von Iwata gelesen, hatte ne ältere News von Ende letzten Jahres im Kopf.

Dann macht das mit zeitgleichem Release wirklich keinen Sinn. Zwei neue Geräte in einem Jahr bringt Nintendo sicher nicht auf den Markt. Schon garnicht so kurz nach der Ankündigung (falls diese wirklich auf der E3 kommt).

Also rein technisch gesehen hätte der 3DS auch im selben Jahr der Ankündigung erscheinen sollen. Aber die neue Konsole in diesem Jahr zu bringen, wäre in der Tat ein Blitzstart. Ich weiß auch nicht, ob die Thirds dabei gute Produkte raushauen können.
Deswegen gehe ich schon weiterhin von einem 2012er Release aus!

Insbesondere, wenn die diesjährige E3 im Zeichen des 3DS stehen soll, laut Gerücht. (War aber schon vorher iwie klar...)
 
Es ist nicht ein Gerücht, es sind zig Gerüchte aus einer Quelle, ziemlich sicher frei erfunden. Wobei man sich einiges einfach denken kann, so ne Liste könnte selbst ich schreiben. Das mit Zelda vermute ich seit Ewigkeiten, das Sega und Co. zumindest ein Spiel dafür entwickeln werden sollte logisch sein, dass sich Nintendo mehr um die 3rds bemüht auch, genauso dass irgendein Shooter auf den 3DS geportet wird :awesome:
 
ja die gerüchte kamen schonmal auf. Pikmin halte ich für sehr wahrscheinlich, da man lange nichts mehr davon gehört hat für Wii. GTA wäre halte ich auch für realistisch. Wüsste nicht was dagegen spricht, wird es dann auf allen drei konsolen geben.
 
Also hier, whitepaper von IBM von 07.04.2011 auf Seite 2
Drei GFlop (Doubel Precision) pro Kern bei 1.6Ghz (Seite 3)
https://www-01.ibm.com/chips/techli...525763200547AED/$file/476fp_wp_04_07_2011.pdf

Bei höherer Taktrate natürlich mehr :)

Ja wobei auch da muss man etwas aufpassen, die Standardoperation in der Informatik (und übrigens auch für Videospiele) ist:

z = a*x+y

Das heißt eine Recheneneinheit, die was auf sich hält kann eine Multiplikation und eine Addition in einem Takt ausführen, daraus ergibt sich die Anzahl der GFlops automatisch als 2xTaktfrequenz. Das ist nichts besonderes und war schon zu Zeiten so, als ich noch studiert habe. Das heißt 2x 1,6 = 3,2 Ghz, wo die die 0,2 verlieren, weiß ich nicht ;-)

Wenn Du Dir das genauer anschaust, ist diese theoretische Zahl alleine nicht wirklich hilfreich bei der Einschätzung einer CPU. Es gibt zwei weitere wichtige Kenngrößen. Das eine ist der Datendurchsatz, am Beispiel für z = a*x+y musst Du Dir drei Werte holen, nämlich a,x und y und einen schreiben nämlich z. Da das doppelte Genauigkeit ist, hat ein Wert 64 Bit = 8 Byte. Das heißt, wenn Du die Einheit optimal auslasten willst musst Du pro Takt 3*8 = 24 Byte lesen und einmal 8 Byte schreiben.

1,6 GHz => 24*1,6 = 38 GByte/s lesen und 13 GByte/ s schreíben.

Egal welchen Monsterspeicher Du nimmst, da wirst du nichts finden, was das leisten kann außer statischem Speicher im Cache des Prozessors. Das heißt im schlimmsten Fall wartet deine Unit einfach nur auf Daten. Ein modernes Speicherkonzept mit 16-fach assoziativem Cache von x Megabyte und einem ausgeklügeltem Cache Management kann da einiges leisten. Leider finden sich da keine Werte in dem Papier, aber wenn die gut sind, holen die 3 der 4 Werte aus dem Cache. Als ich noch studiert habe waren gute WErte für einen Prozessor einen Wert von Vier aus dem Cache zu holen. Ich denke hier findet sich auch der Hauptpluspunkt einer modernen CPU gegen den Xenon...

Die zweite Kenngröße ist die Länge der Pipeline, denn je länger die ist, desto unwahrscheinlcher ist eine Vollauslastung des Prozessors. Ehrlich gesagt sind Pipelines mit 9 Stufen eher mittelprächtig, eine Länge von 4 wäre sicherlich auch möglich, kostet aber Fläche und ist teuer...

Aber ich gebe Dir Recht für den durchschnittlichen Wald- und Wiesen-Programmierer sind Gigahertzen besser als eine ausgeklügelte Architektur. Aber man muss sagen, dass die Kompiler sehr starke Fortschitte gemacht haben und vieles davon übernehmen...

Update: sorry dp ist natürlich 64 Bit, hätte doch kein Bier trinken sollen
 
Zuletzt bearbeitet:
Ja wobei auch da muss man etwas aufpassen, die Standardoperation in der Informatik (und übrigens auch für Videospiele) ist:

z = a*x+y

Das heißt eine Recheneneinheit, die was auf sich hält kann eine Multiplikation und eine Addition in einem Takt ausführen, daraus ergibt sich die Anzahl der GFlops automatisch als 2xTaktfrequenz. Das ist nichts besonderes und war schon zu Zeiten so, als ich noch studiert habe. Das heißt 2x 1,6 = 3,2 Ghz, wo die die 0,2 verlieren, weiß ich nicht ;-)

Wenn Du Dir das genauer anschaust, ist diese theoretische Zahl alleine nicht wirklich hilfreich bei der Einschätzung einer CPU. Es gibt zwei weitere wichtige Kenngrößen. Das eine ist der Datendurchsatz, am Beispiel für z = a*x+y musst Du Dir drei Werte holen, nämlich a,x und y und einen schreiben nämlich z. Da das doppelte Genauigkeit ist, hat ein Wert 128 Bit = 16 Byte. Das heißt, wenn Du die Einheit optimal auslasten willst musst Du pro Takt 3*16 = 48 Byte lesen und einmal 16 Byte schreiben.

1,6 GHz => 48*1,6 = 77 GByte/s lesen und 26 GByte/ s schreíben.

Egal welchen Monsterspeicher Du nimmst, da wirst du nichts finden, was das leisten kann außer statischem Speicher im Cache des Prozessors. Das heißt im schlimmsten Fall wartet deine Unit einfach nur auf Daten. Ein modernes Speicherkonzept mit 16-fach assotiativem Cache von x Megabyte und einem ausgeklügeltem Cache Management kann da einiges leisten. Leider finden sich da keine Werte in dem Papier, aber wenn die gut sind, holen die 3 der 4 Werte aus dem Cache. Als ich noch studiert habe waren gute WErte für einen Prozessor einen Wert von Vier aus dem Cache zu holen. Ich denke hier findet sich auch der Hauptpluspunkt einer modernen CPU gegen den Xenon...

Die zweite Kenngröße ist die Länge der Pipeline, denn je länger die ist, desto unwahrscheicher ist eine Vollauslastung des Prozessors. Ehrlich gesagt sind Pipelines mit 9 Stufen eher mittelprächtig, eine Länge von 4 wäre sicherlich auch möglich, kostet aber Fläche und ist teuer...

Aber ich gebe Dir Recht für den durchschnittlichen Wald- und Wiesen-Programmierer sind Gigahertzen besser als eine ausgeklügelte Architektur. Aber man muss sagen, dass die Kompiler sehr starke Fortschitte gemacht haben und vieles davon übernehmen...

OK, ich nehme mal an, dass du meinen ersten Post dazu nicht gelesen hast. :)

Darin ging es ja gerade darum, dass GFlop bei Prozessoren nicht viel aussagen.
Wenns danach ginge, müsste der Xenos schneller sein da er theoretisch leicht mehr Gflop bei Double-Precison leistet als ein 16Core 476 bei 1,6Ghz.

Aber ich glaube auch nicht, dass im nächsten Wii ein IBM 476pf steckt. Der ist vornehmlich für geringe Verlustleistung konzipiert. Pro Kern schluckt der gerade mal 1,2 Watt.
Und auch wenn er aufgrund seiner Architektur vielleicht doppelt so stark sein sollte wie der Xenon, ein anderer Prozessor, der mehr auf Leistung als auf geringe Verlustleistung abzielt dürfte bei gleichem Preis einiges mehr leisten.

Eine stationäre Konsole muss auch nicht so stromsparend arbeiten, da sie nun mal am Netz hängt.
Verstehe bis heute nicht warum Nintendo beim Wii auf dieser Schiene gefahren ist.
Beim Wii2 sollte lieber auf Preis/Leistung gesetzt werden und nicht auf niedrigen Stromverbrauch.
Kein Mensch hat was von einer stationären Konsole die nur 18Watt verbraucht wie die Wii.
 
Zuletzt bearbeitet:
Naja es sind nur Gerüchte, aber wenn das stimmt, dass Skyward Sword in der Zeit rauskommt wie Der Wii-Nachfolger.... dann wird es einen WiiHD/Wii2/Project Café Port geben... oder es heisst, das Nintendo den Wii-NAchfolger bereits 2011 auf den Markt schmeisst? WTF?! Oder Zelda SKSW Release 2012 Confirmed?
Weil Nintendo nun einmal einen Titel einer toten Konsole auf dem Nachfolger und der toten Konsolen released hat, muss jeder Titel zweispurig fahren?
 
Eine stationäre Konsole muss auch nicht so stromsparend arbeiten, da sie nun mal am Netz hängt.
Verstehe bis heute nicht warum Nintendo beim Wii auf dieser Schiene gefahren ist.
Beim Wii2 sollte lieber auf Preis/Leistung gesetzt werden und nicht auf niedrigen Stromverbrauch.
Kein Mensch hat was von einer stationären Konsole die nur 18Watt verbraucht wie die Wii.

WiiConnect24.

Hat zwar im Endeffekt auch nicht geändert, aber das war sicher der Hintergrund Gedanke.
 
What...16? Kerne, echte Kerne oder SMT?. Kenne keine CPU die 16 echte Kerne aufweist o_0

Wie wärs mit 100 echten Cores?!
http://www.tilera.com/products/processors/TILE-Gx_Family

Bitte geht nicht immer nachdem was momentan oder in Zukunft in PC's verbaut ist (wird).
Abseits der X86 Krücken gibt's ne Menge andere Prozessor-Hersteller die weitaus
effizieneter arbeiten. Warum wohl wird für Embedded-Systeme inkl. Handy's ein ARM
genommen?!

X86 ist Steinzeit...das dürfte wenn überhaupt noch der AMD-Bulldozer ändern,
ansonsten sind andere Architekturen einfach ''besser''.

Bei Big-N verlass ich mich einfach drauf das sie das bestmögliche Preis-/Leistungsverhältnis
nehmen und den Core-Markt zurückgewinnen.
 
Zuletzt bearbeitet:
Ist ja alles gut und schön mit den vielen Kernen. Hoffentlich gibts dann auch ordentlichen Tool-Support von Nintendo/AMD/IBM.
 
@Calamary
Das habe ich auch schon öfter mal ins Spiel gebracht, einen Arm-Cluster mit mehr als 16 Kernen.

Da wird das Argument mit den maximal 16 auslastfähigen Kernen entgegnet, obwohl Tim Sweeney über die kommende Unreal Engine 4 verlauten ließ, sie sei für sehr viele Prozessorkerne konzipiert und die Grafik verwende nur noch allgemeinen Programmcode, und wird nur über den Compiler skaliert.

Dein Link is ja der Hammer so ein Chip mit 100 Kernen, noch dazu von einem weniger bekannten Hersteller, was die Kosten für den Lizensnehmer bzw. Käufer beträchtlich sinken lassen würde.

Man stellt euch sowas mal als Nintendos E3-Überraschung vor, da könnten sie aber langsam anfangen sich Raytracing näher anzusehen. :o
 
Zuletzt bearbeitet:
Ist ja gut, pitti, nun beruhig dich wieder ;). Ausgerechnet Nintendo unternimmt Bemühungen sich Raytracing zu nähern... wenn man sich vor Augen hält, dass 90% der Wii-Spiele (überspitzt) aussehen wie vor 10 Jahren auf der PS2, ist das einfach so arg absurd :ugly:.
Deswegen backe ich mal ganz bewusst kleine Brötchen - Nintendos Inhouse-Serien auf dem Niveau des aktuellen Standards würden mich schon in Ekstase bringen.
Zelda in HD sollte zwar schon seit Jahren überfällig sein, aber mal ehrlich, das hätten wir alle nicht überlebt, gut dass uns Nintendo noch ein bisschen Zeit gegeben hat :).
 
Ist ja gut, pitti, nun beruhig dich wieder ;). Ausgerechnet Nintendo unternimmt Bemühungen sich Raytracing zu nähern... wenn man sich vor Augen hält, dass 90% der Wii-Spiele (überspitzt) aussehen wie vor 10 Jahren auf der PS2, ist das einfach so arg absurd :ugly:.
Deswegen backe ich mal ganz bewusst kleine Brötchen - Nintendos Inhouse-Serien auf dem Niveau des aktuellen Standards würden mich schon in Ekstase bringen.
Zelda in HD sollte zwar schon seit Jahren überfällig sein, aber mal ehrlich, das hätten wir alle nicht überlebt, gut dass uns Nintendo noch ein bisschen Zeit gegeben hat :).

lol. Aber absolut richtig. Irgendwie kann mans kaum erwarten Link, Samus, Captain Falcon und Konsorten in HD zu sehen. Das is irgendwie son mieser Trick von Nintendo. Wie son unfassbar langes Vorspiel oder so.

Btw. Warum kommt Sonic Generations nicht für die Wii. Sonst hat die Wii doch auch immer ordentlich Sonic Liebe bekommen. Vllt Wii² :D?

PS:

http://paulgalenetwork.com/home/201...n-a-project-everyone-wants-us-to-do-on-wii-2/

Darüber was Retro Studios am laufen hat:
What could they be working on? Something that “everyone wants them to do”

kA wie sicher die Quelle ist, ist wohl irgendein VG Journalist, war bei 1up, EGM & co
 
Zuletzt bearbeitet:
OK, ich nehme mal an, dass du meinen ersten Post dazu nicht gelesen hast. :)

Darin ging es ja gerade darum, dass GFlop bei Prozessoren nicht viel aussagen.
Wenns danach ginge, müsste der Xenos schneller sein da er theoretisch leicht mehr Gflop bei Double-Precison leistet als ein 16Core 476 bei 1,6Ghz.

Aber ich glaube auch nicht, dass im nächsten Wii ein IBM 476pf steckt. Der ist vornehmlich für geringe Verlustleistung konzipiert. Pro Kern schluckt der gerade mal 1,2 Watt.
Und auch wenn er aufgrund seiner Architektur vielleicht doppelt so stark sein sollte wie der Xenon, ein anderer Prozessor, der mehr auf Leistung als auf geringe Verlustleistung abzielt dürfte bei gleichem Preis einiges mehr leisten.

Eine stationäre Konsole muss auch nicht so stromsparend arbeiten, da sie nun mal am Netz hängt.
Verstehe bis heute nicht warum Nintendo beim Wii auf dieser Schiene gefahren ist.
Beim Wii2 sollte lieber auf Preis/Leistung gesetzt werden und nicht auf niedrigen Stromverbrauch.
Kein Mensch hat was von einer stationären Konsole die nur 18Watt verbraucht wie die Wii.

Also die 1,2 Watt sind nur die Schätzung und stehen da auch sehr verklausiert, ob das wirklich die Leistung bei 1,6 GHz ist, kann ich so nich nicht unterschreiben.
Ansonten finde ich schon, dass Verlustleistung ein wichtiges Kriterium ist. Wenn die Konsole mehr als ca. 100-150 W verbraucht, wird es schwer diese leise zu kühlen. Ich habe wirklich einen extrem leisen PC, aber für das Wohnzimmer, wäre mir der noch zu laut...

Ich denke aber der Prozessor passt nicht zur Beschreibung und Multicores sind schwer zu programmieren. Ich denke mal, 3 richtig starke Kerne sind besser als jede Menge virtuelle und reale Kerne, die kaum effizient genutzt werden...

Virtuelle Kerne sind zwar das Wundermittel in meiner täglichen Arbeit, aber für Videospiele nicht sehr sinnvoll...
 
Wie wärs mit 100 echten Cores?!
http://www.tilera.com/products/processors/TILE-Gx_Family

Bitte geht nicht immer nachdem was momentan oder in Zukunft in PC's verbaut ist (wird).
Abseits der X86 Krücken gibt's ne Menge andere Prozessor-Hersteller die weitaus
effizieneter arbeiten. Warum wohl wird für Embedded-Systeme inkl. Handy's ein ARM
genommen?!

X86 ist Steinzeit...das dürfte wenn überhaupt noch der AMD-Bulldozer ändern,
ansonsten sind andere Architekturen einfach ''besser''.

Bei Big-N verlass ich mich einfach drauf das sie das bestmögliche Preis-/Leistungsverhältnis
nehmen und den Core-Markt zurückgewinnen.

Symmetrisches Multitasking ist aber imho für CPU's abseits vom Number Crunching ziemlich sinnlos. Und viele viele symmetrische Kerne werden wir ja hoffentlich in der GPU finden. Ich sage mal ca. 400 Shader in der GPU voraus und hoffe auf 800 ;-)
 
Wie wärs mit 100 echten Cores?!
http://www.tilera.com/products/processors/TILE-Gx_Family

Bitte geht nicht immer nachdem was momentan oder in Zukunft in PC's verbaut ist (wird).
Abseits der X86 Krücken gibt's ne Menge andere Prozessor-Hersteller die weitaus
effizieneter arbeiten. Warum wohl wird für Embedded-Systeme inkl. Handy's ein ARM
genommen?!

X86 ist Steinzeit...das dürfte wenn überhaupt noch der AMD-Bulldozer ändern,
ansonsten sind andere Architekturen einfach ''besser''.

Bei Big-N verlass ich mich einfach drauf das sie das bestmögliche Preis-/Leistungsverhältnis
nehmen und den Core-Markt zurückgewinnen.

Stimmt, ARms und co sind effizienter als X86 und co.
ABER: Nur im Niedrigwattbereich. Denn dafür sind sie konzipiert.
Arms finden sich fast ausschließlich bei mobilen Geräten wie Handy, Handheldkonsolen, PDAs etc.

Im Desktop Bereich ist ARM unsinnig und auch in einer Stationären Konsole hat ein ARM nichts zu suchen.
Ein aktueller Cortex A9 mit vier Cores wie er sich in der NGP befindet leistet nur ein Bruchteil des über fünf Jahre alten Xenon (360 CPU)

Ich hab echt keinen Plan wer dieses Gerücht, ein ARM wäre das Allertollste in einer stationären Konsole, in die Welt gesetzt hat.
Denn auch das Preis/Leistungsverhältnis ist nur in dieser Niedrig-Watt-Abteilung bei ARM besser als bei anderen CPUs.
 
Symmetrisches Multitasking ist aber imho für CPU's abseits vom Number Crunching ziemlich sinnlos. Und viele viele symmetrische Kerne werden wir ja hoffentlich in der GPU finden. Ich sage mal ca. 400 Shader in der GPU voraus und hoffe auf 800 ;-)

Ausgehend von den 240 im Xenos der 360 sollten wohl mehr als 400 drin sein auch wenn durch eventuell höheren Takt und besserer Optimierung so eine GPU mehr als doppelt so schnell sein dürfte.
Bei 800 würde meine Rechnung mit 3-5 facher Leistung ggü. PS3/360 aufgehen, jedenfalls auf den GPU Teil bezogen :)

Also die 1,2 Watt sind nur die Schätzung und stehen da auch sehr verklausiert, ob das wirklich die Leistung bei 1,6 GHz ist, kann ich so nich nicht unterschreiben.
Ansonten finde ich schon, dass Verlustleistung ein wichtiges Kriterium ist. Wenn die Konsole mehr als ca. 100-150 W verbraucht, wird es schwer diese leise zu kühlen. Ich habe wirklich einen extrem leisen PC, aber für das Wohnzimmer, wäre mir der noch zu laut...

Ich denke aber der Prozessor passt nicht zur Beschreibung und Multicores sind schwer zu programmieren. Ich denke mal, 3 richtig starke Kerne sind besser als jede Menge virtuelle und reale Kerne, die kaum effizient genutzt werden...

Virtuelle Kerne sind zwar das Wundermittel in meiner täglichen Arbeit, aber für Videospiele nicht sehr sinnvoll...

Es sollte ja auch nur verdeutlichen, dass diese Prozessoren primär für den Niedrig-Watt-Bereich gefertigt werden.
Eine Aktuelle Desktop CPU verbrät unter Last 100 Watt, Topmodell entsprechend mehr.
Da sollte klar sein, dass da ein 20 Watt Prozessor nicht mithalten kann.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom