G
Gelöschtes Mitglied 17047
Guest
irgendwie widerspricht sich das ganze...wenn zelda zum Launch kommt,dann von wegen den 3rds viel Spielraum lassen 

Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
Ok grad den Kommentar von Iwata gelesen, hatte ne ältere News von Ende letzten Jahres im Kopf.
Dann macht das mit zeitgleichem Release wirklich keinen Sinn. Zwei neue Geräte in einem Jahr bringt Nintendo sicher nicht auf den Markt. Schon garnicht so kurz nach der Ankündigung (falls diese wirklich auf der E3 kommt).
Also hier, whitepaper von IBM von 07.04.2011 auf Seite 2
Drei GFlop (Doubel Precision) pro Kern bei 1.6Ghz (Seite 3)
https://www-01.ibm.com/chips/techli...525763200547AED/$file/476fp_wp_04_07_2011.pdf
Bei höherer Taktrate natürlich mehr![]()
http://www.nintendo-online.de/news/7992/geruecht-pikmin-3-und-gta-5-fuer-wii-nachfolger/
schon wieder ein gerücht.was hoffentlich stimmt
Ja wobei auch da muss man etwas aufpassen, die Standardoperation in der Informatik (und übrigens auch für Videospiele) ist:
z = a*x+y
Das heißt eine Recheneneinheit, die was auf sich hält kann eine Multiplikation und eine Addition in einem Takt ausführen, daraus ergibt sich die Anzahl der GFlops automatisch als 2xTaktfrequenz. Das ist nichts besonderes und war schon zu Zeiten so, als ich noch studiert habe. Das heißt 2x 1,6 = 3,2 Ghz, wo die die 0,2 verlieren, weiß ich nicht ;-)
Wenn Du Dir das genauer anschaust, ist diese theoretische Zahl alleine nicht wirklich hilfreich bei der Einschätzung einer CPU. Es gibt zwei weitere wichtige Kenngrößen. Das eine ist der Datendurchsatz, am Beispiel für z = a*x+y musst Du Dir drei Werte holen, nämlich a,x und y und einen schreiben nämlich z. Da das doppelte Genauigkeit ist, hat ein Wert 128 Bit = 16 Byte. Das heißt, wenn Du die Einheit optimal auslasten willst musst Du pro Takt 3*16 = 48 Byte lesen und einmal 16 Byte schreiben.
1,6 GHz => 48*1,6 = 77 GByte/s lesen und 26 GByte/ s schreíben.
Egal welchen Monsterspeicher Du nimmst, da wirst du nichts finden, was das leisten kann außer statischem Speicher im Cache des Prozessors. Das heißt im schlimmsten Fall wartet deine Unit einfach nur auf Daten. Ein modernes Speicherkonzept mit 16-fach assotiativem Cache von x Megabyte und einem ausgeklügeltem Cache Management kann da einiges leisten. Leider finden sich da keine Werte in dem Papier, aber wenn die gut sind, holen die 3 der 4 Werte aus dem Cache. Als ich noch studiert habe waren gute WErte für einen Prozessor einen Wert von Vier aus dem Cache zu holen. Ich denke hier findet sich auch der Hauptpluspunkt einer modernen CPU gegen den Xenon...
Die zweite Kenngröße ist die Länge der Pipeline, denn je länger die ist, desto unwahrscheicher ist eine Vollauslastung des Prozessors. Ehrlich gesagt sind Pipelines mit 9 Stufen eher mittelprächtig, eine Länge von 4 wäre sicherlich auch möglich, kostet aber Fläche und ist teuer...
Aber ich gebe Dir Recht für den durchschnittlichen Wald- und Wiesen-Programmierer sind Gigahertzen besser als eine ausgeklügelte Architektur. Aber man muss sagen, dass die Kompiler sehr starke Fortschitte gemacht haben und vieles davon übernehmen...
Weil Nintendo nun einmal einen Titel einer toten Konsole auf dem Nachfolger und der toten Konsolen released hat, muss jeder Titel zweispurig fahren?Naja es sind nur Gerüchte, aber wenn das stimmt, dass Skyward Sword in der Zeit rauskommt wie Der Wii-Nachfolger.... dann wird es einen WiiHD/Wii2/Project Café Port geben... oder es heisst, das Nintendo den Wii-NAchfolger bereits 2011 auf den Markt schmeisst? WTF?! Oder Zelda SKSW Release 2012 Confirmed?
Eine stationäre Konsole muss auch nicht so stromsparend arbeiten, da sie nun mal am Netz hängt.
Verstehe bis heute nicht warum Nintendo beim Wii auf dieser Schiene gefahren ist.
Beim Wii2 sollte lieber auf Preis/Leistung gesetzt werden und nicht auf niedrigen Stromverbrauch.
Kein Mensch hat was von einer stationären Konsole die nur 18Watt verbraucht wie die Wii.
What...16? Kerne, echte Kerne oder SMT?. Kenne keine CPU die 16 echte Kerne aufweist o_0
Ist ja gut, pitti, nun beruhig dich wieder. Ausgerechnet Nintendo unternimmt Bemühungen sich Raytracing zu nähern... wenn man sich vor Augen hält, dass 90% der Wii-Spiele (überspitzt) aussehen wie vor 10 Jahren auf der PS2, ist das einfach so arg absurd
.
Deswegen backe ich mal ganz bewusst kleine Brötchen - Nintendos Inhouse-Serien auf dem Niveau des aktuellen Standards würden mich schon in Ekstase bringen.
Zelda in HD sollte zwar schon seit Jahren überfällig sein, aber mal ehrlich, das hätten wir alle nicht überlebt, gut dass uns Nintendo noch ein bisschen Zeit gegeben hat.
OK, ich nehme mal an, dass du meinen ersten Post dazu nicht gelesen hast.
Darin ging es ja gerade darum, dass GFlop bei Prozessoren nicht viel aussagen.
Wenns danach ginge, müsste der Xenos schneller sein da er theoretisch leicht mehr Gflop bei Double-Precison leistet als ein 16Core 476 bei 1,6Ghz.
Aber ich glaube auch nicht, dass im nächsten Wii ein IBM 476pf steckt. Der ist vornehmlich für geringe Verlustleistung konzipiert. Pro Kern schluckt der gerade mal 1,2 Watt.
Und auch wenn er aufgrund seiner Architektur vielleicht doppelt so stark sein sollte wie der Xenon, ein anderer Prozessor, der mehr auf Leistung als auf geringe Verlustleistung abzielt dürfte bei gleichem Preis einiges mehr leisten.
Eine stationäre Konsole muss auch nicht so stromsparend arbeiten, da sie nun mal am Netz hängt.
Verstehe bis heute nicht warum Nintendo beim Wii auf dieser Schiene gefahren ist.
Beim Wii2 sollte lieber auf Preis/Leistung gesetzt werden und nicht auf niedrigen Stromverbrauch.
Kein Mensch hat was von einer stationären Konsole die nur 18Watt verbraucht wie die Wii.
Wie wärs mit 100 echten Cores?!
http://www.tilera.com/products/processors/TILE-Gx_Family
Bitte geht nicht immer nachdem was momentan oder in Zukunft in PC's verbaut ist (wird).
Abseits der X86 Krücken gibt's ne Menge andere Prozessor-Hersteller die weitaus
effizieneter arbeiten. Warum wohl wird für Embedded-Systeme inkl. Handy's ein ARM
genommen?!
X86 ist Steinzeit...das dürfte wenn überhaupt noch der AMD-Bulldozer ändern,
ansonsten sind andere Architekturen einfach ''besser''.
Bei Big-N verlass ich mich einfach drauf das sie das bestmögliche Preis-/Leistungsverhältnis
nehmen und den Core-Markt zurückgewinnen.
Wie wärs mit 100 echten Cores?!
http://www.tilera.com/products/processors/TILE-Gx_Family
Bitte geht nicht immer nachdem was momentan oder in Zukunft in PC's verbaut ist (wird).
Abseits der X86 Krücken gibt's ne Menge andere Prozessor-Hersteller die weitaus
effizieneter arbeiten. Warum wohl wird für Embedded-Systeme inkl. Handy's ein ARM
genommen?!
X86 ist Steinzeit...das dürfte wenn überhaupt noch der AMD-Bulldozer ändern,
ansonsten sind andere Architekturen einfach ''besser''.
Bei Big-N verlass ich mich einfach drauf das sie das bestmögliche Preis-/Leistungsverhältnis
nehmen und den Core-Markt zurückgewinnen.
Symmetrisches Multitasking ist aber imho für CPU's abseits vom Number Crunching ziemlich sinnlos. Und viele viele symmetrische Kerne werden wir ja hoffentlich in der GPU finden. Ich sage mal ca. 400 Shader in der GPU voraus und hoffe auf 800 ;-)
Also die 1,2 Watt sind nur die Schätzung und stehen da auch sehr verklausiert, ob das wirklich die Leistung bei 1,6 GHz ist, kann ich so nich nicht unterschreiben.
Ansonten finde ich schon, dass Verlustleistung ein wichtiges Kriterium ist. Wenn die Konsole mehr als ca. 100-150 W verbraucht, wird es schwer diese leise zu kühlen. Ich habe wirklich einen extrem leisen PC, aber für das Wohnzimmer, wäre mir der noch zu laut...
Ich denke aber der Prozessor passt nicht zur Beschreibung und Multicores sind schwer zu programmieren. Ich denke mal, 3 richtig starke Kerne sind besser als jede Menge virtuelle und reale Kerne, die kaum effizient genutzt werden...
Virtuelle Kerne sind zwar das Wundermittel in meiner täglichen Arbeit, aber für Videospiele nicht sehr sinnvoll...