Wii U Wii U

Status
Nicht offen für weitere Antworten.
Gähn. Habe das schon gelesen und es ist Müll. Sicher, ne 6GHz Version des Devkits, lol.
Gab's nicht auch eine Dev-Kit-Version der Wii, die 360-Power hatte oder sowas in der Art? Ist doch möglich, dass Nintendo anfangs noch mit solchen Gedanken gespielt hat.
Trotzdem halte ich diese "Leaks" für Käse und glaube nicht daran, dass in irgendeiner Next-Gen-Konsole 6Ghz-CPUs verbaut sein werden, aber hey: Immerhin neue Gerüchte und nicht dieser alte "WiiU schwächer als PS360"-Mist :D
 
ye6irvu3.jpg


Ubitanic!
 
Gab's nicht auch eine Dev-Kit-Version der Wii, die 360-Power hatte oder sowas in der Art? Ist doch möglich, dass Nintendo anfangs noch mit solchen Gedanken gespielt hat.
Trotzdem halte ich diese "Leaks" für Käse und glaube nicht daran, dass in irgendeiner Next-Gen-Konsole 6Ghz-CPUs verbaut sein werden, aber hey: Immerhin neue Gerüchte und nicht dieser alte "WiiU schwächer als PS360"-Mist :D

Die 6 GHz Version sollen sie vor 3 Monaten erhalten haben, das ist imo kompletter Bockmist, auch wenn man sich den Rest durchliest^^ Angeblich gab es ne Version der Wii, die stärker war, mit 2 Cores.

512 MB für das OS wurde irgendwie angedeutet, 2GB scheinen auch zu stimmen, "DX11" Effekte wird die WiiU sicherlich beherrschen. Kann man sich aus bestimmten GAF Aussagen heraussuchen, aber ich glaube nicht, dass das hier ein Ubi Leak ist
 
Zuletzt bearbeitet:
560MiB fürs OS?! :oops:
DX11 ist eine reine M$ Grafik-API die M$ zudem noch net mal selbst bei der XBOX einsetzt weil sie einfach grottig is.

hier hat wohl einer ne schmutzige glaskugel benutzt oder bei Pachter unterricht genommen :rofl4:

DX ist nicht nur eine API, sondern auch ein Featureset. Wenn ein Grafikchip bestimmte Features nicht besitzt, ist er auch kein Chip dieser DX Version, welche diese voraussetzt. Auf der PS3 läuft das coden auch nicht über DX, der Chip ist trotzdem ein DX9 Chip.
Die 560MiB fürs OS sind auch nicht unwahrscheinlich, für das der Vita sind auch schon 256MiB reserviert. Die Ansprüche in dem Bereich steigen natürlich auch, gerade wenn es um Echtzeitaktualisierungen geht.

Was willst du denn mit Power6 ?
Wii U hat Power7


edit: XD Ubitanic sau nice

Das Power7 Gerücht ist vor längeren schon flöten gegangen. Soll ein Power6 sein, welcher einige Errungenschaften des Power7 haben soll, was sich wohl auf den eDRAM bezieht, den IBM anstelle eines L3 Caches beim Power7 verbaut.
 
Zuletzt bearbeitet:
Die 6 GHz Version sollen sie vor 3 Monaten erhalten haben, das ist imo kompletter Bockmist, auch wenn man sich den Rest durchliest^^ Angeblich gab es ne Version der Wii, die stärker war, mit 2 Cores.
Ach stimmt, das mit dem 3 Monaten hab ich schon wieder vergessen... Nee, dann ist es natürlich Schwachsinn xD
Ist es bei CPUs nicht mittlerweile auch so, dass höhere GHz-Zahlen gar nicht mehr so viel bringen, weil die Effizienz oder Hitzeentwicklung oder irgendwas zu niedrig/hoch wird? Glaub da war mal was...
 
Keine Ahnung mehr woher die kommen, ist nun überall eingentlich eine festgesetzte Info, seit längeren. Wsippel sprach auch schon davon, dass das Design an Power6 angelegt ist, wenn ich micht nicht irre.

Das einzig' offizielle, was wir zur CPU haben, ist die Pressemitteilung von IBM, und die besagt, dass die Wii U CPU auf den Errungenschaften von Power 7 aufbaut. Aber allen Gerüchten nach wird die CPU in der Wii U eh eher "vernünftig" sein in der Leistung, d.h. von Out of Order und großem eDRAM abgesehen sind RAM und GPU bei der Wii U gegenüber einer 360 ein größerer Fortschritt als die CPU gegenüber der 360-CPU, was aber nicht schlimm ist, da dank wahrscheinlichem Sound DSP und I/O-Prozessor der CPU einiges an Arbeit abgenommen wird, was die 360-CPU leisten musste (dort hat ja angeblich der Sound schon bis zu einem Core zum Teil blockiert).
Die Wii U CPU wird weit, weit, weit moderner sein als die 360-CPU, was für die GPU genauso gilt, aber daher muss die Rohleistung der CPU noch lange nicht vieeel größer als die der 360 CPU sein (insbesondere, da die Wii U CPU Out of Order ist aller Wahrscheinlichkeit nach, wodurch man die Rohleistung viel besser ausreizen kann als bei einer In-Order-CPU wie bei der 360).
 
Zuletzt bearbeitet:
Das einzig' offizielle, was wir zur CPU haben, ist die Pressemitteilung von IBM, und die besagt, dass die Wii U CPU auf den Errungenschaften von Power 7 aufbaut. Aber allen Gerüchten nach wird die CPU in der Wii U eh eher "vernünftig" sein in der Leistung, d.h. von Out of Order und großem eDRAM abgesehen sind RAM und GPU bei der Wii U gegenüber einer 360 ein größerer Fortschritt als die CPU gegenüber der 360-CPU, was aber nicht schlimm ist, da dank wahrscheinlichem Sound DSP und I/O-Prozessor der CPU einiges an Arbeit abgenommen wird, was die 360-CPU leisten musste (dort hat ja angeblich der Sound schon bis zu einem Core zum Teil blockiert).
Die Wii U CPU wird weit, weit, weit moderner sein als die 360-CPU, was für die GPU genauso gilt, aber daher muss die Rohleistung der CPU noch lange nicht vieeel größer als die der 360 CPU sein (insbesondere, da die Wii U CPU Out of Order ist aller Wahrscheinlichkeit nach, wodurch man die Rohleistung viel besser ausreizen kann als bei einer In-Order-CPU wie bei der 360).

Keine Frage, schon allein mit dem eDRAM sollte es der CPU einen guten Push geben. Hatte vor kurzen eine MS Präsentation für den Xenon gefunden, in der die Angaben des IPC Werts mit 0,5 und einer Latenz von irgendwas um die 650 angegeben waren. Zeigte sehr gut wie ineffizient die CPU eigentlich arbeitet, und den Grund für die, zu ihren Zeitpunkt, hohen Kernanzahl und Taktrate. Aber die Werte verwundern nicht, wenn ein Tripplecore nur einen gemeinsamen L2 Cache von 1MiB zur Verfügung hat und nur auf einen GDDR3 Zugriff hat. Leider finde ich gerade die Präsentation nicht mehr.
Aber die CPU sollte Nintendo ohne größere Probleme übertreffen können, selbst ohne an der Taktrate und der Kernanzahl schrauben zu müssen.
 
Das Power7 Gerücht ist vor längeren schon flöten gegangen. Soll ein Power6 sein, welcher einige Errungenschaften des Power7 haben soll, was sich wohl auf den eDRAM bezieht, den IBM anstelle eines L3 Caches beim Power7 verbaut.
Wo hast Du das denn aufgeschnappt? Bei mir nicht. Die CPU ist sicherlich kein POWER7, aber erstrecht kein POWER6.
 
DX ist nicht nur eine API, sondern auch ein Featureset. Wenn ein Grafikchip bestimmte Features nicht besitzt, ist er auch kein Chip dieser DX Version, welche diese voraussetzt. Auf der PS3 läuft das coden auch nicht über DX, der Chip ist trotzdem ein DX9 Chip.
Die 560MiB fürs OS sind auch nicht unwahrscheinlich, für das der Vita sind auch schon 256MiB reserviert. Die Ansprüche in dem Bereich steigen natürlich auch, gerade wenn es um Echtzeitaktualisierungen geht.

das Featureset was du meinst, berstimmt aber nicht M$ gewschweigeden die haben etwas damit zu tun. Die standartiesierung erfolg ganz woanders. M$ übernimmt es einfach nur in ihre API. es ist schlichtweg falsch Konsolen API's mit DX zu vergleichen. komplett falsch. die PS3 beherscht sachen die ein DX9 Chip nie bringen könnte, genauso die XBOX. hier wird auf der Hardware direkt gecoded. diese dämlichen und komplett irrelevanten vergleichen mit DX sind bullshit. als bestes beispiel kannste hier GPGPU hernehmen. nur weil die PS3 oder XBOX dieselben funtkionen oder effekte wie eine DX9/10 graka besitzt, sind es immer noch komplett verschiedene software-lösungen. bei der PS3 kommt sogar noch hinzu das der Cell die GPU ''erweitern kann''. ich bins leid das jeder honk immer alles mit DX vergleicht (honk war nicht persönlich auf dich bezogen). außerhalb von Windows gibts kein DX. jedes device was grafik zaubert, ob medizinisch, wissenschaftlich odg. läuft entweder auf OpenGL oder einer eigenen Software-lösung. ob jetzt das HUD von nem receiver oder eines navis, bis hin zu spezial-effekten in filmen. NIX DAVON IS DAS CRAPPIGE DX DRECKSMIST KLUMP VON M$!
 
Zuletzt bearbeitet:
Wo hast Du denn den Unsinn aufgeschnappt? Von mir nicht. Die CPU ist sicherlich kein POWER7, aber erstrecht kein POWER6.

Mir war da so :-P
Aber wie du schriebst, ein Power7 wird es nicht, ganz falsch lag ich also nicht, und wie unten, oder oben je nach Einstellung, geschrieben, war das nicht negativ gemeint.

@Calamary

Wie schon geschrieben, keiner sagt dass es um die API geht.
Sollte der WiiU Chip als DX11 Chip deklariert sein, wurde das schonmal heißen, dass er alle Feaures dieser Version besitzt, das widerspricht ja nicht dem, dass er auch darüber hinaus geht ;-)
Auch die mobilen GPUs laufen auf iOS, RIM, Symbian oder Andoid Betriebssystemen, haben mit DX als API auch nicht am Hut, ändert aber nichts daran dass die Hersteller dieser GPUs, wie IMG, AMR oder Qualcomm, ihre GPUs nach DX Versionen klassifizieren.
 
Zuletzt bearbeitet:
Auch die mobilen GPUs laufen auf iOS, RIM, Symbian oder Andoid Betriebssystemen, haben mit DX als API auch nicht am Hut, ändert aber nichts daran dass die Hersteller dieser GPUs, wie IMG, AMR oder Qualcomm, ihre GPUs nach DX Versionen klassifizieren.

klassifiziert wird intern ganz anders. nach außen hin wird ein vergleich gezogen, so das sich potentielle käufer ein bild machen können, das stimmt, DX is aber weder Standard noch paradebeispiel sondern nur eine M$ erfindung um kunden von einer proprietären schnittstelle abhängig zu machen. würden die heutigen games auf OpenGL laufen, könnte jeder Windows PC mit dementscprechender Hardware und treiber-unterstützung alles darstellen...aba M$ kann dann ja ihre neuen OS-versionen net verscherbeln, mit neuester DX technologie, die auf den vorgänger ja garrrrrrrrr nicht läuft...:scan:
 
klassifiziert wird intern ganz anders. nach außen hin wird ein vergleich gezogen, so das sich potentielle käufer ein bild machen können, das stimmt, DX is aber weder Standard noch paradebeispiel sondern nur eine M$ erfindung um kunden von einer proprietären schnittstelle abhängig zu machen. würden die heutigen games auf OpenGL laufen, könnte jeder Windows PC mit dementscprechender Hardware und treiber-unterstützung alles darstellen...aba M$ kann dann ja ihre neuen OS-versionen net verscherbeln, mit neuester DX technologie, die auf den vorgänger ja garrrrrrrrr nicht läuft...:scan:


Früher war Open GL ja mal der heilige Gral, das hat sich aber grundsätzlich geändert.
Vor allem bei Open GL von Standard zu sprechen ist schon ein bisschen lächerlich. Jeder kocht da sein eigenes Süppchen und die ganzen Extension sorgen für mehr Verwirrung als dass sie hilfreich wären.

DX ist für Spieleentwickler mittlerweile wesentlich leistungsfähiger und Open GL hinkt eh hinterher.
Klar läuft es nur auf Windows Rechner, aber niemand wird ja gezwungen es zu nutzen.
Wenn Open GL für Spiele so toll wäre, könnten die Spieleentwickler es ja nutzen.
 
Früher war Open GL ja mal der heilige Gral, das hat sich aber grundsätzlich geändert.
Vor allem bei Open GL von Standard zu sprechen ist schon ein bisschen lächerlich. Jeder kocht da sein eigenes Süppchen und die ganzen Extension sorgen für mehr Verwirrung als dass sie hilfreich wären.

DX ist für Spieleentwickler mittlerweile wesentlich leistungsfähiger und Open GL hinkt eh hinterher.
Klar läuft es nur auf Windows Rechner, aber niemand wird ja gezwungen es zu nutzen.
Wenn Open GL für Spiele so toll wäre, könnten die Spieleentwickler es ja nutzen.
Im professionellen Bereich wird auch unter Windows nahezu ausschließlich OpenGL verwendet. Selbst bei Programmen, die nur unter Windows laufen. Man könnte also umgekehrt fragen: Wenn D3D so toll wäre, warum findet es dann keine Verwendung im Profibereich?
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom