Zum Cell
Der Cell hat einen Power-PC Kern, also einen Core mit zwei Threads, der sich wohl nicht großartig von den Cores der X360 CPU unterscheidet.
Jedem Core der X360 CPU wie auch dem Core des Cells steht ja noch eine Vektor-Einheit (VMX) zur Seite. Diese ist bei den Kernen der X360CPU aber wohl weiter fortgeschritten, wenn man verschiedenen Publikationen glauben schenken darf.
In der Summe stehen sich also
X360: 3 physikalische Cores, 6 Threads, 3 Vektoreinheiten
PS3 1+7 Cores, 9 Threads (Core doppelt, SPE-Einheit einfach) , 1 Vektoreinheit
gegenüber.
Das soll nur verdeutlichen, dass ein direkter Leistungsvergleich beider Chips nicht möglich ist. Es kommt auf die Anwendung an. Der Cell wurde im Gegensatz zur X360 CPU primär NICHT für eine Spielkonsole entwickelt. Denn IBM und Toshiba, die außer Sony mit im Cell-Boot sitzen, interessiert die PS3 eher weniger.
Der Cell ist als Multimediachip konzipiert und soll als solcher später in allen möglichen Geräten der Medienlandschaft eingesetzt werden.
In wie fern er eine gute Spieletauglichkeit erbringen wird, muss sich noch zeigen.
was die Gpu der beiden Konsolen angeht möchte ich nochmal kurz auf die Unified Shader eingehen, eigentlich eines der Top features schlechthin.
In herkömmlichen GPUs waren die Shader immer fest verdrahtet. Sprich geometry wurde aus dem VRAM gefetched durchlief die Vertex Shader und danach über eine "divide by W" -Schaltung in die Triangle Setup Engine. Die Triangle Setup Engine berechnetet die Scanlines für die Pixel Shader. Die Pixel Shader generierten dann den output für den Blend Prozess.
Ein Unified Shader kann praktisch alles machen (daher der Name), er kann als Vertex oder Pixel Shader eingesetzt werden, jenachdem was gerade "ansteht". Er kann dynamisch von jedem anderen Unified Shader lesen und output für einen anderen Unified Shader generieren.
Eine Scheduling Engine verteilt nun die Shader dynamisch für Operationen, die gerade anstehen egal ob nun gerade als Pixel oder Vertex Shader. Damit ist, laut ATI das System immer optimal ausgelastet.
Auf herkömmlichen GPUs und aufgrund der festen Verdrahtung war die Auslastung unterdurchschnittlich. Entweder waren die Vertex Shader ausgelastet, wenn gerade viel Geometry/Lighting bearbeitet werden musste oder eben die Pixel Shader, wenn man viel per pixel Berechnungen machen musste. Im schlimmsten Fall hat also das halbe System Däumchen gedreht.
was den eDRAM angeht st ein ganz interessantes Thema. Beim Multisampling, liefert die GPU bei 4xFSAA 4 Samples pro pixel, welche dann noch mit dem Framebuffer kobiniert werden müssen. Gerade dies zusätzlichen Frambuffer Zugriffe gehen gehörig in die Bandbreiten Kosten. Das gleich gilt für z-test, stencil-test und alpha blending.
ATI hat nun die komplette Logik für FSAA sowie z-, stencil, alpha in den eDRAM integriert (und nennen es deshalb Smart eDRAM), welcher selbst eine Bandbreite von 256GByte/s hat. Die GPU übergibt nun praktisch dem eDRAM die 4 Samples und ist damit fertig.
Damit wird sichergestellt, dass 4xFSAA (und noch ein paar andere Sachen wir z-Test etc.) praktisch "for free" sind. Normale GPUs sind hier sehr Bandbreiten limitert, da sie über einen relativ langsamen Bus (z.B. beim RSX 22.4Gbyte/s) auf den Framebuffer zugreifen müssen. Im Ergebnis geht die Performance bei FSAA in den Keller.
Solche Dinge sind nunmal Fakt und jeder der nur ein bischen Ahnung hat sieht das genauso !
PS: das soll nicht heißen das die PS3 schlecht wird oder die Xbox360 besser !
Tchnische Fakten sind nunmal Fakten!