Das ist 'ne ziemlich gewagte Behauptung von jemandem, den ich eigentlich als technisch recht versiert eingeschätzt hatte. Außerdem hast Du ein paar wichtige Dinge scheinbar nicht mitbekommen: Der eDRAM hat nichts mit der GPU zu tun, IBM sprach von ihrer proprietären Lv3 Cache Technologie. Der eDRAM ist Lv3 Cache in der CPU, kein Framebuffer in der GPU. Der große Lv3 Cache dürfte hauptsächlich dazu dienen, bei einem UMA Design Zugriffe von der CPU auf high bandwidth, high latency Speicher wie GDDR oder XDR zu minimieren. Sollte der Lv3 Cache in den aktuellen Devkits fehlen, würde sich das stark negativ auf die Performance des Systems auswirken.
Darüber hinaus ist auch fraglich, inwieweit die GPU überhaupt mit einer R700 von der Stange vergleichbar und effizient emulierbar ist. Entgegen landläufiger Meinung beschäftigt Nintendo auch eigene Chipdesigner, überwiegend aus dem sgi und MIPS Lager, die die Chips gemeinsam mit IBM bzw AMD entwickeln. Die SIMD Einheit in Gekko und Broadway beispielsweise stammt nicht von IBM, sondern von Nintendo selbst, genau wie die TEV Architektur in Flipper und Hollywood.
Es ist also durchaus zu erwarten, dass finale Hardware nicht kleiner, sondern tatsächlich schneller wird. Das deckt sich auch mit den Aussagen einiger Entwickler.
Er hat in früheren Post doch schon sehr genau die Funktionsweise des eDRAM der CPU erklärt.
Hier geht es wohl wirklich um das eDRAM der GPU. Und das fehlt eben vermutlich in den derzeitigen Dev-Kits.
Und was die GPU Shader der Wii-U angeht.
In wie fern sollen sich diese Einheiten schon groß von denen im PC Sektor unterscheiden ?
Die Technik ist die selbe und es finden nur Erweiterungen und Optimierungen statt.
Ein R700 ist etwas effizienter als ein R600 und ein R800 wieder etwas mehr als ein R700.
Deshalb ist es im Grunde ziemlich egal ob nun die Architektur des R700, R800 oder R900 in der Wii-U steckt.
Entscheidend ist die Anzahl der Shader und deren Taktfrequenz. Diese Faktoren bestimmen zu über 90% die Leistung des Chips.
Getrennte Tesselationseinheiten könnten diese Gewichtung etwas verschieben.
Aber ansonsten ist es wirklich egal.
Ein R700 hat minimal 40, max 800 Streamingprozessoren
Ein R900 hat minimal 160, max 1536
Ein R900 mit 800 Streamingprozessoren iist bei gleichem Takt theoretisch genau so schnell wie ein R700 mit 800.
Praktisch ist der R900 villeicht 10% flotter durch höhere Effizient.
Das macht aber den Braten nun wirklich nicht fett.
Die Anzahl der Streamingprozessoren ist also entscheident bei sonst üblichen Taktraten.
Und aus Kosteneffizienz gehe auch ich davon aus, dass Nintendo maximal 800 davon einbauen wird.
Ansonsten wird es preislich teurer und auch von der Hitzeentwicklung problematischer.
CPU und RAM müssten schließlich auch auf eine stärkere GPU ausgelegt werden.
Die derzeitigen Dev-Kits mögen nicht die finale Leistung darstellen. Aber eine allzu große Steigerung würde ich bis zum Release nicht erwarten. Jedenfalls glaube ich auch nicht, dass sich an den eigentlichen Daten der auf dem Papier bestehenden GPU noch was an der Anzahl der Streamingprozessoren ändert.