Kanns mir nicht erklären, aber ich zerbreche mir immer wieder den Kopf über die Hardware des Wii-Nachfolgers.
Von der Vernunft denke ich an AMD-Fusion, aber im Kopf gehen mir alle bisherigen Gerüchte zeitlich durch den Sinn und ich komme immer wieder auf Intel und die Larrabee-Architektur evtl. mit einem IBM Power7-Cell Hybriden. Die Andeutungen das die Unreal-Engine 4 auf sehr viele Prozessorkerne ausgelegt ist, das Nintendos Verhandlungen mit Intel genau in den Zeitraum der Larrabee-Einstellung fielen, man ihn aber weiterentwickelt hat, die MIC-Architektur für Supercomputer.
Dann die Bestätigung IBMs, das man mit Nintendo bezüglich ihrer nächsten Konsole zusammenarbeite, und Itakagis Verhaspler, das Nintendo eine Highend-Konsole entwickeln könnte.
Kann es sein, das sich Nintendo günstig die Exclusivrechte an der Larrabee-Architektur gesichert hat und Intel im Gegenzug eine Plattform für deren Verbreitung im Spielesektor hat, so das sich die Entwickler auf Raytracing einlassen müssten? Was zugegeben äusserst Interessant wäre und Big N vielleicht günstig eine Highend-Konsole bescheren würde. ;-)
Die Diskussion wurde schon mal geführt, obwohl es sicher eine Option ist, glaube ich nicht daran aus zwei Gründen:
1. Ich glaube die Zusammenarbeit zw. IBM und Big N bezieht sich auf die Verwendung der Power-Architektur um kompatibel mit der Wii zu bleiben. Wobei der Wii-Prorzessor so klein ist, dass man den inzwischen locker als Zusatz irgendwo in der Wii2 integrieren könnte und damit freie Auswahl bei der CPU hätte (wäre mir persönlich am liebsten)
2. Die Vorteile von Raytracing sind gar nicht so groß wie man denkt, aber es gibt einige Nachteile, die man auf Anhieb nicht unbedingt sieht. Der theoretische Vorteil von Raytracing ist, dass es:
a) unabhänger von der Anzahl der Polygone ist, da ich einfach nur die Pixel berechne die auch sichtbar sind, gerade wenn man zu kleinen Dreiecken übergeht. Bei organischen/runden Objekten kommen schnell sehr kleine Polygone raus (z.B. bei einer Szene 5 Mio. Polygone, aber nur 2 Mio. sichtbare Pixel)
b) man massiv parallelisieren kann, da jeder Lichtstrahl unabhängig vom anderen ist. Im Idealfall könnte man 2 Mio. Raytracing Queues integrieren und in einem Takt ein FullHD Bild berechnen.
In der Praxis sind die Vorteile gar nicht so gross, da:
a) es gar nicht unabhäng von der Anzahl der Polygone ist, schon wenn das erste "getroffene" Pixel einen spiegelden Effekt hat (z.B. Metall) dann wird der "Lichtrahl" abgelenkt und jetzt muss er das nächste getroffene Polygon berechnen und dafür muss wieder der Schnittpunkt des Strahls mit allen Polygonen berechnet werden etc. . Umgekehrt ist Spiegelung bei einem Shader ein extrem "billiger" Effekt, am Ende ist es nur eine Transformation eines Polygons als Textur auf ein anderes Polygon. Genau dafür wurden Shader entwickelt.
b) aus diesem Grund kann man auch gar nicht so stark parallelisieren, das ganze ist ein Problem der Speicherbandbreite und so weit ich weiß, war genau die Speicherbandbreite eines der großen Probleme des Larrabee. Um effektiv zu sein bräuchte ein Raytraycing-Chip eine gigantische Speicherbandbreite. Shader arbeiten per se wesentlich lokaler und lassen sich dasher wesentlich besser durch einen Cache abfedern.
Es gab da mal einen interessanten Artikel von NVidia zu diesem Thema (OK, die sind vorbelastet ;-) ) mal sehen ob ich den noch finde. Die kamen zu dem Schluss, dass man eine Mischung aus Shader und Raytracing braucht, denn am Ende ist ein Shader immer ein Trick, aber halt ein effektiver.