DotProduct schrieb:
Die Frage ist halt was man als schneller bezeichnet. Die reine Shader und Rasterisierungsleistung wird vom RSX höher sein. Aber das DRam hat durchaus das Potential diesen Vorsprung bei angeschaltetem AA wieder mehr als wett zu machen (genau das behauptet ATI) und die unified shader können eventuell zumindest etwas aufschließen.
Andere Sachen sind 128Bit HDR. Das ist für eine Konsole imho schlicht unfug, da es Speicherbandbreite und Rasterisierungsleistung im Zweifel einfach mal auf ein 1/4 senkt. Spiele mit 128Bit+AA werden in der Folge keine NextGen Games mehr sein, siehe aktuelle PC Spiele. Viele HDR Effekte lassen sich gut Faken - dafür opfert man nicht soviel Leistung.
Auf dem PC sieht dies etwas anders aus, da Faken aufgrund der verschiedenen Architekturen nicht so gut funktioniert, weil die Grafikkarten morgen eh nocheinmal schneller sind und weil ATI/Nvidia nicht nur auf den Konsumer Markt schielen, sondern auch in die Workstations wollen.
Aber bei einer Konsole nur für Spiele ist FP10 imho einfach ein viel besserer Kompromiss. 90% der HDR Effekte hat man so praktisch umsonst.
Wenn Nvidia nur bei der reinen Leistung vorne liegt, aber keine innovativen/vergleichbaren Features beitet, dann können sie wieder ins Hintertrefen geraten was die Optik angeht. Wobei die Unterschiede wahrscheinlich mit der Lupe gesucht werden müssen.
Nun, Du hast Da sicherlich in einigen Punkten durchaus Recht. :wink4: Wo die Bandbreite für HDR128 herkommen soll ist mir auch schleierhaft. Jedenfalls kann der G70 nur 64bit HDR und der RSX 128bit. Ist das Feature nun völlig sinnlos in den RSX implementiert worden? Ich weiß es nicht. Seltsam ist´s schon.
40bit HDRist besser als garnichts, das stimmt shcon. Aber gerade was HDR angeht, ob bei R500 und insbesondere RSX, muss man wirklich mal abwarten was da kommt. Ich fände es halt seltsam, wenn man dme RSX 128nit HDR verpasst, obwohl es für Nüsse wäre.
Der eDRAM beim R500 ist toll, aber primär wird er dafür da sein, die niedrige Bandbreite des Hauptspeichers zu ersetzen. Wir er genau funktioniert ist allerdings in einigen bereichen nicht bekannt. Z.B. wenn ein Spiel 1080i nutzt, wäre es interessantz zu wissen, wie der eDRAM die Daten splittet, weil er dann hinten und vorne nicht mehr reicht.
DotProduct schrieb:
Ich habe halt so ein paar Anektdoten gehört... Aber Ken hatte ja nicht das alleinige sagen und IBM ist durchaus ein sehr starker Partner. Dank IBM ist auch zu hoffen, dass es einen vernüftigen Compiler für den Cell geben wird.
Das Problem der SPEs ist halt, dass sie nicht so flexibel sind. Passt man das Design der Spiele und die Grafik an die Anforderungen der SPEs an, dann gehen garantiert Dinge, die die XBox 360 nicht mehr schafft, aber das gilt auch umgekehrt.
Aber existierende Ideen/Technologien werden wohl erstmal mit der Tricore einfacher/besser und schneller unzusetzen sein.
So sind Kollisionserkennung oder das Traversieren von Quad/BSP Trees sehr wahrscheinlich Paradebeispiele dafür, was die SPEs nicht wirklich können, da der lokale Speicher zu limitiert ist.
Geht es darum 2000 Figuren mit jeweils sehr einfacher KI über ein Schlachtfeld zu jagen, dann sehe ich den Cell vorne. Wobei der Cell zumindest im Moment noch so schwer zu programmieren ist (die SPUs), dass sie wohl nicht viel verwendet werden bis zur 2./3. Generation.
Auch kann man bei der Tricore CPU wohl getrost davon ausgehen, dass eine effektive Auslastung von über 60% sehr selten sein wird. Effektiv wird durch die 3CPUs wohl eine Verdoppelung erreicht, was bedeutet, dass selbst im Worst Case die XBox 360 nur doppelt so schnell wie die PS3 ist. (Naive Cell Programmierung ohne SPEs - gutes Multithreading auf der Xbox360).
Aber gegenüber der PS2 wird die PS3 wohl ein klarer Schritt nach vorne sein, was Architektur und Programmierbarkeit angeht. (IBM und Nvidia sei dank)
Gruß
Also bei der Grafik können wir froh sein, dass nVidia den RSX beigesteuert hat. Was den Cell angeht scheint dieser wohl sehr von Sony dominiert entwickelt worden sein. Sony hat den größten Anteil der Entwicklungskosten getragen und IBM scheint auch nicht sehr zufrieden mit dem Cell zu sein, da sie ihn nicht vermarkten können.
Was den Cell und den X360 Prozessor angeht halte ich mich lieber zurück. Da gehen mir die Meinungen in den Fachkreisen zu sehr auseinander. Was die KI angeht habe ich allerdings gelesen, dass sehrwohl Algos gibt, die auf SPEs sehr komplexe KI Berechnungen zulassen. Keine Ahnung was nun stimmt.
Stimmen tut jedenfalls eins; beide CPUs gefallen den Entwicklern auf Anhieb nicht sehr gut, weil sie Gamecode auf Dauer völlig neu entwickeln müssen. Meiner Meinung nach soll da aber niemand meckern, denn auf X360 und Ps3 wird es eine Menge zu verdienen geben, was den anfänglichen Entwicklungsaufwand schnell wett machen sollte.
P.S.
Beid er X360 CPU solltest Du bei der Ausnutzung nicht vergessen, dass es nciht einfach 3 Cores sind, sondern insgesamt 6 Hardwarethreads! Und die sind auch nciht so leicht genutzt und durch In-Order Architektur auch nicht sonderlich effezient.