Gilgamesh schrieb:
Lutra schrieb:
Gilgamesh schrieb:
Also... du weißt doch sicher was ein Framebuffer ist, oder?
Nur: der ist bei der X360 gerade mal 10 Mb groß. Mit 4-fachen Antialiasing und bei einer Auflösung von nur 720p benötigt man allerdings schon ganze 14 Mb (von höheren Aufkösungen ganz zu schweigen)
Soviel zur Unterstützung von HDTV...
Komisch nur, dass Condemned selbst in 1280x1024 4xAA hat
Da das Bild für Antialiasing dreigeteilt wird, reichen die 10 MB ERam locker aus.
Aber selbstverständlich ist das möglich; allerdings nicht ohne andere Ressourcen anzuzapfen. Genau darauf wollte ich hinaus.
Vielen Dank für den Anlass das nochmal deutlich zu machen
Die X360 scheint sich ja immer mehr Knüppel zwischen die Beine werfen zu wollen. Erst muss der Cache der CPU herhalten und jetzt bittet auch noch der Framebuffer zu Hilfe
Herzlich Wilkommen hier im Forum erst einmal.
Und nu direkt ma tacheles
![Smile :) :)](/styles/sanleiassets/cwsmilies/m-smile.gif)
Du beschwerst Dich indirekt über den Popkornfaktor hier und schmeißt damit nur so um dich
Und für alle.:
Es wird mal wieder vieles durcheinander geworfen.
1.) Floiting Points
FP sind wichtig für Grafik und teilweise Physikberechnungen
Nun wurde die Grafik aber bisher eben hauptsächlich von der GPU bearbeitet, weshalb die FP-Leistung beim Hauptprozessor nebensächlich war.
Die XBOX hatte natürlich die höchste FP-Leistung, aufs Gesamtsystem bezogen. Allein betrachtet hatte das Derivat zwischen Pentium3 und Celeron die geringste FP-Leistung aller drei CPU's.
Mit der neuen Generation könnte ja ein kleiner Wandel eintreten. Der Cell könnte Vertexshaderfunktionen übernehmen. Dann käme auf jeden Fall seine hohe FP-Leistung zum Tragen. Bis die endgültige Architektur offen gelegt wird, kann man aber dazu noch nicht so viel sagen. Denn eine Ausdehnung der Grafik auf zwei Chips (RSX und Cell) erfordert natürlich auch eine erhöhte Bandbreite zwischen beiden Komponenten. Ob hierdurch der Vorteil der Vertexberechnungen durch Bandbreitenbeschränkungen wieder wett gemacht würde, muss man abwarten.
Dass der Xenos (GPU der 360) durchaus in der Lage ist auch mit lediglich 10MByte eDRAM HD mit AA darzustellen, sollte auch mittlerweile dem letzten Kritiker zu Ohren gekommen sein. Hierbei werden auch keine anderen Ressourcen verbraucht. Das Bild wird einfach aufgeteilt. Die Technik muss die Engine nur beherrschen. Ansonsten ist es schnurz-piep-egal ob ich ein Bild komplett rendere oder in 2 bzw. 3 Teile aufteile.
Ok, ein wenig Mehraufwand besteht, da ich einzelne Pixel an den Teilbildrändern, für die Berechnung des AA doppelt rendern muss. Das bewegt sich aber im Bereich von 2-3 Prozent.
Ich erhalte also z.B. 4fach AA mit einem Performanceverlust von maximal 3 Prozent. Und das absolut gesehen
Jetzt kann man sich ja mal ausrechnen wie hoch bei normaler Technik der Verlust, bzw. der Mehraufwand für 4fach AA ist.
Beim Einsatz für AA müssen die Bilddaten mehrere Male zwischen der GPU und dem Speicher hin und her geschoben werden. Dass das natürlich Speicherbandbreite kostet ist kein Geheimnis. Die PS3 mit ihrem 128Bit Interface zum Grafikspeicher und angepriesenem 1080p wird da doch arge Probleme bekommen es sei denn Sony zieht noch was ganz geheimes, was mit dem Speicherinterface zu tun hat, aus dem Hut
Bei der 360 läuft das so ab.
Die Daten gelangen vom Speicher oder auch vom Cache der CPU in den Xenos. Von dort werden alle Bearbeitungen im Chip und im eDRAM durchgeführt. Ist der eDRAM dann voll landet dessen Inhalt im Hauptspeicher und das nächste Teilbild wird vom Xenos und seinem eDRAM bearbeitet. Die ganze AA- Klamotte läuft zwischen Xenos und seinem eDRAM ab. Dieser verfügt über eine enorme Bandbreite (32Gbyte zum eDRAM, im eDRAM selber sogar 256Gbyte) so dass AA überhaupt kein Problem darstellt.
Der eigentliche Systembus wird nur vom normalen Datenaustausch Speicher / GPU belastet.
Man muss sich das mal vorstellen was da an Bandbreite gespart wird.
Es ist ja nicht nur das AA, was Bandbreite frisst. Für alle Postrendereffekte wird bei normalen GPU's immer erst das Bild im Hauptspeicher zwischengespeichert und dann zur Bearbeitung wieder in die GPU geladen, da eine normale GPU ja nun mal keinen Zwischenspeicher hat. Mit eDRAM braucht man diesen Zwischenschritt aber nicht mehr.
Allerdings muss man auch die Programmierung darauf umstellen, da es nicht damit getan ist einfach einen Schalter im Chip umzulegen damit der das automatisch alles logistisch auf die Kette kriegt
Die Programmierer scheinen aber jetzt nach der heißen Launchphase sich die Zeit zu nehmen, die Technik zu begreifen und sie dementsprechend auch einzusetzen.
Der eDRAM wird also schon zu recht als echte Innovation bezeichnet. Zwar hatte auch der GC schon eDRAM, das war aber bei weitem nicht so flexibel einsetzbar wie es nun in der 360 seine Anwendung erfährt.
Was ich aber auch nicht unerwähnt lassen möchte. Ich finde auch, dass der GC in dieser Generation die optimierteste Spielkonsole war. Er ist zwar leistungsmäßig hinter der XBOX anzusiedeln hat aber ein wesentlich besseres Preis/Leistungsverhältnis. Seine Komponenten sind besser aufeinander abgestimmt, passen in ein viel kleineres Gehäuse und sein Produktionspreis dürfte bei vermutlich gerade mal einem Drittel derer der XBOX liegen. Diese hat aber als Entschuldigung natürlich mehr Speicher, Festplatte und Netzwerkadapter eingebaut
![Smile :) :)](/styles/sanleiassets/cwsmilies/m-smile.gif)