3. PS3 vs. Xbox360 vs. Nrev

Status
Nicht offen für weitere Antworten.
Hab gelesen das die Xbox CPU in der massenherstellung 100$ kostet. Der Cell kostet 160$.
 
Pfanne schrieb:
@ RWA
da frage ich mich dann aber wieso man blueray payer für über 1000€ verkauft...

ääh das mit dem BD LW ist kein Scherz. Der soll tatsächlich ca. 100€ kosten.

Und warum nen BD so teuer ist, keine Ahnung, die Leute wollen schnelles Geld! ;)
 
Mell@ce schrieb:
Der lahme Muck schrieb:
Sponkman schrieb:
Wer will denn hier schonwieder weiß machen das Unified Shader die Wurst vom Teller zieht ? Das stimmt doch nicht, etliche Benchmarks haben schon das Gegenteil bewiesen. Is natürlich nicht schlecht die Unified Shader, reißt aber nicht eine ganze Systemperformance aus dem Argen.

Das einzige was bei der PS3 wirklich probleme machen könnte sind die Busbreiten. Wir hatte ja schon gesagt das (glaub ich ...) 25 Gig lese und 15 gig schreiben von der GPU zum Graka speicher da sind. Wenn man das natürlich auf 1080P mit etlichen süßen effekten hochrechnet wird das verdammt eng. Eine große Schwäche der PS3.

Trotzdem investiert Sony mit dem Cell in die Zukunft. Die 2. Generation wurde ja schon vorgestellt und bietet mal eben 16 SPE's anstatt nur 8. Man stelle sich vor sie könnten irgendwann wirklich mehrere Cells vernetzen und die 3. Generation mit 32 SPE's per CELL tritt an - woah. Was die reine Geometrieleistung anbetrifft dürfte wohl auch ein einzelner Cell mit 8 SPE's alles wegburnen - dank Vectorrechnung-Befehlssatzerweiterung. Dann kommt noch das "Sorgenkind" RSX von dem Nvidia behauptet das 4 7800GTX GPU's eine ungefähre Vorstellung der Leistungsfähigkeit der RSX bietet - da muss man mal schauen.

Als api für die GPU wird übrigens eine entschlackte und etwas getweakte form von OpenGL verwendet, was dem DirectX abklatsch der Xbox wohl ein gutes stück voraus sein dürfte - das mal am rande.

Bleiben noch die bösen bussysteme übrig die wirklich nicht das hergeben was sony verspricht - außer sie holen noch einen hasen aus dem hut.

Rein Geometrietechnisch dürfte die PS3 aber das absolute Polycount Monster werden! Der rest - mal sehen :blushed: .

Watt?! 4 mal einer 78xxer GPU?! Das ist ja fast noch eine Gen wieter als die XBOX360 wenn das stimmt :o

Das wurde so nie gesagt.
Die Aussage bezog sich auf die Auflösung nicht auf die Rechenleisung. Hör dir das Interview noch mal richtig an.

Schuld auf Sponkman schieb.... :lick2: Wenn er es falsch übersetzt. Nein mach nur Spass Sponkman. Hab das Vid leider nicht gesehen und mom ist bei der PS3 alles offen aber anhanddessen wie ich es geschrieben hab müsste eigentlich man verstehen das ich es ja auch nicht so gegleubt habe
 
Hazuki schrieb:
Ja, hast du...:

"Hä bis dahin ist er (der Stack) doch schon längst abgerufen ..............!"

Egal... Muck hat ja schon klargestellt, das offenbar nur ein Teil gelockt werden soll...

Ja abgerufen habe ich geschrieben nicht komplett abgerufen das ist ein feiner unterschied :wink2:


Nun, in diesem Falle wird er sogar komplett abgerufen.
Leider hast du bis jetzt nicht verstanden, dass es sich bei den Locks nur um einzelne Cores handelt...

Der Cache einer CPU wird für die GPU verfügbar gemacht, so dass eine CPU der Grafkikberechnung zur Verfügung gestellt wird. Aha, sag das doch gleich, Mensch!

Habe ich , den Link habe ich dir doch schon vorher gegeben , das war der wo Du nicht schlauer geworden bist Na machts Klick ! Deshalb auch genauer lesen :)

Ich les doch nicht jeden Schmarrn, den man mir vorsetzt...
Viel einfacher wäre es gewesen, wenn du geschildert hättest, was da überhaupt steht, anstatt mit irgendwelchen Schlagwörtern um sich zu schmeißen... So wie du es geschildert hast, würde die GPU Cache von der CPU "klauen", was absolut keinen Sinn ergibt.
Die Tatsache, dass dadurch Cores angesteuert werden sollen, musste ich mir erst selbst herausfriemeln...

Dass die CPUs auch die Grafikkarte entlasten, war mir schon vorher klar... was will eine Spiel(!)konsole denn auch großartig anderes berechnen? Und was ist daran jetzt so revolutionär? Die PS2 macht doch nix anderes... nur das eine CPU ständig für die Grafik verwendet wird.

Das sie es per hardware und nicht per Software macht ! Das ganze ist schon effizienter als bei der PS2 und auch eigentlich ganz anders !

Natürlich ist es anders. (Die PS2 hat schließlich schon ein halbes Jahrzehnt auf dem Buckel)
Aber nicht in der Form, wie du dir das jetzt wieder vorstellst. Jedes mal wenn ein frei programmierbarer Prozessor Aufgaben übernimmt, die nicht für ihn bestimmt sind, handelt es sich um eine Softwarelösung. Da macht die X360 keine Ausnahme.
 
RWA schrieb:
Ich denke mal du bist Informatiker bzw. Stundent. na ja als Inf. Stundet hat man mehr auf Lager als andere nixkönner. Und Ja, so sieht es mom aus. Die Xler haben mehr Ahnung als die PSler. Aber ich denke das ist nur hier so! in anderen Foren wissen die leute bescheide!

Bin doch noch nicht ganz weg :)

Nicht falsch verstehen.
Ich wollte nicht kritisieren, dass sich hier nicht ausschließlich Leute vom Fach herumtreiben.

Nur wenn ich mich schon nicht in der Materie auskenne, dann tu ich doch nicht so als wäre das der Fall und schreibe hier Dinge, die ganz offensichtlich so nicht zutreffend sind.

Für eine Diskussion muss ich mir dann eben die Mühe machen und mich querlesen. Sagt ja keiner, dass man alle Einzelheiten verstehen muss. Tu ich auch nicht :)
Danach kann man über das Für und Wider einzelner Punkte sprechen. Aber nur mal eben irgendwas in den Raum schmeißen um andere zu verärgern kommt nicht so gut an.

Hier werden dargestellte Fakten durch lapidare "nö kann nicht sein" Sprüche in Frage gestellt und im Umkehrschluss Dinge behauptet, die man dann aber ebensowenig durch Fakten untermauern kann. Ich weiß nicht, wie man so eine Diskussion führen kann.
 
@Mell@ce
Deine Sig ist echt der Hammer :rofl2: :lol:

*Sorry für Off-Topic, aber das musste sein :lol: *
 
@Gilgamesh
Bitte verdreh hier nicht alles :wink2: Ich habe es Dir eigentlich schon relativ einfach gemacht es zu verstehen zu geben, nur wenn jemand schon mit 10Mb für den eDRAM reichen nicht aus für AA und HDTV kommt , der hat sich nicht wirklich mit der Architektur befasst und vergleicht die Xbox360 wie eine PC Architektur und genau das war dein Fehler :wink2:

Du hast es sogar geschafft mich zu Quoten wo ich sogar schrieb das man es nicht vergleichen kann und das als erstes !

[/b]
 
Mell@ce schrieb:
Gilgamesh schrieb:
Lutra schrieb:
Gilgamesh schrieb:
Also... du weißt doch sicher was ein Framebuffer ist, oder?
Nur: der ist bei der X360 gerade mal 10 Mb groß. Mit 4-fachen Antialiasing und bei einer Auflösung von nur 720p benötigt man allerdings schon ganze 14 Mb (von höheren Aufkösungen ganz zu schweigen) :neutral:
Soviel zur Unterstützung von HDTV... :lol:


Komisch nur, dass Condemned selbst in 1280x1024 4xAA hat ;)

Da das Bild für Antialiasing dreigeteilt wird, reichen die 10 MB ERam locker aus.

Aber selbstverständlich ist das möglich; allerdings nicht ohne andere Ressourcen anzuzapfen. Genau darauf wollte ich hinaus.
Vielen Dank für den Anlass das nochmal deutlich zu machen :)

Die X360 scheint sich ja immer mehr Knüppel zwischen die Beine werfen zu wollen. Erst muss der Cache der CPU herhalten und jetzt bittet auch noch der Framebuffer zu Hilfe :rolleyes:

Herzlich Wilkommen hier im Forum erst einmal.

Und nu direkt ma tacheles :)
Du beschwerst Dich indirekt über den Popkornfaktor hier und schmeißt damit nur so um dich :)

Ich beschwer mich überhaupt nicht!
Ich mag Popkorn! :)
 
Hazuki schrieb:
@Gilgamesh
Bitte verdreh hier nicht alles :wink2: Ich habe es Dir eigentlich schon relativ einfach gemacht es zu verstehen zu geben, nur wenn jemand schon mit 10Mb für den eDRAM reichen nicht aus für AA und HDTV kommt , der hat sich nicht wirklich mit der Architektur befasst und vergleicht die Xbox360 wie eine PC Architektur und genau das war dein Fehler :wink2:

Du hast es sogar geschafft mich zu Quoten wo ich sogar schrieb das man es nicht vergleichen kann und das als erstes !

[/b]

Nie war davon die rede, dass die Konsole keine höheren Auflösungen darstellen kann. Ich habe doch nur den Preis dafür genannt...
30 % weniger Rechenzeit für Polygone finde ich schon ziemlich ernüchternd...
Da kann man dieses ganze Terraflop-Gelaber echt nicht mehr ernst nehmen.
 
@Mell@ce

Bei der 360 läuft das so ab.
Die Daten gelangen vom Speicher oder auch vom Cache der CPU in den Xenos. Von dort werden alle Bearbeitungen im Chip und im eDRAM durchgeführt. Ist der eDRAM dann voll landet dessen Inhalt im Hauptspeicher und das nächste Teilbild wird vom Xenos und seinem eDRAM bearbeitet. Die ganze AA- Klamotte läuft zwischen Xenos und seinem eDRAM ab. Dieser verfügt über eine enorme Bandbreite (32Gbyte zum eDRAM, im eDRAM selber sogar 256Gbyte) so dass AA überhaupt kein Problem darstellt.

Zunächst einmal werden die Daten vom Massenspeicher in den Arbeitsspeicher geladen. Dann vom Arbeitsspeicher in den Xenos mit seinem GDDR3-Speicher. Von da aus werden sie vom Xenos abgerufen und in seinen eDRAM geladen. Das ganze geht locker flockig mit einer nicht gerade berauschenden Geschwindigkeit von 22,4 GByte/s von statten...
Da der eDRAM mit nur 10 MByte recht knapp bestückt ist und man für 1080i bei 4-fach AA 32MByte benötigt, müssen ständig Daten über den Flaschenhals zwischen GDDR3 und Xenos geliefert werden, was die von dir angesprochenen 256 GByte/s intern zur Farce werden lässt.
Die haben nämlich ein ganzes Stück lang Däumchen zu drehen, bis die nächsten Daten eingetrudelt sind - da kann er intern noch so schnell sein.

Der eigentliche Systembus wird nur vom normalen Datenaustausch Speicher / GPU belastet.
Man muss sich das mal vorstellen was da an Bandbreite gespart wird.
Es ist ja nicht nur das AA, was Bandbreite frisst. Für alle Postrendereffekte wird bei normalen GPU's immer erst das Bild im Hauptspeicher zwischengespeichert und dann zur Bearbeitung wieder in die GPU geladen, da eine normale GPU ja nun mal keinen Zwischenspeicher hat. Mit eDRAM braucht man diesen Zwischenschritt aber nicht mehr.

Und ob man den braucht...
 
Schaut mal ich habe auch was zum Tema:

Auf den ersten Blick sehen die technischen Spezifikationen der Xbox 360 spektakulär aus. Herz der Konsole ist eine 64-Bit-PowerPC-CPU mit drei Kernen, die mit 3,2 GHz arbeiten. Diese sollen 9 Milliarden Dot Product Operations pro Sekunde ausführen können, also eine Operation pro AltiVec-Einheit und Takt. Eine Dot Product Operation besteht üblicherweise aus fünf Gleitkomma-Operationen (drei Multiplikationen und zwei Additionen), woraus sich eine Rechenleistung von 45 GFLOP/s ergibt. Vergleicht man diese mit einem Pentium 4, der bei 3,8 GHz auf 15,2 GFLOP/s kommt oder einem PowerPC970, der bei 2,7 GHz immerhin 21,1 GFLOP/s bewältigt, wirkt die Xbox 360 rasant schnell. Der in der Playstation 3 verbaute CELL-Prozessor setzt allerdings acht parallele Recheneinheiten (SPE) ein und würde bei 4 GHz Taktrate theoretisch stattliche 256 GFLOP/s erreichen. Selbst wenn die Playstation 3 die Recheneinheiten ihres Cell-Prozessors nur mit 2 GHz taktete, wäre sie immer noch theoretisch dreimal so schnell wie die Xbox 360.
Wollte man die Xbox 360 in die Liste der schnellsten Rechner einordnen, darf man also nicht die von Microsoft proklamierten theoretischen Spitzenwert von 1 TFLOP/s ansetzen, da sie diese nur erreicht, wenn man unlauterer Weise die theoretische Rechenleistung der GPU hinzurechnen und diese ihre 48 parallelen Shader-Pipelines optimal ausnutzen würde. Zudem geht Microsoft bei dem Wert von 1 TFLOP/s anscheinend von Single-Precision-Operationen aus; für die Top-500-Liste wird jedoch immer die Double-Precision-Leistung gemessen.

Entscheidend für den Detailreichtum der kommenden Xbox-360-Spiele dürfte jedoch maßgeblich die Leistung der GPU sein. Hier stellt Microsoft die gigantische Transferrate von 256 GByte/s der 10 MByte embedded DRAM in der GPU in den Vordergrund. Dieser Speicher dient als Buffer für die Berechnungen der Farbanteile (rot, grün, blau) sowie für Alpha-, Stencil- und Tiefeninformationen jedes einzelnen Pixels. ATI nutzt ihn, um per Anti-Aliasing Objekt-Kanten zu glätten, und zwar ohne Performanceeinbußen. Von seiner Größe her wäre er für ein vierfaches Anti-Aliasing bei 1080i (1920 × 1080 Bildpunkten) dann allerdings zu klein. Selbst bei 720p (1280 × 720 Bildpunkten) wäre nur ein zweifaches Anti-Aliasing möglich, wenn alle Pixel komplett in die 10 MByte eDRAM passen sollen. Dem entsprechend schreibt Microsoft den Xbox-Spielen auch nur vor, Auflösungen von 720p mit 2X-Anti-Aliasing zu unterstützen. Höhere Auflösungen sind optional.

Erstaunlich niedrig fällt die Transferrate von 22,4 GByte/s zum GDDR3-Speicher aus, der gleichermaßen als Haupt- und Grafikspeicher dient. Diese liegt lediglich im Mittelfeld aktueller Grafikkarten. Bei der Pixel-Füllrate spricht Microsoft von 16 Millarden Samples pro Sekunde bei vierfachem Anti-Aliasing. Dabei werden jedoch immer 4 Samples für ein Pixel genutzt, die Pixelfüllrate beträgt demnach also nur 4 Gigapixel/s. Im Vergleich gibt ATI bei seinen GPUs jedoch immer die Füllrate in Pixeln an. Mit ihrer Polygonfüllrate von 500 Millionen Dreiecken pro Sekunde läge die Xbox-360-GPU Leistungsmäßig etwa auf dem Niveau einer Radeon X700 Pro, die auf 3,4 GPixel/s und 637,5 Millionen Polygone/s kommt. Sicherlich hat die Xbox-360-GPU bessere Shader-Tricks auf Lager, eine so motorisierte GPU wäre aber für eine Auflösung von 1920 × 1080 Bildpunkten selbst ohne Anti-Aliasing leicht untermotorisiert.

Na das hört sich aber nicht so an als Hätte die Xbox die absolute über GPU !
 
oh mann haste wieder den heiseartikel wo rauskopiert,genau der schwachfug mit 4xaa garnicht möglich wird auf kompetenten techseiten widerlegt.Und dann wundern die sich über die geringe bandbreite ,obwohl sie keinen plan haben das der eDram diesen mehr als ausgleicht.
schon komisch das FN3 hier und live in 720p,4xaa +HDR+Motion blur (was nedmal die schnellste pc graka zustande bringt) absolut smooth läuft :)

Zu den Gflops kann ich nur sagen das dies im endeffekt nichtssagend ist :)
Glaub sogar der Gamecube hat deutlich mehr gflops als die xbox ,und trotzdem sehen die x1 games besser aus :)
Aber rechnen wir doch mal wie es dort beschrieben wird.

x360 theoretisch 1 Tflop (dank us shader auslastung zu 95%) ergibt 0,95Tflop
ps3 2Tflop (wegen der ollen PC GPU,getrennet ps+vs auslastung 60%) 1,2 Tflops

So dann iss die ps3 halt theoretisch 25% schneller und?
Da iss ja der untershcied xbox vs cube noch wesentlich dramatischer.
und diese 25% denke ich werden durch den edram locker weggemacht,weil es eben bei 4xaa locker 30-40% performance kosten wird was den RSX betrifft und die x360 gpu da effezienter arbeitet.
 
BigBilly schrieb:
oh mann haste wieder den heiseartikel wo rauskopiert,genau der schwachfug mit 4xaa garnicht möglich wird auf kompetenten techseiten widerlegt.Und dann wundern die sich über die geringe bandbreite ,obwohl sie keinen plan haben das der eDram diesen mehr als ausgleicht.
schon komisch das FN3 hier und live in 720p,4xaa +HDR+Motion blur (was nedmal die schnellste pc graka zustande bringt) absolut smooth läuft :)

ja aber hier geht es jetzt rein um die hardware der x360 und die würde es nicht schaffen... das "problem" wird durch die richtige programmierung aber umgangen (also über die software... und wenn jemand was anderes behauptet dann hat der wohl null ahnung weil wäre es hardwäremäßig gelöst müsste man nur nen schalter umlegen und jedes game hat 4xAA) was natürlich performanceeinbußen zur folge hat die wiederrum laut einigen aussagen eher minimal sind... wie minimal kann man aber nie wirklich sagen da es auf extrem viele faktoren an kommt... bei schlechter programmierung laufen ja selbst games wie quake 4 nicht einwandfrei wie man sehen kann...
meiner meinung nach sind aber softwarelösungen nicht empfehlenswert wie man ja an der ps2 sehen kann und entwickler sind auch nicht besonders erfreut darüber und haben schon des öfteren gesagt das der edram zu klein ist!

BigBilly schrieb:
x360 theoretisch 1 Tflop (dank us shader auslastung zu 95%) ergibt 0,95Tflop
ps3 2Tflop (wegen der ollen PC GPU,getrennet ps+vs auslastung 60%) 1,2 Tflops

und das ist ja mal völlig aus der luft gegriffen weil
1. kannst du wenn du die auslastung der gpu in % hast nicht die tatsächliche leistung dann aus der gesamtleistung (cpu+gpu) errechnen
richtig wäre also bei der x360 0,95225 (bei den genannten zahlen von xee und bei 1tflop gesamt) und bei der ps3 wohl auch etwas mehr (wenn man es so genau nimmt)
2. weis auser nvidia und sony niemand auch nur irgendetwas vom rsx woraus man schließen könnte wie hoch die auslastung ist!

denke das war nur als ungefäres beispiel gedacht und sollte man nicht so ernst nehmen oder? ;)

BigBilly schrieb:
So dann iss die ps3 halt theoretisch 25% schneller und?
Da iss ja der untershcied xbox vs cube noch wesentlich dramatischer.
und diese 25% denke ich werden durch den edram locker weggemacht,weil es eben bei 4xaa locker 30-40% performance kosten wird was den RSX betrifft und die x360 gpu da effezienter arbeitet.

ich kenn mich vielleicht nicht so gut aus und falls es jemand besser weis soll er mich korrigieren aber ich dachte das in die 95% auslastung schon alles eingerechnet wurde (edram us etc.)
ich dachte also wenn du die x360 gpu als x annimmst (100%) diese mit 95% ausgelastet werden kann und das dann eine standart graka y mit 60% auslastung dann um 58,3% mehr leisten muss um auf das selbe ergebnis zu kommen (also 158,3% von x360 gpu leistung)

keine ahnung ob das stimmt aber wenn man jetzt die 1tflop der xbox360 gpu nimmt (weis den genauen wert nicht) und die 1,8tflop des rsx hätte der rsx 80% mehr leistung und wäre demnach der x360 gpu überlegen... (es werden ja nur 58,3%benötigt um auf das selbe zu kommen)
diese rechnung würde aber wohl nur stimmen wenn der rsx nur 60% auslastung schaffen würde...

hoffe ich hab mich nicht verrechnet ^^ sollte auch kein bash oder so sein sondern eher als frage interpretiert werden und hoffe auf konstruktive kritik
 
Das mit den Gflops war natürlich nicht ernst gemeint :)
Ich sagte ja das man daraus nie errechnen kann welche hardware nun um wieviel besser ist.
eDram ist keine softwarelösung ,eDram ist die lösung in Hardware für geringstenperformanceverlust was Effekte wie AA,HDR oder Motion Blur betrifft.
Wie du sagtest muss die software natürlich wissen wie der eDram funktioniert,und das tut kein launchgame,weil einfach die finalkits erst 6 wochen vor dem release an die entwickler ging,da waren die launchtitel ja fast feritg,die muss ausibig getestet werden ect.Da hat man nicht die möglichkeit einfach die engine in ein tilihnverfahren anzupassen.
Der zweite schwung an games wird ja zeigen wies geht.
Wer nen pc hat weiß ja selber das 4xAA bei 1280x720 einfach viel performance frisst,von HDR ganz zu schweigen.Weil eben die Bandbreite hier eine große rolle spielt,umso wichtiger war es hier eine hardwarelösung zu finden.
Ich bin wirklihc gespannt wie der RSX das lösen wird,da hat man bisher keine infos dazu,nur das die "normale bandbreite" höher ist als bei der x360.
 
Och ne,
da kommt man von der Nachtschicht und nu das hier wieder. Hab echt keine Lust mehr wenn hier entweder vieles überlesen oder einfach einem die Worte im Munde umgedreht werden.

Gilgamesh schrieb:
Nie war davon die rede, dass die Konsole keine höheren Auflösungen darstellen kann. Ich habe doch nur den Preis dafür genannt...
30 % weniger Rechenzeit für Polygone finde ich schon ziemlich ernüchternd...
Da kann man dieses ganze Terraflop-Gelaber echt nicht mehr ernst nehmen

Wie kommst Du eigentlich auf den Quatsch mit den 30 % Verlust? Wüsste wirklich mal die Quelle dafür.

Gilgamesh schrieb:
Zunächst einmal werden die Daten vom Massenspeicher in den Arbeitsspeicher geladen. Dann vom Arbeitsspeicher in den Xenos mit seinem GDDR3-Speicher. Von da aus werden sie vom Xenos abgerufen und in seinen eDRAM geladen. Das ganze geht locker flockig mit einer nicht gerade berauschenden Geschwindigkeit von 22,4 GByte/s von statten...
Bis dahin stimmt es.
Gilgamesh schrieb:
Da der eDRAM mit nur 10 MByte recht knapp bestückt ist und man für 1080i bei 4-fach AA 32MByte benötigt, müssen ständig Daten über den Flaschenhals zwischen GDDR3 und Xenos geliefert werden, was die von dir angesprochenen 256 GByte/s intern zur Farce werden lässt.
Die haben nämlich ein ganzes Stück lang Däumchen zu drehen, bis die nächsten Daten eingetrudelt sind - da kann er intern noch so schnell sein.
ab hier wird’s kokoloes.
Es müssen eben nicht ständig Daten zwischen eDRAM und Speicher ausgetauscht werden ist das denn so schwer zu verstehen.
Stell Dir einfach ein Frame in vier große Teile (bei 720p 4fach AA) aufgeteilt vor und behandelt diese Teile als einzelnes Bild. Das Bild wird vom Speicher in den Xenos geladen, dort bearbeitet und im eDRAm geschaufelt. Es belegt hier ja nur knapp ein viertel des eDRAMs. Jetzt wird es wieder in den Xenos geladen um weiterer Berechnungen anzustellen und wieder zurück ins eDRAM. Dann wird im eDRAM das AA durchgeführt. Da ja das eigentliche Teilbild nur ein viertel des eDRAMS belegt bleibt ja eben genug Platz um im eDRAM das Antialiasing durchzuführen. Zuletzt wird das fertige Bild (Viertelbild und belegt jetzt wieder nur ein Viertel des eDRAMS) als Frontbuffer in den Hauptspeicher geschrieben. Dann wird das gleiche mit den drei anderen Vierteln des gesamten Frames gemacht. Wie du siehst erfolgt nur am Anfang und am Ende ein Zugriff auf den Hauptspeicher. Natürlich ist die gesamte Prozedur ein wenig aufwändiger. Es sollte aber zur Erklärung ausreichen das Prinzip dahinter zu erkennen.
Gilgamesh schrieb:
Und ob man den braucht...
Wie Du meinen Ausführungen entnehmen kann eben nicht. Die hohe Bandbreite braucht man hauptsächlich für die AA Berechnung und die sonst noch zu erledigenden Berechnungen wie Alpha- und Z- Wert Berechnungen, die auch im eDRAM stattfinden. Deshalb ist die Bandbreite im eDRAM ja so hoch, hätte ja sonst wohl kaum Sinn.

Und nu zu Katana
Katana schrieb:
Ja aber hier geht es jetzt rein um die hardware der x360 und die würde es nicht schaffen... das "problem" wird durch die richtige programmierung aber umgangen (also über die software... und wenn jemand was anderes behauptet dann hat der wohl null ahnung weil wäre es hardwäremäßig gelöst müsste man nur nen schalter umlegen und jedes game hat 4xAA) was natürlich performanceeinbußen zur folge hat die wiederrum laut einigen aussagen eher minimal sind... wie minimal kann man aber nie wirklich sagen da es auf extrem viele faktoren an kommt... bei schlechter programmierung laufen ja selbst games wie quake 4 nicht einwandfrei wie man sehen kann...
meiner meinung nach sind aber softwarelösungen nicht empfehlenswert wie man ja an der ps2 sehen kann und entwickler sind auch nicht besonders erfreut darüber und haben schon des öfteren gesagt das der edram zu klein ist!

Was bitte schön hat das mit Software zu tun? Genau, gar nix. Diese Dinge werden alle von der Hardware bearbeitet und sind in keinster Weise mit der PS2 zu vergleichen. Das einzige was das Programm dazu bereithalten muss ist die Fähigkeit eben mit Drittel- bzw Viertelbildern (bei 720p und 4fach AA) umgehen zu können. Für den Rest braucht man keine Softwarelösung. Hierzu muss natürlich die Gameengine angepasst werden, was bei den ersten Launchgames nicht der Fall war. Hat man einmal diese Routine geschrieben lässt sie sich eigentlich für jedes weitere Spiel weiter verwenden. Das hat aber nichts damit zu tun, dass die Hardware nicht extra dafür ausgelegt ist. Für die Shader in den GPU’s muss man ja auch Programme schreiben. Nach deiner Logik ist es also auch dort eine Softwarelösung da man nicht mal eben einen Schalter umlegen muss um den einen oder anderen Effekt zu erhalten. Verstehst Du worauf ich hinaus will?

Was Du bei der PS2 verwechselst ist folgendes.
Die PS2 hatte nicht solche hardwareseitigen Einheiten wie z.B. Shader. Deshalb musste man für sie jeden einzelnen Effekt mühsam per Hand programmieren und der wurde dann durch den Grafic Synthesizer und die Emotion-Engine gejagt. Die hatte das, was man als "Rohpower" bezeichnet. Das heißt, sie konnte schnell aber nicht speziell rechnen. Was das mit dem eDRAM zu tun hat ist mir schleierhaft.
Sorry wenn ich das sage, aber es sind nicht die Anderen, die hier "wohl keine Ahnung" zu haben scheinen.

Gilgamesh schrieb:
Natürlich ist es anders. (Die PS2 hat schließlich schon ein halbes Jahrzehnt auf dem Buckel)
Aber nicht in der Form, wie du dir das jetzt wieder vorstellst. Jedes mal wenn ein frei programmierbarer Prozessor Aufgaben übernimmt, die nicht für ihn bestimmt sind, handelt es sich um eine Softwarelösung. Da macht die X360 keine Ausnahme.
Wie schon gesagt, da irrt der Verfasser dieser Zeilen.
Ich weiß echt nicht wie Du darauf kommst, dass das eDRAM mit seiner Logik ein frei zu programmierender Prozessor ist. Das ist nur für die o.g. Dinge da und wird auch nur dafür, wenn es denn eingesetzt wird, genutzt. Nutzt man ihn nicht, geht Power flöten, da ungenutzt.

Zurück zum eDRAM.
Der oben beschriebene Vorgang der Grafikpipeline unter Verwendung des eDRAM führt nur zu sehr geringen Geschwindigkeitseinbußen. Das überhaupt ein Geschwindigkeitsverlust zu verzeichnen ist liegt an folgendem:

Ob ich nämlich z.B. ein 720p Bild mit keinem, 2fachen oder 4fachen AA berechne ändert ja nix an den Aufgaben der GPU und auch nichts an der Bandbreite zwischen GPU und Hauptspeicher. Die ist nämlich immer fast identisch.
Der leichte Performanceabfall, hatte ich aber auch schon geschrieben, entsteht dadurch, das man zum Antialiasing eben mehrere Pixel braucht. Unter anderem müssen deshalb einige Randpixel jedes Teilbildes doppelt gerendert werden, damit dort ein AA übergangslos gewährleistet werden kann. Daher der Abfall von 1-3 Abfall durch die Doppelberechnung. Wie gesagt, ein bis maximal drei Prozent, nicht die wo auch immer hergeholten 30 Prozent, die von Gilgamesh angegeben wurden.


@Xee
Macht Dich nicht lächerlich.
Der Artikel stammt doch von Heise oder einer Seite, die Heise als Quelle genommen hat und einfach das Ganze ein wenig umformulierte.
Der Artikel ist erstens uralt und zweitens schon um die 1329mal auseinander genommen und für Scheiße (ups, sorry :)), weil völlig unzutreffend, erklärt worden.

Katana schrieb:
Ich kenn mich vielleicht nicht so gut aus und falls es jemand besser weis soll er mich korrigieren aber ich dachte das in die 95% auslastung schon alles eingerechnet wurde (edram us etc.)
ich dachte also wenn du die x360 gpu als x annimmst (100%) diese mit 95% ausgelastet werden kann und das dann eine standart graka y mit 60% auslastung dann um 58,3% mehr leisten muss um auf das selbe ergebnis zu kommen (also 158,3% von x360 gpu leistung)
Vom Rechenbeispiel völlig korrekt
Katana schrieb:
keine ahnung ob das stimmt aber wenn man jetzt die 1tflop der xbox360 gpu nimmt (weis den genauen wert nicht) und die 1,8tflop des rsx hätte der rsx 80% mehr leistung und wäre demnach der x360 gpu überlegen... (es werden ja nur 58,3%benötigt um auf das selbe zu kommen)
diese rechnung würde aber wohl nur stimmen wenn der rsx nur 60% auslastung schaffen würde...
Stimmt auch.
Katana schrieb:
hoffe ich hab mich nicht verrechnet ^^ sollte auch kein bash oder so sein sondern eher als frage interpretiert werden und hoffe auf konstruktive kritik
Nö, ist kein bash sondern genau das was ich hier versuche manchem nahe zu bringen, nämlich mit konkreten Fakten konstruktive Kritik zu üben.
So sollte es öfter sein, dann macht es auch wieder Spaß hier seine Freizeit zu verdudeln :)

Der RSX hat nach derzeitigem Kenntnisstand, selbst wenn man die schlechtere Effektivität einbezieht, eine höhere Leistung als der Xenos, wenn man das auf die Shaderleistung bezieht. Das wurde, zumindest von mir, nie bestritten.
Das eDRAM ist aber bei der obigen Rechnung nicht mit einbezogen, da es ja überhaupt nicht zur Shaderleistung bzw. Floppberechnung eingerechnet wird. Es übernimmt ja keine Shaderfunktionen sonder Alpha- und Z-Berechnungen sowie eben AA.
Mit aktiviertem Antialiasing sage ich aber dem Xenos einen Leistungsvorsprung gegenüber dem RSX nach, da diesem eben die erhöhte Bandbreite fehlt bzw. diese durch AA eingeschränkt wird welche eben beim Xenos durch das eDRAM nicht anfällt.
 
Also ich denke das da was dran ist den wen es so einfach und ohne Proformenc Verlust mit dem AA wäre dann würden auch die jetzigen spiele AA haben oder ?
 
Xee schrieb:
Also ich denke das da was dran ist den wen es so einfach und ohne Proformenc Verlust mit dem AA wäre dann würden auch die jetzigen spiele AA haben oder ?

Naja, einfach ist relativ.
Fakt ist ja nun mal, dass es erst mit den Finalen Dev-Kits möglich ist, dieses zu bewerkstellingen, da in den Betakits ja noch kein Xenos drin steckte, der das alles erst erlaubt. Deshalb war einfach die Zeit für die Impementierung zu knapp. Alle demnächst erscheinenden Titel sollten das aber beherrschen. Wenn nicht, versteh ich die Welt auch nicht mehr und es sollen sich die Entwickler dann mal melden, wo denn dann das Problem liegt.
 
Die Engine muss den edram unterstützen, und leider war dieser erst in der finalen Hardware vorhanden, somit war es unmöglich ihn in der kurzen Zeit in der Engine zu unterstützen.
Derzeit sollten alle neuen Spiele locker 4xFSAA benutzen.

Sobald XNA endlich erscheint, ist es überhaupt kein Problem mehr, weil in der Bibliothek Standard-Routinen beinhaltet sind, wie man den edram am besten nutzt!
XNA kommt Ende Februar.


Achja wegen dem da oben.
Xenon hat nicht 40GFlops, sondern um die 115GFlops!
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom