3. PS3 vs. Xbox360 vs. Nrev

Status
Nicht offen für weitere Antworten.
/ajk schrieb:
Hazuki schrieb:
Ja habe ich oder meinst ich tippe mir jedesmal die Finger Wund !

Zweimal musste ich den Text schon neu schreiben und ich wußte das es nicht das letzte mal sein wird .................wie man hier sieht!

vieles.. aber genial ist die xbox 2 nicht. Genial ist der NDS und das Powerbook.. aber nicht die xbox2.. die ist laut, stromverschwendend und ineffizient.

Laut is lediglich das dvd-laufwerk hoffe das wird bei den nächsten revisionen durch ein neues ausgetauscht. Und stromverschwender sind so ziemlich alle elektronischen geräte siehe mal aktuelle desktop prozzis oder grafikarten mit externem netzteil zusätzlich zur agp/pci-e spannung. Und was genau meinst du mit ineffizient? Btw was ist so genial an einem powerbook - das es weiss ist?
 
Hazuki schrieb:
Gilgamesh schrieb:
Aber selbstverständlich ist das möglich; allerdings nicht ohne andere Ressourcen anzuzapfen. Genau darauf wollte ich hinaus.
Vielen Dank für den Anlass das nochmal deutlich zu machen :)

Die X360 scheint sich ja immer mehr Knüppel zwischen die Beine werfen zu wollen. Erst muss der Cache der CPU herhalten und jetzt bittet auch noch der Framebuffer zu Hilfe :rolleyes:

Stimmt es wäre doch besser gewesen wenn Komponeten eigebaut hätte die nichts machen müssten , das zeigt nämlich Eier :rolleyes: :lol:

Anstatt die ersten heise Artikel (die auch noch falsch waren ,GUTEN MORGEN) zu zitieren solltest Du erstmal begreifen was man dir sagt


:D

Erstens habe ich das nicht aus der Heise (hast ja nette Quellen im Repertoire) und zweitens begreife ich die computerspezifischen Aussagen von jemandem ,der behauptet, dass eine CPU ohne Stack funktioniert, nur zu gut :rolleyes:
 
Gilgamesh schrieb:
Hazuki schrieb:
Gilgamesh schrieb:
Aber selbstverständlich ist das möglich; allerdings nicht ohne andere Ressourcen anzuzapfen. Genau darauf wollte ich hinaus.
Vielen Dank für den Anlass das nochmal deutlich zu machen :)

Die X360 scheint sich ja immer mehr Knüppel zwischen die Beine werfen zu wollen. Erst muss der Cache der CPU herhalten und jetzt bittet auch noch der Framebuffer zu Hilfe :rolleyes:

Stimmt es wäre doch besser gewesen wenn Komponeten eigebaut hätte die nichts machen müssten , das zeigt nämlich Eier :rolleyes: :lol:

Anstatt die ersten heise Artikel (die auch noch falsch waren ,GUTEN MORGEN) zu zitieren solltest Du erstmal begreifen was man dir sagt


:D

Erstens habe ich das nicht aus der Heise (hast ja nette Quellen im Repertoire) und zweitens begreife ich die computerspezifischen Aussagen von jemandem der behauptet, dass eine CPU ohne Stack funktioniert, nur zu gut :rolleyes:

Es wird ja nicht der gesamte Cache gelockt sondern nur einen Teil, glaube es sind 100 kb oder so ähnlich
 
Wer will denn hier schonwieder weiß machen das Unified Shader die Wurst vom Teller zieht ? Das stimmt doch nicht, etliche Benchmarks haben schon das Gegenteil bewiesen. Is natürlich nicht schlecht die Unified Shader, reißt aber nicht eine ganze Systemperformance aus dem Argen.

Das einzige was bei der PS3 wirklich probleme machen könnte sind die Busbreiten. Wir hatte ja schon gesagt das (glaub ich ...) 25 Gig lese und 15 gig schreiben von der GPU zum Graka speicher da sind. Wenn man das natürlich auf 1080P mit etlichen süßen effekten hochrechnet wird das verdammt eng. Eine große Schwäche der PS3.

Trotzdem investiert Sony mit dem Cell in die Zukunft. Die 2. Generation wurde ja schon vorgestellt und bietet mal eben 16 SPE's anstatt nur 8. Man stelle sich vor sie könnten irgendwann wirklich mehrere Cells vernetzen und die 3. Generation mit 32 SPE's per CELL tritt an - woah. Was die reine Geometrieleistung anbetrifft dürfte wohl auch ein einzelner Cell mit 8 SPE's alles wegburnen - dank Vectorrechnung-Befehlssatzerweiterung. Dann kommt noch das "Sorgenkind" RSX von dem Nvidia behauptet das 4 7800GTX GPU's eine ungefähre Vorstellung der Leistungsfähigkeit der RSX bietet - da muss man mal schauen.

Als api für die GPU wird übrigens eine entschlackte und etwas getweakte form von OpenGL verwendet, was dem DirectX abklatsch der Xbox wohl ein gutes stück voraus sein dürfte - das mal am rande.

Bleiben noch die bösen bussysteme übrig die wirklich nicht das hergeben was sony verspricht - außer sie holen noch einen hasen aus dem hut.

Rein Geometrietechnisch dürfte die PS3 aber das absolute Polycount Monster werden! Der rest - mal sehen :blushed: .
 
Gilgamesh schrieb:
Erstens habe ich das nicht aus der Heise (hast ja nette Quellen im Repertoire) und zweitens begreife ich die computerspezifischen Aussagen von jemandem ,der behauptet, dass eine CPU ohne Stack funktioniert, nur zu gut :rolleyes:

Habe ich das Behauptet ja , ließ doch mal bitte richtig!


Hier nochmal

As the CPU is going to be using Xenos to handle all its memory transfers, the connection between the two has 10.8GB/s of bandwidth both upstream and downstream simultaneously. Additionally the Xenos graphics processor is able to directly lock the cache of the CPU in order to retrieve data directly from it without it having to go to system memory beforehand. The purpose of this is that one (or more, if wanted) of the three CPU cores could be generating very high levels of geometry that the developer doesn't want to, or can't, preserve in the memory footprints available on the system when in use. High-resolution dynamic geometry such as grass, leaves, hair, particles, water droplets and explosion effects are all examples of one type of scenario that the cache locking may be used in."
:wink2:
 
Sponkman schrieb:
Wer will denn hier schonwieder weiß machen das Unified Shader die Wurst vom Teller zieht ? Das stimmt doch nicht, etliche Benchmarks haben schon das Gegenteil bewiesen. Is natürlich nicht schlecht die Unified Shader, reißt aber nicht eine ganze Systemperformance aus dem Argen.

Das einzige was bei der PS3 wirklich probleme machen könnte sind die Busbreiten. Wir hatte ja schon gesagt das (glaub ich ...) 25 Gig lese und 15 gig schreiben von der GPU zum Graka speicher da sind. Wenn man das natürlich auf 1080P mit etlichen süßen effekten hochrechnet wird das verdammt eng. Eine große Schwäche der PS3.

Trotzdem investiert Sony mit dem Cell in die Zukunft. Die 2. Generation wurde ja schon vorgestellt und bietet mal eben 16 SPE's anstatt nur 8. Man stelle sich vor sie könnten irgendwann wirklich mehrere Cells vernetzen und die 3. Generation mit 32 SPE's per CELL tritt an - woah. Was die reine Geometrieleistung anbetrifft dürfte wohl auch ein einzelner Cell mit 8 SPE's alles wegburnen - dank Vectorrechnung-Befehlssatzerweiterung. Dann kommt noch das "Sorgenkind" RSX von dem Nvidia behauptet das 4 7800GTX GPU's eine ungefähre Vorstellung der Leistungsfähigkeit der RSX bietet - da muss man mal schauen.

Als api für die GPU wird übrigens eine entschlackte und etwas getweakte form von OpenGL verwendet, was dem DirectX abklatsch der Xbox wohl ein gutes stück voraus sein dürfte - das mal am rande.

Bleiben noch die bösen bussysteme übrig die wirklich nicht das hergeben was sony verspricht - außer sie holen noch einen hasen aus dem hut.

Rein Geometrietechnisch dürfte die PS3 aber das absolute Polycount Monster werden! Der rest - mal sehen :blushed: .

Watt?! 4 mal einer 78xxer GPU?! Das ist ja fast noch eine Gen wieter als die XBOX360 wenn das stimmt :o
 
Der lahme Muck schrieb:
Gilgamesh schrieb:
Hazuki schrieb:
Gilgamesh schrieb:
Aber selbstverständlich ist das möglich; allerdings nicht ohne andere Ressourcen anzuzapfen. Genau darauf wollte ich hinaus.
Vielen Dank für den Anlass das nochmal deutlich zu machen :)

Die X360 scheint sich ja immer mehr Knüppel zwischen die Beine werfen zu wollen. Erst muss der Cache der CPU herhalten und jetzt bittet auch noch der Framebuffer zu Hilfe :rolleyes:

Stimmt es wäre doch besser gewesen wenn Komponeten eigebaut hätte die nichts machen müssten , das zeigt nämlich Eier :rolleyes: :lol:

Anstatt die ersten heise Artikel (die auch noch falsch waren ,GUTEN MORGEN) zu zitieren solltest Du erstmal begreifen was man dir sagt


:D

Erstens habe ich das nicht aus der Heise (hast ja nette Quellen im Repertoire) und zweitens begreife ich die computerspezifischen Aussagen von jemandem der behauptet, dass eine CPU ohne Stack funktioniert, nur zu gut :rolleyes:

Es wird ja nicht der gesamte Cache gelockt sondern nur einen Teil, glaube es sind 100 kb oder so ähnlich

Hmmm... in der Praxis kaum vorstellbar...
Dann müssten große Teile des Stacks in den Hauptspeicher geschrieben werden, was zur ordentlichen Beschneidung der CPU führen würde... es sei denn die KI wäre doof wie Brot oder das Programm führt ständig die gleichen Abläufe aus... dazwischen gibt es eigentlich nicht viel bei nur 64 Kb Cache pro Core...
 
Der lahme Muck schrieb:
Sponkman schrieb:
Wer will denn hier schonwieder weiß machen das Unified Shader die Wurst vom Teller zieht ? Das stimmt doch nicht, etliche Benchmarks haben schon das Gegenteil bewiesen. Is natürlich nicht schlecht die Unified Shader, reißt aber nicht eine ganze Systemperformance aus dem Argen.

Das einzige was bei der PS3 wirklich probleme machen könnte sind die Busbreiten. Wir hatte ja schon gesagt das (glaub ich ...) 25 Gig lese und 15 gig schreiben von der GPU zum Graka speicher da sind. Wenn man das natürlich auf 1080P mit etlichen süßen effekten hochrechnet wird das verdammt eng. Eine große Schwäche der PS3.

Trotzdem investiert Sony mit dem Cell in die Zukunft. Die 2. Generation wurde ja schon vorgestellt und bietet mal eben 16 SPE's anstatt nur 8. Man stelle sich vor sie könnten irgendwann wirklich mehrere Cells vernetzen und die 3. Generation mit 32 SPE's per CELL tritt an - woah. Was die reine Geometrieleistung anbetrifft dürfte wohl auch ein einzelner Cell mit 8 SPE's alles wegburnen - dank Vectorrechnung-Befehlssatzerweiterung. Dann kommt noch das "Sorgenkind" RSX von dem Nvidia behauptet das 4 7800GTX GPU's eine ungefähre Vorstellung der Leistungsfähigkeit der RSX bietet - da muss man mal schauen.

Als api für die GPU wird übrigens eine entschlackte und etwas getweakte form von OpenGL verwendet, was dem DirectX abklatsch der Xbox wohl ein gutes stück voraus sein dürfte - das mal am rande.

Bleiben noch die bösen bussysteme übrig die wirklich nicht das hergeben was sony verspricht - außer sie holen noch einen hasen aus dem hut.

Rein Geometrietechnisch dürfte die PS3 aber das absolute Polycount Monster werden! Der rest - mal sehen :blushed: .

Watt?! 4 mal einer 78xxer GPU?! Das ist ja fast noch eine Gen wieter als die XBOX360 wenn das stimmt :o

gab vor ein paar tagen ein video hier. Da war ein nvidia technikboss auf der ces zu sehen als er wirklich gesagt hat.

"naja, hier haben wir 2 7800 GTX Grakas mit je 2 GPU's zu SLI verbunden. Insgesamt ergibts sich daraus 2GB Graka-Speicher. Das sollte eine ungefähre Vorstellung von der Leistungsfähigkeit des PS3 Grafikchips geben."
 
Sponkman schrieb:
Wer will denn hier schonwieder weiß machen das Unified Shader die Wurst vom Teller zieht ? Das stimmt doch nicht, etliche Benchmarks haben schon das Gegenteil bewiesen.

Oh die benches möchte ich mal gerne sehen...Also ich wüste nicht wie man das benchen sollte an konkreten beispielen, also ich bitte mal um eine quelle.
 
Sponkman schrieb:
"Sorgenkind" RSX von dem Nvidia behauptet das 4 7800GTX GPU's eine ungefähre Vorstellung der Leistungsfähigkeit der RSX bietet - da muss man mal schauen.

Das bezog sich eher auf High Definition als auf die Grafik Power das hat das Nvidia Männle extra betont!

Sponkman schrieb:
Als api für die GPU wird übrigens eine entschlackte und etwas getweakte form von OpenGL verwendet, was dem DirectX abklatsch der Xbox wohl ein gutes stück voraus sein dürfte - das mal am rande.

DirectX 9 ,10 aka WGF1.0 und 2.0 sind also schlechte APIs ! XNA ist natürlich auch voll ür den Arsch :shakehead:

Ich frage mich wirklich warum Open GL als Api noch kaum verwendet wird wenn es doch so besser ist !
Außerdem bin ich mal sehr gespannt wie sie die Probs mit SM 3.0 im Bezug auf Open GL lösen!
 
Gilgamesh schrieb:
Der lahme Muck schrieb:
Gilgamesh schrieb:
Hazuki schrieb:
Gilgamesh schrieb:
Aber selbstverständlich ist das möglich; allerdings nicht ohne andere Ressourcen anzuzapfen. Genau darauf wollte ich hinaus.
Vielen Dank für den Anlass das nochmal deutlich zu machen :)

Die X360 scheint sich ja immer mehr Knüppel zwischen die Beine werfen zu wollen. Erst muss der Cache der CPU herhalten und jetzt bittet auch noch der Framebuffer zu Hilfe :rolleyes:

Stimmt es wäre doch besser gewesen wenn Komponeten eigebaut hätte die nichts machen müssten , das zeigt nämlich Eier :rolleyes: :lol:

Anstatt die ersten heise Artikel (die auch noch falsch waren ,GUTEN MORGEN) zu zitieren solltest Du erstmal begreifen was man dir sagt


:D

Erstens habe ich das nicht aus der Heise (hast ja nette Quellen im Repertoire) und zweitens begreife ich die computerspezifischen Aussagen von jemandem der behauptet, dass eine CPU ohne Stack funktioniert, nur zu gut :rolleyes:

Es wird ja nicht der gesamte Cache gelockt sondern nur einen Teil, glaube es sind 100 kb oder so ähnlich

Hmmm... in der Praxis kaum vorstellbar...
Dann müssten große Teile des Stacks in den Hauptspeicher geschrieben werden, was zur ordentlichen Beschneidung der CPU führen würde... es sei denn die KI wäre doof wie Brot oder das Programm führt ständig die gleichen Abläufe aus... dazwischen gibt es eigentlich nicht viel bei nur 64 Kb Cache pro Core...

Ich meinte eher in Bezug auf die GPU. Sorry hab mich falsch ausgedrückt. Natürlich steht der Großteil des Caches den Cores zur Verfügung und davon lockt halt die GPU einen Teil für sich
 
Bisher sagt doch so ziemlich jeder das der RSX in Verbindung mit dem Cell stärker wird, z. B. Crytek, Bioware/Pandemic, id Software (Carmack persönlich!).

Die Frage ist nur ob man das auch wirklich sieht.

Ich erwarte Unterschiede wie bei PS2/X-Box, also bessere Framerate, bessere Ladezeiten oder schärfere Texturen bei der PS3 Version und sonst inhaltsgleich.
 
@ Hazuki, wenn du deine Xbox 360 so toll findest, warum heiratest du sie nicht ? wenn ich mal ganz frech fragen darf :blushed:
 
Frenck schrieb:
Bisher sagt doch so ziemlich jeder das der RSX in Verbindung mit dem Cell stärker wird, z. B. Crytek, Bioware/Pandemic, id Software (Carmack persönlich!).

Sie gehen aber von dem Theoretischen aus was ja auch rein Datentechnisch der Fall ist !
 
Schärfere Texturen kannst knicken, beide haben 512 MB Speicher, die X360 sogar 10 MB mehr dank edram...
 
Gilgamesh schrieb:
Lutra schrieb:
Gilgamesh schrieb:
Also... du weißt doch sicher was ein Framebuffer ist, oder?
Nur: der ist bei der X360 gerade mal 10 Mb groß. Mit 4-fachen Antialiasing und bei einer Auflösung von nur 720p benötigt man allerdings schon ganze 14 Mb (von höheren Aufkösungen ganz zu schweigen) :neutral:
Soviel zur Unterstützung von HDTV... :lol:


Komisch nur, dass Condemned selbst in 1280x1024 4xAA hat ;)

Da das Bild für Antialiasing dreigeteilt wird, reichen die 10 MB ERam locker aus.

Aber selbstverständlich ist das möglich; allerdings nicht ohne andere Ressourcen anzuzapfen. Genau darauf wollte ich hinaus.
Vielen Dank für den Anlass das nochmal deutlich zu machen :)

Die X360 scheint sich ja immer mehr Knüppel zwischen die Beine werfen zu wollen. Erst muss der Cache der CPU herhalten und jetzt bittet auch noch der Framebuffer zu Hilfe :rolleyes:

Herzlich Wilkommen hier im Forum erst einmal.

Und nu direkt ma tacheles :)
Du beschwerst Dich indirekt über den Popkornfaktor hier und schmeißt damit nur so um dich :)

Und für alle.:
Es wird mal wieder vieles durcheinander geworfen.

1.) Floiting Points
FP sind wichtig für Grafik und teilweise Physikberechnungen

Nun wurde die Grafik aber bisher eben hauptsächlich von der GPU bearbeitet, weshalb die FP-Leistung beim Hauptprozessor nebensächlich war.
Die XBOX hatte natürlich die höchste FP-Leistung, aufs Gesamtsystem bezogen. Allein betrachtet hatte das Derivat zwischen Pentium3 und Celeron die geringste FP-Leistung aller drei CPU's.

Mit der neuen Generation könnte ja ein kleiner Wandel eintreten. Der Cell könnte Vertexshaderfunktionen übernehmen. Dann käme auf jeden Fall seine hohe FP-Leistung zum Tragen. Bis die endgültige Architektur offen gelegt wird, kann man aber dazu noch nicht so viel sagen. Denn eine Ausdehnung der Grafik auf zwei Chips (RSX und Cell) erfordert natürlich auch eine erhöhte Bandbreite zwischen beiden Komponenten. Ob hierdurch der Vorteil der Vertexberechnungen durch Bandbreitenbeschränkungen wieder wett gemacht würde, muss man abwarten.

Dass der Xenos (GPU der 360) durchaus in der Lage ist auch mit lediglich 10MByte eDRAM HD mit AA darzustellen, sollte auch mittlerweile dem letzten Kritiker zu Ohren gekommen sein. Hierbei werden auch keine anderen Ressourcen verbraucht. Das Bild wird einfach aufgeteilt. Die Technik muss die Engine nur beherrschen. Ansonsten ist es schnurz-piep-egal ob ich ein Bild komplett rendere oder in 2 bzw. 3 Teile aufteile.

Ok, ein wenig Mehraufwand besteht, da ich einzelne Pixel an den Teilbildrändern, für die Berechnung des AA doppelt rendern muss. Das bewegt sich aber im Bereich von 2-3 Prozent.
Ich erhalte also z.B. 4fach AA mit einem Performanceverlust von maximal 3 Prozent. Und das absolut gesehen

Jetzt kann man sich ja mal ausrechnen wie hoch bei normaler Technik der Verlust, bzw. der Mehraufwand für 4fach AA ist.
Beim Einsatz für AA müssen die Bilddaten mehrere Male zwischen der GPU und dem Speicher hin und her geschoben werden. Dass das natürlich Speicherbandbreite kostet ist kein Geheimnis. Die PS3 mit ihrem 128Bit Interface zum Grafikspeicher und angepriesenem 1080p wird da doch arge Probleme bekommen es sei denn Sony zieht noch was ganz geheimes, was mit dem Speicherinterface zu tun hat, aus dem Hut

Bei der 360 läuft das so ab.
Die Daten gelangen vom Speicher oder auch vom Cache der CPU in den Xenos. Von dort werden alle Bearbeitungen im Chip und im eDRAM durchgeführt. Ist der eDRAM dann voll landet dessen Inhalt im Hauptspeicher und das nächste Teilbild wird vom Xenos und seinem eDRAM bearbeitet. Die ganze AA- Klamotte läuft zwischen Xenos und seinem eDRAM ab. Dieser verfügt über eine enorme Bandbreite (32Gbyte zum eDRAM, im eDRAM selber sogar 256Gbyte) so dass AA überhaupt kein Problem darstellt.

Der eigentliche Systembus wird nur vom normalen Datenaustausch Speicher / GPU belastet.
Man muss sich das mal vorstellen was da an Bandbreite gespart wird.
Es ist ja nicht nur das AA, was Bandbreite frisst. Für alle Postrendereffekte wird bei normalen GPU's immer erst das Bild im Hauptspeicher zwischengespeichert und dann zur Bearbeitung wieder in die GPU geladen, da eine normale GPU ja nun mal keinen Zwischenspeicher hat. Mit eDRAM braucht man diesen Zwischenschritt aber nicht mehr.
Allerdings muss man auch die Programmierung darauf umstellen, da es nicht damit getan ist einfach einen Schalter im Chip umzulegen damit der das automatisch alles logistisch auf die Kette kriegt :)

Die Programmierer scheinen aber jetzt nach der heißen Launchphase sich die Zeit zu nehmen, die Technik zu begreifen und sie dementsprechend auch einzusetzen.
Der eDRAM wird also schon zu recht als echte Innovation bezeichnet. Zwar hatte auch der GC schon eDRAM, das war aber bei weitem nicht so flexibel einsetzbar wie es nun in der 360 seine Anwendung erfährt.

Was ich aber auch nicht unerwähnt lassen möchte. Ich finde auch, dass der GC in dieser Generation die optimierteste Spielkonsole war. Er ist zwar leistungsmäßig hinter der XBOX anzusiedeln hat aber ein wesentlich besseres Preis/Leistungsverhältnis. Seine Komponenten sind besser aufeinander abgestimmt, passen in ein viel kleineres Gehäuse und sein Produktionspreis dürfte bei vermutlich gerade mal einem Drittel derer der XBOX liegen. Diese hat aber als Entschuldigung natürlich mehr Speicher, Festplatte und Netzwerkadapter eingebaut :)
 
Ich denke es wird sowieso nur Unterschiede bei den Exklusivtiteln geben.

Und ich denke schon, dass die PS3 etwas leistungsstärker wird. Würde sie nicht leistungsfähiger als die XBox360, würde ich mich fragen was Sony die ganze Zeit macht...
 
wenn Itagaki-san erstmal los legt, werdet ihr schon sehen welche konsole mehr staunen verursacht :P
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom