Grafik X-Box - Gamecube

Nein, es ist nicht korrekt dass die Xbox die beste Grafikhardware hat.

Die Xbox hat einen Vertex Shader, der DirectX 8.0 erfüllt. Pro Takt kann die Xbox 2 Instruktionen verarbeiten. Für gutes Lighting benötigt man mindestens 30 Vertex Shader-Instruktionen, womit die theoretische Leistung der Xbox von den gequoteten 117 Millionen Dreiecke pro Sekunde (kein Licht, keine Texturen) bereits auf lächerliche 7 Millionen Dreiecke pro Sekunde gefallen ist. Der Vertex Shader des Gamecube ist mit aktivierte Features viel flotter.

Ausserdem reicht die Speicherbandbreite der Xbox (Total 6.4 Gigabyte/Sekunde, für alles, Audio, CPU, Grafik, USB-Controllersignale) nicht aus, um grosse Polygonmengen zu verarbeiten. Bei 3d Applikationen ist Speicherbandbreite die einzig wichtige Grösse zur Messung der Endleistung, und hier gewinnt der Cube mit massivem Vorsprung. Allein der Grafikchip des Cubes hat mit den 7.8 GB/s schon mehr Speicherbandbreite als die ganze Xbox-Konsole. Mit Multipass-Rendering und genug Leistung kann man JEDEN Effekt erzeugen den man will. Der Xbox fehlt es an Speicherbandbreite an jeder Ecke. Titel wie DoA und Project Gotham Racing müssen mangels Bandbreite sogar auf Kantenglättung verzichten. Die NV2x-Grafikcores sind zwar so konstruiert, dass man keine Rechenleistung verliert, wenn man FSAA aktiviert, man benötigt aber zusätzliche Speicherbandbreite. Wenn man bedenkt, dass auf dem PC eine GeForce3 bereits mehr Bandbreite für sich alleine hat als das ganze Xbox-System ist klar, wieso FSAA auf der Xbox nicht schnell genug sein kann. Wer meint, die Spiele der Xbox könnten graphisch noch zulegen, der irrt. Bei DoA ist das Speicherinterface schon ohne FSAA bereits zu 90% ausgelastet. Die Xbox hat ihre maximale Grafikqualität bereits erreicht.

Zudem hat die Gekko-CPU des Flipper die höhere Rechenleistung pro Takt als ein aufgeborter Celeron. Das ist ähnlich wie bei Pentium 4 vs. Athlon XP. Die CPU des Gamecube ist schneller als jene der Xbox, trotz des tieferen Takts. Wer das nicht einsieht hat nicht begriffen, wie Mikrochips funktionieren.
 
...dafür hat der GameCube weniger Speicher, wenn auch er einen kleinen superschnellen Speicher hat (weiß den Namen nimmer), so kann er nicht die Anzahl an Texturen oder die größe "Lagern" wie die Xbox.

Außerdem sagt ich ja: Lichteffekte und Ähnliches sind auf dem GC ziemlich gut!!!
 
Darth Sonic schrieb:
...dafür hat der GameCube weniger Speicher, wenn auch er einen kleinen superschnellen Speicher hat (weiß den Namen nimmer), so kann er nicht die Anzahl an Texturen oder die größe "Lagern" wie die Xbox.

Der Cube hat hyperschnelles eDRAM, superschnelles 1T-SRAM und langsames SDR SDRAM. Die Xbox hat nur mässig schnelles DDR-SDRAM.

Wegen den Texturen, da mach dir mal keine Sorgen. Der Cube hat um die 40 MB Speicher. Die Xbox hat zwar 64 MB, nur muss man bedenken, dass der Cube nicht so ein ressourcenfressendes Betriebssystem (Win2000 Kernel) wie die Xbox im Speicher lagern muss!

Eine S3TC-komprimierte Textur (Xbox und Cube nutzen dieselbe Kompressionstechnik), die 1/4 des Bildschirms bedeckt, belegt ja nur 51 Kilobyte, also irrelevant. Mit 10 MB kannst du bereits 200 solche Texturen im Speicher lagern.
 
Nunja, der Kernel ist gerade mal 200KB groß oder weniger. Das ist alles andere als ein Betriebssystem :)

Ist ja auch egal. Zahlen kann man viele vergleichen auch PRO Xbox, das will ich aber nicht.

Muss man hier alles mit Zahlen belegen? Und wenn man das dann tut heisst es "Zahlen sind nicht alles", was auch stimmt, aber trotzdem. Ich mag darüber nicht mehr diskutieren, daß wird mir zu blöd. Das hat aber nix damit zu tun, daß ich keine Argumente habe, wie einige jetzt schreiben würden, sonder, daß ich alles schon x-mal arguemtiert habe und keinen Bock mehr habe.
 
Ja, ja, Sonic ;) :lol: ;) Nein, war nur Spaß. Aber wisst ihr was, von mir aus kann die XBox 10 Mrd. Polygone berechnen können, Super Pixel High End FSAA haben und Multyrendering Power haben, das ist mir doch alles scheiß egal!! Hauptsache die Spiele machen einen Spaß. 8) Und ich finde der GameCube steht grafisch der XBox in Nichts nach, auch ncith Morrorwind oder Project Ego, doch auch wenn die XBox grafisch besser wird/ist wäre mir das wurscht. Ich liebe eben die Nintendo Spiele und nur deshalb habe ich mir den Cube gekauft - (Sorry, wen ich vom Thema abweiche...)
 
Übrigens sind die Spezifikationen hier auf Consolewars nicht ganz richtig.

Der Xbox-Grafikchip Xgpu hat den Codenamen NV2A, nicht NV20 (GeForce3). Und der Chip taktet nur mit 233 MHz, nicht wie angekündigt mit 250 MHz, entsprechend ist die maximale Polygonleistung nur 117 Millionen Dreiecke (ohne Effekte).

Auch beim Cube ist was krum. Die Speicherbandbreite auf den Audiospeicher beträgt 81 MB/s, jene auf den Hauptspeicher beträgt 2.6GB/s, jene des Texturcache (Texturen können aber auch im Hauptspeicher lagern, wenn es im Cache keinen Platz mehr hat) 10.4GB/s und jene des Grafikspeichers 7,8GB/sec.
 
Darth Sonic schrieb:
Nunja, der Kernel ist gerade mal 200KB groß oder weniger. Das ist alles andere als ein Betriebssystem :)

Ist ja auch egal. Zahlen kann man viele vergleichen auch PRO Xbox, das will ich aber nicht.

Muss man hier alles mit Zahlen belegen? Und wenn man das dann tut heisst es "Zahlen sind nicht alles", was auch stimmt, aber trotzdem. Ich mag darüber nicht mehr diskutieren, daß wird mir zu blöd. Das hat aber nix damit zu tun, daß ich keine Argumente habe, wie einige jetzt schreiben würden, sonder, daß ich alles schon x-mal arguemtiert habe und keinen Bock mehr habe.


gut i diesem threag geht es ja um grafik...und dazu müssen halt auch technische fakten erleuterd werden
ich finde das die xbox titel doch ein tick besser aussehn
 
@berek was hällst du von der aussage das wreckless nur 37% der xbox ausnutzen soll :-?
 
37% wovon? =-)

Das Problem bei der Xbox ist, dass die Einheiten Audio und Grafikchip gar nie ganz ausgelastet werden können, weil sie vom Speicherinterface her nicht fix genug mit Daten gefüttert werden können. Sie drehen dann Däumchen.

So nutzt Wreckless wahrscheinlich das Speicherinterface zu 90%, den Grafikchip zu 10% und den Audio-Chip zu 11%, macht durchschnittliche 37% auslastung ;-) ;-)

Die Xbox ist eine völlig unausgewogene Konstruktion. Der Grafikchip muss sich wie ein Formel1-Wagen im Stadtverkehr vorkommen.
 
In einiger zeit werden die spiele Natülich die Konsolen viel mehr fordern!
Die Programmierer lernen ja auch dazu.
Es war auserdem bisher bei jeder konsole so das die games im laufe der zeit immer aufwändiger und hardware hungriger wurden.

Auserdem ist mir die grafik relativ nebensächlich solange das spiel gut, inovativ, paken und eine gute langzeit motivierung hat.
Was auch ohne hammer grafik möglich ist.
 
@belek

WILLST DU UNS VERARSCHEN???
du scheisst echt den vogel ab....

die xbox MUSS NICHT den direct x benutzen, sondern koennen die entwickler das umgehen

oder waren aufm dreamcast nur wince spiele? >>> :lol:

und auch so sind deine aussagen ziemlich daneben...
die xbox hat laut deiner aussage (DOA3) keine reserven mehr????
mein freund, DOA3 war erst ein launch game....

das sag ich jetzt nicht gerne, aber - die3 xbox hat 4-5 games mit geiler grafik, der cube hat nur (eintagsfliege?? ) RL

:shakehead:
 
Tzzz , JS hat ja auch nicht so tolle Grafik wie RL.JS ist sein schlechtes Beispiel.JS hat grottenschlechte Grafik und RL sehr gute , aber man muss es eben sagen , auch wenn viele sagen das es gebashe wäre und es nicht wahr haben wollen , die XBOX hat bessere Grafik als der GameCube , da könnt ihr noch so lange rummachen , es ist ebn so!Aber es kommt ja auf die Spiele an und da sind beide gleich gut 8)
 
belek schrieb:
Die Xbox hat einen Vertex Shader, der DirectX 8.0 erfüllt.

...sogar zwei davon...

belek schrieb:
Pro Takt kann die Xbox 2 Instruktionen verarbeiten. Für gutes Lighting benötigt man mindestens 30 Vertex Shader-Instruktionen, womit die theoretische Leistung der Xbox von den gequoteten 117 Millionen Dreiecke pro Sekunde (kein Licht, keine Texturen) bereits auf lächerliche 7 Millionen Dreiecke pro Sekunde gefallen ist.

Was jetzt Lightning mit dem Vertex-Shader zu tun hat musst Du mir erst noch mal erklären. Und was Du da rechnest ist mir auch schleierhaft. Ist ja wie bei Star-Trek-Folgen. Viel pseudo-technisches Geschwafel und kein Sinn dahinter.

belek schrieb:
Der Vertex Shader des Gamecube ist mit aktivierte Features viel flotter.

Und wo ziehst Du dieses Wissen her? Selbst Leute die Ahnung von Technik haben können da nichts genaues sagen, weil Nintendo einfach keine genauen Daten rausgibt (was auch nicht schlimm ist, nur das Ergebnis zählt und nicht die Zahlen).

belek schrieb:
Ausserdem reicht die Speicherbandbreite der Xbox (Total 6.4 Gigabyte/Sekunde, für alles, Audio, CPU, Grafik, USB-Controllersignale) nicht aus, um grosse Polygonmengen zu verarbeiten. Bei 3d Applikationen ist Speicherbandbreite die einzig wichtige Grösse zur Messung der Endleistung, und hier gewinnt der Cube mit massivem Vorsprung. Allein der Grafikchip des Cubes hat mit den 7.8 GB/s schon mehr Speicherbandbreite als die ganze Xbox-Konsole.

Nur 2MB Z-Buffer sind mit 7.8 GB/s angebunden. Zusätzlich noch 1 MB Texture-Speicher mit 10.4 GB/s. Der restliche Speicher ist langsamer - das macht aber nicht so viel. MS hat auf rohe Kraft überall gesetzt und Nintendo auf Effizienz. Der Speicher ist genau an den Stellen schnell, wo man es braucht. Beides hat Vor- und Nachteile. Nachteil GC: Die Programmierer müssen vorsichtig programmieren und den OnChip-Cache gut ausnutzen. Nachteil MS: Viel Bandbreite und viel Speicher kostet viel.

belek schrieb:
Der Xbox fehlt es an Speicherbandbreite an jeder Ecke. Titel wie DoA und Project Gotham Racing müssen mangels Bandbreite sogar auf Kantenglättung verzichten.

Schoooon wieder. 1. Sowohl XBox als auch Cube haben FSAA aktiviert bei den Spielen und 2. hab' ich die schon mal den c't-Artikel gepostet, wo Heise genau durchgerechnet hat, dass die Speicherbandbreit der XBox voll ausreicht.
Wenn Du nur XBox-bashen willst, nenn' dich in [GC]Robi oder so um :(

belek schrieb:
Die NV2x-Grafikcores sind zwar so konstruiert, dass man keine Rechenleistung verliert, wenn man FSAA aktiviert, man benötigt aber zusätzliche Speicherbandbreite. Wenn man bedenkt, dass auf dem PC eine GeForce3 bereits mehr Bandbreite für sich alleine hat als das ganze Xbox-System ist klar, wieso FSAA auf der Xbox nicht schnell genug sein kann.

Die GeForce3 muss bei 1024er Auflösung und mind. 75Hz laufen. Im Heise-Artikel haben sie das mal durchgerechnet und demnach müsste die GeForce3 den 7-fachen Speicherdurchsatz der XBox haben. Bei 800x600 bei 60 Hz sind es immer noch 3x so viel. Ausserdem müsste mit dieser Bandbreitenbegründung auch der Cube durchfallen, der ist nämlich in dem Punkt auch langsamer als die PC-Grafikkarten.

belek schrieb:
Wer meint, die Spiele der Xbox könnten graphisch noch zulegen, der irrt. Bei DoA ist das Speicherinterface schon ohne FSAA bereits zu 90% ausgelastet. Die Xbox hat ihre maximale Grafikqualität bereits erreicht.

Schöne Zahlen ohne Quellen. Hast Du einen Erbsenzähler angelötet oder woher weisst Du das?
Alles Unfug und Blödsinn.

belek schrieb:
Zudem hat die Gekko-CPU des Flipper die höhere Rechenleistung pro Takt als ein aufgeborter Celeron. Das ist ähnlich wie bei Pentium 4 vs. Athlon XP. Die CPU des Gamecube ist schneller als jene der Xbox, trotz des tieferen Takts. Wer das nicht einsieht hat nicht begriffen, wie Mikrochips funktionieren.

Auch hier gibt es unterschiedliche Meinungen, da man schlecht mal einfach einen Bechmark fahren kann. Die CPU is aber eh egal. Die muss nur die Daten schnell genug an die GPU weiterleiten und KI-Berechnungen übernehmen. Dafür sind sowohl die XBox-CPU als auch der Gekko locker schnell genug.

Hier wurde sich ja schon oft über gebashe von GC geärgert... Anscheinend gibt's das wohl leider auch von der "anderen Seite". Troll :shakehead:
 
@DarthSonic.. wollte nur mal schnell anmerken dass es 500KB sein sollen laut einigen FAQs :blushed:

und von wegen Vertex Shader auf dem Cube kann das alles schneller... soweit ich weiß hat der doch keinen... oder wars nur der Pixel Shader.. :-? naja, eins von denen beiden hat er nicht da bin ich mir fast sicher =)
 
dareth schrieb:
Was jetzt Lightning mit dem Vertex-Shader zu tun hat musst Du mir erst noch mal erklären. ü/quote]

6, setzen! Hast wohl nicht so den Plan von 3D-Grafik, wie? Lighting macht die T&L-Einheit (Transforms & Lighting), die im Fall der Xbox programmierbar ist (= Vertex [=Eckpunkt] Shader).

Nur 2MB Z-Buffer sind mit 7.8 GB/s angebunden.[

Schon wieder falsch. Die 2 MB sind für z- UND Back Buffer, d.h das ganze Blending geht sauschnell chipintern ab.

Nachteil GC: Die Programmierer müssen vorsichtig programmieren und den OnChip-Cache gut ausnutzen.

Ne, das geschieht transparent. Der Cube swappt Texturen automatisch in den Hauptspeicher (ist doch logo).

belek schrieb:
1. Sowohl XBox als auch Cube haben FSAA aktiviert bei den Spielen und 2. hab' ich die schon mal den c't-Artikel gepostet, wo Heise genau durchgerechnet hat, dass die Speicherbandbreit der XBox voll ausreicht.
Wenn Du nur XBox-bashen willst, nenn' dich in [GC]Robi oder so um :(

Ich wiederhol mich ungerne, der Gamecube kann bei 640x480 kein FSAA mehr, weil der eingebaute Speicher alle ist. Wovon du sprichst ist der sehr effektive Flicker/Blur-Filter (3-Zeilen) des Cube. Die Xbox macht kein FSAA bei DoA und PGR, ob du's glauben willst oder nicht. Die Wahrheit ist manchmal schmerzhaft, versteh ich schon. Und c't sprach von 640x480 ohne FSAA und zudem haben sie in ihren Berechnungen Transparenz-Effekte etc. vergessen, die zusätzlich Bandbreite schlucken.

Die GeForce3 muss bei 1024er Auflösung und mind. 75Hz laufen. Im Heise-Artikel haben sie das mal durchgerechnet und demnach müsste die GeForce3 den 7-fachen Speicherdurchsatz der XBox haben. Bei 800x600 bei 60 Hz sind es immer noch 3x so viel.

Und da 640x480 mit aktivem 4x FSAA beim Frame- und Z-Buffer ungefähr dem Datenaufkommen von 1280*960 ohne FSAA entspricht, weisst du nun, wie schlecht es um das FSAA der bandbreitenlimitierten Xbox steht.

Ausserdem müsste mit dieser Bandbreitenbegründung auch der Cube durchfallen, der ist nämlich in dem Punkt auch langsamer als die PC-Grafikkarten.

Also ich kenne keine PC-Grafikkarte, die einen 1 MB grossen Texturcache mit 10 GB/s Zugriffsbandbreite hat, du etwa? Auch die 7,6 GB/s für den Framebuffer sind ziemlich konkurrenzlos, da eine Geforce4 Ti mit deren 10,2 GB/s auch noch Geometrie- und Texturdaten über diesen Kanal schleusen muss, während der Cube nur Tiefen- und Farbwerte abfragt.

Auch hier gibt es unterschiedliche Meinungen, da man schlecht mal einfach einen Bechmark fahren kann. Die CPU is aber eh egal. Die muss nur die Daten schnell genug an die GPU weiterleiten und KI-Berechnungen übernehmen. Dafür sind sowohl die XBox-CPU als auch der Gekko locker schnell genug.

Informier Dich besser anstatt hier rumzuprollen.
 
Zurück
Top Bottom