Hardware XBOX-Technik vs GameCube-Technik - PS2-Technik

  • Thread-Ersteller Thread-Ersteller /ajk
  • Erstellungsdatum Erstellungsdatum
--=ZerO=-- schrieb:
Der Jaguar war nur vom Namen her eine 64 bit Konsole

der Grafikchip hatte nur 32 bit

Naja, die Dreamcast war auch kein reiner 128-bitter. Auf die breite vom irgendeinem Bus kann man eh nicht so viel geben, wichtig ist nur, dass die Bandbreite an den richtigen Stellen hoch genug ist. Bestes Beispiel ist das XBox und Gamecube.
So, jetzt noch meinen Senf zum Threadtitel:

1) XBox ist brutale Hardwarepower bis zum geht nicht mehr. Meiner Meinung nach die stärkste Konsole, die man kaufen kann.

2) Der Cube ist geschickt aufgebaut. Speicher für Sounddateien und der Hauptspeicehr ist langsam, dafür ist der Grafikcache brutal schnell. Sehr effizient und somit billiger als die XBox aber fast (aber auch nur fast) genauso leistungsfähig.

3) PS2 das Polygonmonster. Sehr individuell entworfen mit zwei parallelen Recheneinheiten und deshalb schwer zu programmieren (erinnert mich an Sega Satan), kann aber bei guter (und aufwendiger) Programmierung jede Menge Polygone berechnen. Spezialeffekte sind allerdings nur mit Software zu machen, der Speicher ist flott aber viel zu klein und das Bild flimmert etwas. Eindeutig hardwaremässig die schwächste der drei aktuellen Konsolen, kann aber durch reine Polygonmassen immer noch grafisch beeindruckende Spiele bringen (GT3, FFX).
 
Zusammenfassung.. und ich weiß nicht wann das endlich mal jeder hier kapiert.. aber eigentlich wehren sich nur die Cube fans! ;)

CPU:

Für den Gamecube das Herzstück da die RISC CPU die Polygone etc.. also Grafik berechnen muss. Des weiteren muss die RISC CPU auch KI usw.. berechnen. Also, umso mehr Grafikpower beim Cube drauf geht, umso weniger hat sie frei für KI und physikalische Berechnungen.

Bei der XBOX ist die CPU nur Wasserträger... die berechnet quasi gar nichts für Grafik sie "leitet" nur die Daten an die anderen Prozessoren wie GPU und Soundprozessor für DD 5.1 weiter. Sagen wir das nimmt 10 bis 20 % der Power der CPU in Anspruch (schon sehr hoch gegriffen) dann hat sie CPU immernoch ca. 80% für KI und andere Berechnungen frei.. alles was so eine CPU außer Grafik noch machen kann. Bis jetzt wurden Konsolen nie auf CISC aufgebaut.. CISC ist in Sachen Grafik weit unterlegen aber in allen anderen Sachen weit voraus bzw.. weit flexibler. Es werden also völlig neue Sachen mit der XBOX möglich sein, was NICHTS mit Grafik zu tun hat, wie z.B. NUDE, eine virtuelle PErson die mit dem Spieler kommuniziert per Sprache und sich weiterentwickeln wird... dazu braucht man z.B. ne CISC CPU und eine Festplatte möchte man das professionell machen.

Hier würde ich Sagen 1:0 für die XBOX.. die CPU ist weit besser das sie bei der XBOX NICHT für Grafik eingesetzt werden muss.

Grafik:

Ganz klar, die XBOX schafft ca. 125 M PPS und der Cube 40 Millionen. Effekte usw.. wie BumpMapping, 32 Bit Farbtiefe usw usw.. sprechen alle für die XBOX Grafik. Die Kombination CPU und GPU des Cube bringen eine Fliesskommaleistung von 10,6 GFLOPS.. dies sagt eigentlich schon alles bzw. viel über 3D Grafik aus. Bei der XBOX sind es fast 80 GFLOPS. Als ca. das 8 fache an Leistung. REchenleistung also weit stärker bei der XBOX.
Texturen gehören auch zur Grafik.. Kompression ist bei beiden gleich, aber die XBOX hat nen weit größeren Texturspeicher. Dann BumpMapping vom feinsten usw.. also auch ganz klar.. XBOX. Insgesamt steht es schon für die XBOX 2:0

Sound:

256 Dolby Digital gegen nen normalen 64 Kanal Soundchip wie es schon im DC etc.. gab. Ohne Frage... XBOX weit im Vorteil:

Für XBOX 3:0

Speicher:

Hier die XBOX 64 MB mit 6,4 GB/s. Der Cube hat 24MB mit 2,6 GB/s und nen Soundspeicher mit 16 MB den man aber nicht berücksichtigen muss.. der ist nur gut für Sound den der Cube braucht, aber die XBOX nicht da sie Dolby Digital in Echtzeit berechnet und der Cube das im Speicher für das analoge DPL2 ablegen muss.

XBOX wie GameCube müssen den Speicher teilen für Arbeitsspeicher also Programmcode und Grafik sprich Texturen.

Von der Größe und vom Speed ist der Cube sehr sehr im Nachteil. Keine Frage..

Für XBOX 4:0

Zusatzhardware:

Keine Frage 5:0 für XBOX

So, das ist nur die Technik. Die oberen Angaben stimmen..

www.xbox.com
www.nvidia.de
www.nintendo.de
 
Sound:

Ja .. die XBox gewinnt
ja ... 256 Channels
nein ... 256 != Dolby Digital

64 Kanäle werden für 3D-Sound genutzt (was auch auf deiner heiss geliebten WerbeDVD zu lesen ist)

Wohlgemerkt, sind das keine 64 * 5.1 .. sonder 64 Kanäle, die nach einem Mischverhältnis in 5.1 umgewandelt werden.

Die übrigen knapp 200 Kanäle werden als Stereo-Kanäle in das Signal eingemischt.

Der Cube hat eines wissens zwar nur seine 64 Kanäle .. diese auf vollständig auf ProLogic.

Aber schon korrekt, die XBox fürht hier deutlich.



CPU

Interessante Theorie .. aber doch leider Humbug ^^

In der puren Theorie ist die XBox, bzw. der GeForceAbleger in der Lage viele Geometrische Berechnung für die Grafik selbst auszuführen.

Damit übernimmt er einige Last der CPU, schon korrekt. Das kann eine DX7-GPU schon seit Jahren. Das ist also nichts neues.

Ob der GameCube eine T&L-Einheit besitzt (denn diese übernimmt solche Aufgaben, in DX8/9-Beschleunigner machen das die Vertex-Shader ...) weiss ich gerade nicht ...

In der Praxis ist das aber wirklich nur ein unterstützendes/entlastendes Feature, wohl aber sind DX8/9-ShaderUnits für einige SpecialEffects auch sehr gut nutzbar. Die Hauptarbeit in der Berechnung Geometrischer Daten, also der 3D-Szenerie, übernimmt aber nach wie vor die CPU.

Und da tun sich Pentium/Celeron-Verschnitt und PowerPC nicht viel. Von der puren Leistungsfähigkeit ist der langsamer getaktete Gekko durchaus gleichwertig bis überlegen.

Nimmt man unterschiede in der Grundlegenden Architektur, den Fähigkeiten der Grafikchips und sonstwas noch hinzu, ist der Unterschied der CPU-Leistung gleich 0 oder marginal tendierend pro XBox.

Draw



Grafik
zu oft durchgekaut .... Sieger XBox

3:1 XBox .. so sehe ich das ...


Was ich nicht bewerte:
Speicher
Ich finde weder die eine noch die andere Variante bisher besser ...

sicher ist aber, dass auch die XBox ihre DD-Sounds im Speicher ablegen muss. Zwar werden sie evtl. nach dem 5.1 (oder auch 4.1, 2)-Abmischen direkt auf den Ausgang geschickt ... aber beim Cube ist das erichlich wurscht, da der Speicher für nichts anderen genutzt wird und somit die Performance nicht beeinträchtigt.

Zubehör
Grundloser Sieg?? ... naja ...
 
Damit übernimmt er einige Last der CPU, schon korrekt. Das kann eine DX7-GPU schon seit Jahren. Das ist also nichts neues.

Leute, das ist eben falsch.. was Du meinst ist bis zu Geforce 2 so gewesen.. ab der 3er kann man die GPUs direkt programmieren mit Vertex und Pixelshadern. Die CPU wird nahezu komplett entlastet.. aber wieso kapiert ihr da sauch nicht? Oder glaubt ihr ein CISC bekommt 80 GFLOPS hin? Nein, die XBOX arbeitet völlig anders als der CUBE. so ist es einfach. Les halt mal auf ein paar Technikseiten nach.

Und mit Zubehör meinte ich die Sachen die es in den Kisten schon gibt, wie Netzwerkkarte und Festplatte...
 
HappyPlace schrieb:
Leute, das ist eben falsch.. was Du meinst ist bis zu Geforce 2 so gewesen.. ab der 3er kann man die GPUs direkt programmieren mit Vertex und Pixelshadern. Die CPU wird nahezu komplett entlastet.. aber wieso kapiert ihr da sauch nicht? Oder glaubt ihr ein CISC bekommt 80 GFLOPS hin? Nein, die XBOX arbeitet völlig anders als der CUBE. so ist es einfach. Les halt mal auf ein paar Technikseiten nach.

Und mit Zubehör meinte ich die Sachen die es in den Kisten schon gibt, wie Netzwerkkarte und Festplatte...

Oh doch, es ist seit festverdrahtenen T&L-Einheiten so.

Und die erweiterten Möglichkeiten der Vertexshader sind beileibe keine Wollmilchsäue (...wenns denn so geschrieben wird)

Zum einen Kann ein Vertexshader auch nicht alles berechnen. Zum anderen speichert er nicht unendlich viele Programme. Diese müssen ihm von der CPU eingepflanzt werden. Im extremfalle, wenn der Vertexshader alle Arbeit übernehmen soll, müsste er pro Einzelbild mehrfach neue Programme einspeisen.

Er müsste Animationsabläufe berechnen. Decal-Positionen, Kollisionenen, Physik miteinbeziehen etc. etc. ....

Der Pixelshader hat mit diesen ganzen Vorgängen zudem nichts zu tun. Er kann z.B. Bumpmapping übernehmen, Lichtreflexionen, Spiegelungen, Transparenzen oder eben anderen Shading-Aktivitäten, die sich ein Programmieren so einfallen lassen kann.

Die (nahezu) völlige Entlastung der CPU, wie du sieh hier weismachen willst, ist nicht möglich. Dazu bräuchte man nicht nur 2 Shader-Units (welche sinds eigentlich? die Vertex oder die Pixel?) sonder noch eingie mehr ...

Nochdazu: Die XBox-Shader-Units sind nur DX8 .. die grossartige Felexibelität bieten diese Dinger nicht. Dass erst DX9 (im NV30) extreme Flaxibilität bietet, soltle auch dir bekannt sein.
 
Hallo, du solltest Dich besser informieren, hier wird es eindeutig erklärt. es geht um ne Geforce 3.. was die Vertex und Pixelshader machen:

Der Vertex Shader (Prozessor) versetzt Programmierer in die Lage komplette 3D Transformationen im 3D Chip - also unabhängig von der CPU - durchzuführen. Mit dem Pixel Shader werden nette Effekte wie Bumb Mapping durchgeführt, nur dass auch diese jetzt frei Programmierbar und nicht wie beim GeForce2 fest vorgegeben sind. So bestehen natürlich viel mehr Möglichkeiten Effekte darzustellen, als dies vorher der Fall war. Und das wichtige daran, alles wird vom GeForce 3 Chip erledigt und die CPU nicht unnötig belastet.

Das sagt schon alles und unterstützt meine Aussage komplett.

Des weiter ist mri klar das die CPU noch Physik und KI etc.. berechnen muss... Aber dafür ist sie ja von der Grafik entlasten.

http://www.tweakpc.de/hardware/tests/graka/elsa/gladiac920_3.htm

und hier steht die Fliesskommaleistung einer Geforce 3.. so sind die 80 GFLOPS der XBOX wohl mehr also logisch! :)

http://www.tweakpc.de/hardware/tests/graka/elsa/gladiac920_2.htm
 
Nur haben diese GigaFlops mit der CPU nichts zu tun und werden hübsch von Grafikberechnungen aufgebraucht (ausserdem macht es so auch nicht viel Sinn 80 GFLops der Xbox-GPU mit den GFlops des Gekko vergleichen zu wollen.... aber das hast du auch nicht getan .. denke ich ^^)

Ich glaube auch nicht, dass die XBox-CPU in der Praxis tatsächlich von irgendwelche Berechnung entlastet wird. Die in Traditionellen Aufbauten, wie dem PC auf die CPU einfallen. Falls doch, dann in eher marginalen Größen.

Es wäre hier durchaus angebracht, wenn Du mal Beispiele für die Tatschächliche Nutzung dieser Möglichkeiten anbrigen würdest. Denn ich halte es einfach für eine Utopie ^^

Es ist ja auch so: Würde man z.B. aus Wreckles mal alle Shader-Unit-Effekte rausnehmen, würde sich nicht grossartig was ändern. Das Game würde aussehen, wie jedes andere Racinggame ...

Schaltet man die Effeckte OHNE Shader-Units hinzu .. müsste man sowohl jeder möglcihen Textureinheit hinzuziehen (wenn die überhaupt noch Luft haben ^^) und die CPU dürfte auch einiges mehr an Arbeit haben.

Es könnte zwar so hübsch aussehen wie vorher, aber die Performance würde leiden. Ergo: Man würde diese Effekte GAR NICHT NUTZEN..

Und darin liegt der Vorteil der Box: Diese Effekte kommen (fast) for Free hinein.

Nimmt man der XBox die Shader-Units ganz weg ... dann würden GC und XBox höchstwahrscheinlich die völlig identische Peformance abliefern.

Ürbrigens, diese Effekte über Texturen zu realisieren, würde der Cube besser schaffen !!!! ) ^^ (also doch nichts mit gleicher performance ... )
 
Du redest echt Quark.. les es halt selber durch, wieso solte ich mich dauernt wiederdoholen.. Aber Du hast recht und Nivdia und alles anderen nicht.. Ist ja auch so schwer zu begreifen das Polygone berchnet werden müssen und hier die Fliesskommaleistung zählt.. diese ist bei der XBOX die GPU und beim Cube die CPU.. das die XBOX völlig anders aufgebaut ist als der Cube ist dir auch nicht klar.. Zerbrich dir einfach nicht deinen Kopf, schau einfach nur gut aus.. es ist mri echt zu mühsam.. Informiere Dich halt selber.. Bin doch nicht deine Mama.. ich habe Beweiße geliefet Du NULL.. Servus!
 
meine güte!

eure probleme möchte ich echt haben.

wenn ihr spielt, sagt ihr da auch:

"...da wurde aber der vertex shader nicht voll ausgenutzt..."
oder
"...die leistung der cpu wurde da nur zu 72,8987% ausgenutzt..."

also ich zock lieber, als mich aufzuregen, ob vielleicht eine textur nicht ganz so scharf wie eine andere ist.

vielleicht solltet ihr euch mal darüber gedanken machen, als einfach zu sagen: "meine konsole ist besser als deine"

denn sonst müsste man echt meinen, dass hier einige leute noch im kindergarten sind.
 
In dem Thread hier geht's um die Technik der Konsolen ...

ich mache mir sehr gerne darüber Gedanken, wie das, was ich auf dem Bildschirm sehe funktioniert .. und denke sehr gerne darüber nach, was sich verbessern liesse oder sonst irgendwas.

Zudem hatten meine Antworten hier, wenn auch fachlich korrerkt, durchaus den Sinn Happy zu vertreiben, was mir ja auch allen Anschein nach gelungen ist ... :D
 
Ausserdem sind guradia's Angaben alle richtig. Ist immer lustig wenn Leute behaupten mit NVidia Chipsatz braucht die CPU nichts mehr zu machen...was füttert denn wohl die Vertex/Pixel Shader jeden Frame mit neuen Daten ? Passend zum Thema ist hier eine URL zu einem Interview mit Bunnie (der die Xbox Security als erster crackte), dem man wohl als letztem Unwissenheit vorwerfen könnte und der sich in diesem Interview auch eher negativ über die Xbox Hardware auslässt -> http://www.icrontic.com/modules.php...s&file=index&req=viewarticle&artid=113&page=1

Bevor mir einer vorwirft die Xbox zu bashen: ich besitze die Xbox als einzigste Konsole momentan und mir liegt es fern das Teil niederzumachen bzw. bin auch echt zufrieden, allerdings habe ich die Nase voll von den Fanboys jeglicher Systeme die einfach nur verblendet sind.
 
Mal ehrlich, könnt ihr Jungs nicht lesen?

Soll ich es euch buchtsabieren oder wieso tuts ihr euch so schwer bei den wirklich einfach gehaltenen Texten?

Das ist echt lächerlich, NATÜRLICH braucht man die CPU... aber die GPU rechnet die Grafik (Polygone, Effekte.. etc.. VERTEX UND PIXELSHADER WIE DER NAME SCHON SAGT!!!).. ach was solls.. schmeißt euer Hirn weg, ihr könnt eh nichts damit anfangen.. so ein Dünnschiss.

Es tut echt weh.. wieo lest ihr nicht einfach mal wie ein Geforce funktioniert? Abn GF3 bitte.. und versteht es. Achja Vertex sind ca. das selbe wie Polygone. Ein Vertex ist ein Polygonschnittpunkt... in der Fachwelt heißt dat Vertex und bei uns Polygon. Damit ihr versteht was VERTEX Shader heißt. Hätte Nvidia gewusst was es für Lamer gibt, hätten sie das Teil POLYGON oder DREIECKSSHADER genannt... --- für die Doofen.
 
Nintendo's GAMECUBE wird unterschätzt: 200K Poly's sichtbar!
3 D- C o n c e p t- N e w s

Just nach der Vorstellung der neuen Konsolen-Generation des
Spezialisten Nintendo werfen Kommentare eines deutschen
Spieleentwicklers der Gameschmiede Factor 5 hohe Wellen.
Enorm positiv äussert er sich über den GAMECUBE und dessen
Grafikchip im Speziellen.


gamecube_xwing.jpg


Konkret geht es um die Todesstern-Szene aus der bekannten Star
Wars-Trilogy, welche Factor5 in bemerkenswerter Weise im Rahmen
der Portierung von Star Wars Rouge Squadron in Real-Time
umgesetzt hat. Entsprechendes Video verdeutlicht die Qualität der
Sequenz, welche auf einem GAMECUBE-Prototypen aufgenommen
wurde und gemäss den Angaben der Entwickler gerade mal 50% :tired2: der
Resourcen nutzt
. Die Sequenz läuft mit konstanten 60 fps :o ,
TrueColor, Double Buffer, Anti Aliasing und Flicker-Filter.

Der gezeigte X-Wing-Fighter ist das Originalmodell von Industrial
Light & Magic (George Lucas' Special-Effects-Abteilung), welches in
der Special Edition des Kino-Films eingesetzt wurde. Auch die
Texturen stammen von ILM, das Polygonmodell des X-Wings umfasst
satte 30'000 Polygone, dazu gesellen sich 4'000 Polygone für die
Visualisierung des Piloten in der Kanzel. Letzterer nutze alleine soviel
Geometrie, wie der Raven-Roboter aus der X-Box-Demo
:lol: . Die ILM-
Entwickler hätten es fast selbst nicht fassen können, dass der

GAMECUBE dieses Szene in Real-Time darstellt :eek5: .

Auch die Oberfläche des Todessterns haben die Factor5-Männer
realistisch gemäss dem Plastikmodell nachmodelliert. In der Szene
sind bei den aktuell gewählten (konservativen) Einstellungen
gleichzeitig 70 Tie-Fighter und X-Wings :yeah: sichtbar. Alles in allem stellt
der GAMECUBE - Prototyp gemäss dem Entwickler in den Szenen
200'000 Polys mit bis zu 8 Lichtquellen und Gloss, Dirt- und Bump-
Maps an, bei 60 fps
. "Wenn das die X-Box schafft, fresse ich einen
Besen." :angst:
, lautete der flapsige Kommentar von Julian Eggbrecht,
einem der Spieleentwickler, welche die Szene auch auf die X-Box
portieren
.
Das aktuelle X-Box Entwicklerkit basierend auf PIII/733
und GeForce2 GTS erreicht bei derselben Szene gerade mal 12 fps :lol: :rofl3: .

Der GAMECUBE habe übrigens hervorragendes 16bit Dithering,
welches jenem der Voodoo's mit nachgeschaltetem "22bit"-Filter
überlegen sei, wofür wahrscheinlich das Anti Aliasing verantwortlich
ist.

Generell hat der Entwickler nur lobende Worte für den GAMECUBE
übrig. Das Design scheint durchgedacht zu sein. Zwischen CPU und
T&L-Einheit der Flipper-GPU besteht eine eigene, direkte
Verbindung, der 1 MB Texturcache arbeitet autonom und assoziativ.
Die CPU kann in einem "Vektor-Mode" betrieben werden, der dank
dem grossen L2 Cache deutlich leistungsfähiger ;) ist als jender der
Playstation 2.


gamecube_mann.jpg


Primär das Speichermanagment scheint der grosse Plus-Punkt des
GAMECUBE's zu sein. Was nicht über schnellen eingebetteten
Speicher gelöst wurde, wird mittels eigenem Speicherinterface
angesprochen (z.B. Audio), gegenseitige Behinderungen entstehen
keine.

Auf die Frage, ob der ATI/ArtX-Chip Flipper die aktuellen PC-Chips
(RADEON, GF2 GTS) schlägt, lautete die klare Antwort: "Die beiden
macht er locker fertig." :love7:
NVidia dürfte nächstes Jahr aufgeholt
haben, fügte er an.

Blickt man nur oberflächlich :eek4: auf die Spezifikationen des
GAMECUBE's
, so mag die Konsole im Vergleich zur X-Box unterlegen
sein, denn die "Zahlen" sind fast überall tiefer. Dass diese
Zahlenvergleiche hinken :rolleyes:
, bestätigten auch die praktischen
Ergebnisse
im Vergleich Playstation 2 vs. Dreamcast. Im GAMECUBE
werkelt mit dem PowerPC ein echter RISC-Renner, der ein besseres
Leistung-/Takt-Verhältnis ;) aufweist als Intels Pentium III
. Ausserdem
verfügt der GAMECUBE über massiv mehr Speicherbandbreite als die
X-Box
:lol: , welche mit gerade mal 6,4 GB/s :lol: für Grafik-, Audio- und CPU
eher mässig bis unterdimensioniert :angst: beglückt wurde.
Einzig das
fehlende vollwertige DVD-Laufwerk könnte dem GAMECUBE das
Genick brechen. Nach dem Cartridge-Debakel mit dem N64 scheint
man bei Nintendo nicht überall dazugelernt zu haben.
[ ram ] Montag 28. August 2000


3:1 für den Nintendo GameCube :)


Gruß Hoovey
 
hey leute ich habe keine ahnung von sowas gibt es nicht eine seite in dem das alles schrit für schrit erklärt wird wozu was ist und wofür es gut ist und es soll anfänger freundlich sein will gerne mehr über Hardwares erfahren schickt mal paar links.
Wie ich so lese habt ihr schon richtig ahnung und könnt mir bestimmt helfen :D
 
@HappyPlace

Na das hört sich ja gar nicht mehr happy an ! :D
Kannst du mal für einen Moment davon ausgehen das in diesem speziellen Fall andere Leute mehr Ahnung haben ? guradia scheint ein solides Wissen zu haben und ich bin Spieleprogrammierer, habe schon ein paar mal Vertex/Pixel Shader benutzt und weiss wovon ich rede. Ich habe das Gefühl du denkst die CPU schickt der GPU 1x die Daten und den Rest macht dann die Graphikkarte...das stimmt aber nur teilweise ! Für statische Geometrie (z.B. Halo Umgebungsgrafik) und simple Post Render Effekte wie bei Wreckless stimmt das, die Polygone werden am Anfang in die Vertexbuffer auf der Karte geschoben, die Pixelshader gestartet und Anzeige, Rotation und Multitexturing macht dann größtenteils das HW T&L. Wie guradia aber schon richtig meinte, ist das nichts Neues oder Xbox spezifisches sondern existiert schon seit DirectX7 und der TNT2. Bei sich radikal verändernder Geometrie wie Spielecharakteren ist das aber nicht so. So ziemlich jedesmal muss dann die CPU dafür sorgen das die GPU die neuen Polygone bekommt.
Du glaubst mir wahrscheinlich immer noch nicht deshalb mal ein Versuch das simpel zu erklären:
1. CPU packt einen Haufen Polygon Eckdaten in den Vertexbuffer auf der Graphikkarte (wann auch immer, kann im schlimmsten Fall so oft passieren wie das Bild mit der Ausgabe synchronisiert ist).
2. die Render Funktion klappert die Vertexbuffer ab, die CPU erstellt die Rotationsmatrizen etc., setzt diese auf der Graphikkarte, setzt etwaige Vertexshader und startet z.B. DrawPrimitive um die Polygone zu zeichnen. Ab hier geht's dann weiter zu
3. und der reinen GPU Arbeit. Zuerst werden die Rotationsmatrizen auf die Polygone angewandt.
4. die gedrehten Polygone werden gezeichnet und dabei in
5. durch die Vertex/Pixel Shader gejagt. An jedem Eckpunkt wird die Vertexshader Funktion aufgerufen, die nochmal die Offsets der Eckpunkte beeinflussen und die Farbe (nur der Eckpunkte, deshalb Vertexshader). Danach werden über die Vertexshader die
6. Pixel Shader aufgerufen. Pixel Shader können dann direkt die einzelnen Punkte auf der Textur beeinflussen, z.B. Farbe, Helligkeit etc.
7. für die nächsten Modelle wird dann die gesamte Prozedur ab 2. wiederholt, d.h. die CPU muss schon wieder evtl. neue Vertexshader setzen etc.

Ist jetzt wahrscheinlich doch zu technisch geworden, oder ?
Wie du siehst ist da immer noch sehr viel Arbeit für die CPU drin...warum sonst glaubst du man sollte sich zu einer Geforce3/4 auch einen schnelleren Prozessor holen wenn sich doch angeblich die GPU um die ganze Graphikdarstellung kümmert ? Dazu wollte ich noch sagen das die NVidia/M$ Angaben mit sonstwietausend MFLOPS nicht unter realistischen Bedingungen entstehen, da die einfach Programme schreiben die statische Geometrie rendern (sagen wir mal 1 Million sich nicht bewegender Dreiecke) ohne das irgendwas von Revelanz im Hintergrund läuft wie es bei einem Spiel normalerweise wäre (Sound,AI,Physik,Kollisionen,Statistiken). Nicht das die Konkurrenten (oder lieber Mitbewerber ;)) da ehrlicher wären...die lügen alle !
 
@Hoovey

Schön für diesen Werbebrief hat Faktor 5 sicherlich etwas bekommen :). Das ist genauso glaubhaft wie das Interview mit dem guten Peter auf der Promo DVD. Wenn du einen "objektiven" Test willst guckst du hier, daß sind wenigstens Leute die von KEINEM der 3 irgendwas erwarten können oder sich was erhoffen ;).

http://www.heise.de/ct/02/05/106/

Ich finde diesen Vergleich auch wenn er au dem Mai 2002 stammt immer noch recht stimmig und vor allem wie gesagt unabhänig ;).

mfg
Vegetha
 
Es ist zumindest kein Werbeschreiben wie dein Text. Das Factor 5 nicht schlecht schreiben darf ist ja wohl logisch. Das wäre genauso wie Lionhead ;).

Ich weiß schon unabhängige Meinungen zu diesem Thema sind verpöhnt weil ja da nur fakten drin stehen ;). Oder hast den Text net verstanden ? :rolleyes:

Gruß
Vegetha
 
Zurück
Top Bottom