Also jetzt mal Klartext zu Polygonen (kann länger werden).
Ich selber gestalte 3D Objekte mit 3D Studio Max und kenne mich da einigermaßen auch in Realtime-Rendering aus. Für alle die es nicht wissen: Realtime-Rendering ist das Berechnen von "virtueller" Geometrie und deren sofortige Ausgabe auf dem Bildschirm. Virtuelle Geometrie setzt sich dabei aus Polygonen, Texturen, Lichteffekten, Partikeleffekten, Materialeigenschaften, Schatten etc. zusammen. Polygone sind somit nur ein Teil der Geometrie und dienen in der modernen 3D Grafik, wie schon oben richtig gesagt, zur Darstellung von Objekten. Neben Polygonen gibt es z.B. noch NURBS (eine andere Art Objekte darzustellen, die eine viel "rundere" Form ermöglicht, aber in Realtime-Rendering aufgrund der hohen Performanceansprüche kaum Verwendung findet). Polygone sind "Vielecke" die eigentlich aus nichts anderem bestehen als "Punkten" in einem Koordinatensystem. Man braucht Mindestens drei Punkte um eine Fläche darzustellen. Doch egal wie viele Punkte zu "einem" Polygon gehören, die meisten 3D-Programme rechnen alles in Dreiecke um (da gibt es noch spezielle Regeln der Konvexität etc. doch das ist hierfür zu weit gegriffen).
Wenn man nun komplexe Objekte darstellen will, wie zum Beispiel einen Menschen, so braucht man entsprechend viele Dreiecke, um die (Drei-)eckigkeit runder wirken zu lassen.
Das beste Beispiel was die Polygondurchsatzrate bewirkt sind Hände von Figuren seit den ersten 3D Spielen bis heute. Auf der PSone oder dem N64 gab es nur diese Klotzhände, da Finger zu viel Polygone verbrauchen würden, um echt auszusehen. Heut zu Tage werden auf allen Konsolen die Hände durchmodelliert und sehen aus wie echt. Den Anfang machen Spiele wie Soul Calibur auf dem DC.
Jetzt könnte man meinen "Hey, dann sind XBox und PS2 die totalen Überkonsolen", doch das ist ein Irrtum.
Die Industrie hat gemerkt, dass Polygonzahlen für Furore bei Usern sorgen, da immer davon gesprochen wurde, wie viele Polygone bei dem und dem Charakter benutzt wurden und wie toll es wäre, wenn man mehr benutzen könnte.
Das was die Polygonzahlen auf der XBox oder PS2 Site angeben sind Messungen von synthetischen Benchmarks.
Dabei hat das Testprogramm nicht etwa eine Spielszene dargestellt und geschaut, wie hoch es die Polygonzahlen hochdrehen kann, ohne dass die Framerate abstürzt, nein, er hat einfach gezählt, wie schnell, wie viele Gleitkommazahlen vom Prozessor berechnet werden können. Gleitkommazahlen sind Zahlen mit extrem vielen Stellen hinter dem Komma, die zur Berechnung der reinen Geometrie benötigt werden.
Diese "Polygone"-Geometrie, die der Benchmark ausgegeben hat sieht noch nicht einmal wie ein Objekt aus, da es nur "Linien" sind, keine ausgefüllten Flächen (Drahtgittermodelle bzw. Punktmodelle). Die Füllung der Zwischenräume der Punkte / Linien erfordert nicht mehr das berechnen von Gleitkommazahlen (doch schon, aber nicht mehr als Hauptaufgabe), sondern die Pixelfüllrate. Diese setzt sich aus der Bandbreite (also dem Datendurchsatz z.B. zwischen Prozessor und Speicher pro Sekunde) und einigen anderen Faktoren zusammen.
Was bedeutet das also nun für die "Überkonsolen". Sie können euch 20 Millionen Punkte auf den Bildschirm klatschen. Tolle Spielgrafik, oder?
Richtig interessant wird die Prozessorleistung erst, wenn er gefordert wird die Punktzwischenräume zu füllen. Das geschieht so: Texturen müssen vom Datenträger geladen und im Speicher zwischengelagert werden, dann, wenn erforderlich, muss die Textur so schnell wie möglich vom Speicher zum Prozessor (Datendurchsatzrate), dort muss geprüft werden, wie die Textur auf das Polygon gespannt werden soll, in welchem Verhältnis das Licht drauffällt, wie es reflektiert werden soll etc.
Hier muss ich noch sagen, dass der Grafikchip meist nichts mit Polygonen zu tun hat. Die meisten "T&L" Befehle berechnet der Hauptprozessor. T&L steht für Transform and Lighting, also das Berechnen der Polygone, das drehen selbiger, das Berechnen des Lichtes, der Relation von Polygon zu licht etc. Der Grafikchip ist dann meist nur noch für das aufpappen der Texturen verantwortlich. Okay, Okay, ganz so stimmt es nicht, da seit dem die Grafikchips eingebaute T&L Einheiten haben, werden T&L Operationen nun auch in der Grafikkarte durchgeführt.
So, und nun zu der Theorie, dass die PS2 und die XBox Überkonsolen sind:
Das stimmt nicht. Würden die Guten Firmen Sony und Microsoft die Kundschaft mal mit echten Spielebenchmarks und deren Ergebnissen erfreuen, so würde die XBox und die PS2 auf genau die selben Zahlen kommen wie der Cube.
Denn zu einem Spiel gehören nicht nur Punkte, sondern Flächen mit Texturen, mit Lichtspiegelungen, mit Materialeigenschaften etc. Und, das wird meist vergessen: Wollt ihr ein Spiel oder eine Grafikdemo? Ein Spiel benötigt auch noch die Berechnung der Benutzereingaben, KI, Soundeffekte die zur richtigen Zeit am richtigen Ort erklingen etc. pp.
Das belastet den Prozessor noch um ein weiteres, weshalb die Polygonzahlen deutlich schrumpfen. Doch das würden M$ und Co. nie zugeben, der "dumme" Kunde glaubt ja eh alles was die großen "schlauen" Firmen so sagen und wenn es den Verkauf ankurbelt, dann sind ja auch Frauen mit drei Brüsten super! (gelle MediaMarkt *g*)
Was die PS2 angeht, so muss ich noch sagen: Die PS2 ist was Grafik angeht genial, zumindest ihr Grafikchip mit den zwei Vektoreinheiten (z.B. um NURBS darzustellen). Diese sind absolute Kraftpakete und vielleicht sogar doppelt so stark wie die GF3 der XBox. ABER: Sie nützen der PS2 einen Scheißdreck und treiben nur den Preis in die Höhe.
Wieso? Weil Sony einfach zu dumm war sie richtig einzusetzen. Es gibt von außen für die Programmierer kaum Möglichkeiten die Einheiten mit einer Programmiersprache anzusprechen - sie liegen sozusagen tot im Grafikchip drin. Und auch wenn es einem Programmierer gelingt sie teilweise zu erwecken, so kommt dieser Erfolg, nachdem er den Chip verlassen hat in einem Datenstau zum Stehen.
Die Konsole ist, um es nun kurz zu fassen, eine Anhäufung von starken Schlägern, die sich gegenseitig nicht riechen können.
Und nun um den Cube in Schutz zu nehmen mein letzter Absatz (da freuen sich schon einige): Der Cube wurde von Grund auf so entwickelt, dass er keine Chipleichen hat, dass er von den Programmierern von Anfang an voll genutzt werden kann, dass es keine Datenstaus gibt und dass er einfach das macht was der Programmierer will. Nintendo hat da zusammen mit ArtX und IBM ein stück Hardware zusammengebastelt, die perfekt aufeinander abgestimmt ist und eben zu nichts weiterem fähig sein muss, als Spiele auf ihr laufen zu lassen. Denn um ehrlich zu sein sind Polygonzahlen bei einer TV-Auflösung von 800 x 600 nicht so wichtig, da man einzelne Pixel kaum voneinander trennen kann. Was Entscheidend ist , ist die Framerate und die "Ausschmückung" der Grafik durch Licht, flimmerfreien Texturen, gutem Sound und einer ordentlichen Gegner und Objekt KI. Wenn das alles noch von gutem Gameplay gestützt wird, dann ist es perfekt. Microsoft hat keine Ahnung von Gameplay und muss billige Tricks anwenden um gute Spiele zu bekommen (Halo zeigt es, und PC Spieler müssen leiden), Sony hat mehr damit zu kämpfen, dass Texturen wenigstens nicht so stark flimmern und die Auflösung nicht in die Hose geht, als dass sie eine gute Story erfinden könnten (die meisten "guten" Spiele wie GTA3, SilentHill etc. waren Storymässig schon von früherer Zeit fertig, neue Sachen sind Mangelware).
Und dann könnt ihr mal objektiv überlegen, wer da im Vorteil ist!
Und zum Schluß: Jetzt ohne einen Krieg anzetteln zu wollen, aber habt ihr (die ich für einigermaßen normal halte) schon mal bemerkt, wer sich bei PS2 und XBox (es gibt schon XBox Stände in einigen Läden hier in D-Land) aufhält?! Kleine (oder größere) Halbstarke, die ihr Selbstwertgefühl damit aufputschen wollen, dass sie sich an dem was von den Firmen für Cool gesagt wird orientieren. Sorry Leute, aber das ist so. Ich selber hab mich mit jeder Konsole beschäftigt und auf jeder Spaß gehabt, weshalb ich einigermaßen objektiv das beurteilen kann, aber das mit den Halbstarken ist ja wohl kaum zu übersehen...