Grafikvergleichsthread auf technischer Ebene (+Begriffserklärung)

Das ist schon richtig so. Nur um vergleichbare Resultate ohne Pixelshader mit der Polygonanzahl zu erreichen, braucht es massiv mehr Polys (wir sprechen hier von einem Faktor in der Grössenordnung 100-1000), damit auch die kleinen Details wie Adern etc. korrekt beleuchtet werden. Da das mit der aktuellen Hardware kaum denkbar ist, akzeptiert man lieber etwas unschöne Ecken, wenn das Modell von sehr nahem angeschaut wird, und hat trotzdem die geniale Beleuchtung.

Edit: Zudem wird die Berechnung von Schatten bei so vielen Polygonen ebenfalls fast verunmöglicht. Der Low-Poly Ansatz macht auch in diesem Bereich (noch) mehr Sinn.
Stimmt zwar, aber vielleicht ging/ geht die Entwicklung der GPUs auch nur in die falsche Richtung. Das bringt kurzfristig die besseren Ergebnisse, aber langfristig wäre möglicherweise sinnvoller gewesen, die Prioritäten anders zu setzen. Mehr Polygone, mehr Füllrate, mehr Effekte hartverdrahtet, weniger Shaderleistung. Das hätte auch technisch weniger versierten Entwicklern geholfen, einigermaßen konkurrenzfähige Ergebnisse zu liefern.
 
Stimmt zwar, aber vielleicht ging/ geht die Entwicklung der GPUs auch nur in die falsche Richtung. Das bringt kurzfristig die besseren Ergebnisse, aber langfristig wäre möglicherweise sinnvoller gewesen, die Prioritäten anders zu setzen. Mehr Polygone, mehr Füllrate, mehr Effekte hartverdrahtet, weniger Shaderleistung. Das hätte auch technisch weniger versierten Entwicklern geholfen, einigermaßen konkurrenzfähige Ergebnisse zu liefern.

Weiß nicht , eine simultane weiterenwicklung wäre imo die "idealste" Lösung gewesen !
Shader sind schon sehr wichtig und vorallem flexibel ! Bei hartverdrahtete Effekte käme die Frage auf welche und wieviele usw. !

BZW hätten genauso viele Developer schwierigkeiten wie heute , die Messlatte wäre nur eine andere !
 
Zuletzt bearbeitet:
Weiß nicht , eine simultane weiterenwicklung wäre imo die "idealste" Lösung gewesen !
Shader sind schon sehr wichtig und vorallem flexibel ! Bei hartverdrahtete Effekte käme die Frage auf welche und wieviele usw. !

BZW hätten genauso viele Developer schwierigkeiten wie heute , die Messlatte wäre nur eine andere !
Sagen wir so: Mehr Polygone und mehr Texturen kann jeder, wenn es das System hergibt. Da muss man technisch nicht so viel draufhaben. Und mit der Flexibilität ist das so eine Sache. Selbst mit einem festverdrahteten System kann man so ziemlich jeden Effekt umsetzen, solange man genug Füllrate, Bandbreite und VRAM hat. Und die Logik ist viel kleiner, simpler und entsprechend billiger. GPGPU-Geschichten gehen mit einer fixed function GPU natürlich nicht, aber das braucht man für eine Spielkonsole auch nicht.
 
Sagen wir so: Mehr Polygone und mehr Texturen kann jeder, wenn es das System hergibt. Da muss man technisch nicht so viel draufhaben. Und mit der Flexibilität ist das so eine Sache. Selbst mit einem festverdrahteten System kann man so ziemlich jeden Effekt umsetzen, solange man genug Füllrate, Bandbreite und VRAM hat. Und die Logik ist viel kleiner, simpler und entsprechend billiger. GPGPU-Geschichten gehen mit einer fixed function GPU natürlich nicht, aber das braucht man für eine Spielkonsole auch nicht.


Genug gibt es für Developer ja sowieso nicht und genau aus diesem Grund würden wir bei dieser Methode auf dem selben Level sein wie heute !

Es wird immer Entwickler geben die mehr rausholen aus einer Engine samt des Systems und andere eben nicht .
Wie gesagt die Messlatte wäre nur eine andere und wir würden halt andere Kritikpunkte nehmen !

Die Situation wäre aber die Selbe wie heute .
 
Stimmt zwar, aber vielleicht ging/ geht die Entwicklung der GPUs auch nur in die falsche Richtung. Das bringt kurzfristig die besseren Ergebnisse, aber langfristig wäre möglicherweise sinnvoller gewesen, die Prioritäten anders zu setzen. Mehr Polygone, mehr Füllrate, mehr Effekte hartverdrahtet, weniger Shaderleistung. Das hätte auch technisch weniger versierten Entwicklern geholfen, einigermaßen konkurrenzfähige Ergebnisse zu liefern.
Bei Prozessoren läuft das meines Wissens ähnlich - statt der "stumpfen" Aufmotzung der Taktraten wird intelligenter mit der Instruktionsverarbeitung umgegangen. Rohe Power kann nicht die letzte Antwort auf die Herausforderungen sein, da es jede Menge physikalische Grenzen gibt, die erreicht werden. Da helfen intelligente Verfahrensweisen, die den flexiblen Einsatz der Rechenpower ermöglichen und so zu neuen und besseren Ergebnissen führen können. Möchte aber kein GPU Coder sein, muss die Hölle sein :).

Und mehr Polys machen mehr Probleme bei anderen Bereichen (Schattenberechnung, Animation, Kollisionsabfrage etc. etc.).
 
Bei Prozessoren läuft das meines Wissens ähnlich - statt der "stumpfen" Aufmotzung der Taktraten wird intelligenter mit der Instruktionsverarbeitung umgegangen. Rohe Power kann nicht die letzte Antwort auf die Herausforderungen sein, da es jede Menge physikalische Grenzen gibt, die erreicht werden. Da helfen intelligente Verfahrensweisen, die den flexiblen Einsatz der Rechenpower ermöglichen und so zu neuen und besseren Ergebnissen führen können. Möchte aber kein GPU Coder sein, muss die Hölle sein :).

Und mehr Polys machen mehr Probleme bei anderen Bereichen (Schattenberechnung, Animation, Kollisionsabfrage etc. etc.).

wo wir dann wieder beim dem thema raytracing wären xD
 
genau, und das ist leider auch kein allheilmittel (siehe soft shadowing).
zumindest ein lösungsansatz für das polygonproblem ;)
und das mit den softshadows is mir auch klar ^^
da ich mich jetzt nicht so wirklich mit der materie auskenne...
wäre eine kombination der beiden renderverfahren eigentlich möglich, oder macht das nicht viel sinn?
 
wäre eine kombination der beiden renderverfahren eigentlich möglich, oder macht das nicht viel sinn?
ja, eine kombination ist möglich. wenn du dir zum beispiel mein siganturbild ansiehst, dann wird dir vielleicht diese tolle reflektion auffallen. das ist ein raytracing-shader obwohl es ganz normal gerendertes, rasterisiertes bild ist. wie das genau funktioniert, weiß ich auch nicht, aber ich gehe mal davon aus, dass die verschiedenen bildebenen (raster/raytracing) übereinandergelegt werden. das selbe funktioniert nicht nur mit shadern, sondern auch zB mit geraytracetem schatten.

bei standbildern macht das sinn, da man nicht das komplette bild raytracen muss. aber bei echtzeitanimationen gehe ich nicht davon aus, dass das einen gewaltigen geschwindigkeitsschub bringt.
 
ja, eine kombination ist möglich. wenn du dir zum beispiel mein siganturbild ansiehst, dann wird dir vielleicht diese tolle reflektion auffallen. das ist ein raytracing-shader obwohl es ganz normal gerendertes, rasterisiertes bild ist. wie das genau funktioniert, weiß ich auch nicht, aber ich gehe mal davon aus, dass die verschiedenen bildebenen (raster/raytracing) übereinandergelegt werden. das selbe funktioniert nicht nur mit shadern, sondern auch zB mit geraytracetem schatten.

bei standbildern macht das sinn, da man nicht das komplette bild raytracen muss. aber bei echtzeitanimationen gehe ich nicht davon aus, dass das einen gewaltigen geschwindigkeitsschub bringt.
hui! nen sehr interessanten artikel gefunden, der genau unser problem behandelt und rasterisierung und ray-tracing vergleicht...
inwiefern das alles korrekt ist kann ich jedoch nicht beurteilen ;)

http://www.3dcenter.org/artikel/2007/03-31.php
 
Naja, vielleicht sind schon Polygone ansich ein falscher Ansatz. Mir persönlich haben vom Ansatz her immer Voxel gefallen. Erlaubt theoretisch solide Modelle und raue Kanten. Objekte müsste man dann quasi als depth-mapped Billboards realisieren.
 
Naja, vielleicht sind schon Polygone ansich ein falscher Ansatz. Mir persönlich haben vom Ansatz her immer Voxel gefallen.
Outcast.jpg

Outcast R.I.P. :(

(war das damals wirklich sooo hässlich?)
 
Für Voxel Berechnungen sind unsere aktuellen Grafikkarten definitiv noch zu schwach.
Voxel bedeutet ja nix anderes, als das für jedes Pixel eines Objektes räumliche Koordinaten vorhanden sind.

Wenn also Vektorberechnungen für die Verschiebung (oder Veränderung) eines Objektes gemacht werden müssen, muss dies für jedes einzelne Pixel gemacht werden.

Bei Polygonen hat man Flächen und somit viel weniger Berechnungen um ein Objekt zu ändern oder zu verschieben.

Voxel macht vielleicht Sinn bei irgenwelchen komplexen wissenschaftlichen Simulationen.
Für die heutigen Spiele mit komplexen Szenerien isses definitiv (noch) zu performancefressend.

Ein weiter Vorteil von Polygonen sind die relativ simplen geometrischen Transformationen, welche sehr schön über Matritzen erledigt werden können.
Dies spart Performance und verhindert, wenn ein Model sauber gemacht ist ein "auseinanderbrechen" von diesem.
 
Zuletzt bearbeitet:
kann es auch heute noch mit 101% der wii games aufnehmen

das hat man eben davon wenn man hardware aus dem vorhigen jahrtausend verbaut

Wow, deinem Beitrag dürfte in der Kategorie der langweiligen Bashes eine Spitzenposition einnehmen. Sicher, dass du kein Sprachbot bist?
 
Zurück
Top Bottom