Grafikvergleichsthread auf technischer Ebene (+Begriffserklärung)

Ich hätte mal eine Frage, die mich schon lange beschäftigt: Was bringen einem im Spiel eigentlich 30, 60 oder noch mehr fps, wenn das menschliche Auge eh alles ab 25fps als Bewegung auffasst?
das menschliche auge nimmt weit mehr als 25 fps war, ab da wirkt es akzeptabel flüssig...
je größer die bewegung auf dem bildschirm, desto höhere fps brauchst du...

wenn du z.B. langsam über eine landschaft fährst und auf dem bild an sich sich nichts tut, kommst du auch mit 5 fps aus....
wenn sich aber viel auf dem bild tut, fallen dir die "fehlenden" frames um so stärker auf...
irgendwann is da aber auch schluss...
und bei 60fps is sowieso meist die obergrenze (viele fernseher machen ja nicht mehr als 60Hz)...
 
zum glück arbeitet jetzt einer der pioniere des realtime-raytracing bei intel: daniel pohl.:-) der typ ist einfach nur :hammer:
[youtube]blfxI1cVOzU[/youtube]
hatte der typ nicht sogar extra raytracing chips entwickelt, oder war das wer anders?
gibt ja nen paar prototypen, die bei sehr geringer taktrate unglaubliches leisten!
 
wie sieht das aus hazuki, könnte mann eigene chips nur für die KI herstellen?

So ein Chip wurde sogar mal vor ca. einen Jahr abgekündigt, ist von einer in Israel ansässigen Firma namens AI-Seek, Name des KI Beschleunigers ist Intia.
Habe die sache aber nicht mehr verfolgt und weiß nicht ob das Ding je erscheinen ist :-)

Aber auch wenn nicht wäre das Ding wohl genauso untergegangen wie die PhysX :-)
 
Zuletzt bearbeitet:
Zum Thema 30 FPS vs. 60
Gibt ein einfaches Beispiel, warum mehr (gerade bei schnellen Spielen) meist besser ist. Wenn sich ein Objekt sehr rasch über den Bildschirm bewegt (kann bei Egoshootern vorkommen, z.B. man dreht sich gerade um, während das Objekt an einem vorbeisaust), kann es bei weniger Fps vorkommen, dass das Objekt gar nie sichtbar ist, da im einen Bild das Objekt noch links vom Bildschirmrand ist & beim nächsten bereits rechts davon. Bei mehr FPS würde man das Objekt erkennen können. Zudem kann unser Wahrnehmungsapparat kleine Unterschiede in einer Bewegung wesentlich besser erfassen, wenn die Bewegung möglichst flüssig ist (man versuche in einem Hasenjagdgame den Hasen zu treffen, wenn man nur 10 FPS hat - das Ding hoppelt da scheinbar zufällig von Seite zu Seite). Dazu kommt das Problem, dass die meisten Games kein sauberes Motion Blur anwenden. Motion Blur ist wie bereits erwähnt ein Effekt von Kameras, da diese pro Bild eine gewisse Belichtungszeit haben. Wenn ein Objekt sich während dieser Zeit bewegt, erscheint es verschwommen auf dem Bild, was unserem Auge einen weiteren Hinweis auf die Bewegung liefert.

Zum Thema Raytracing in Games
Ich glaube nicht daran, dass so schnell Raytracing Games kommen. Bisher hab ich noch keine einzige überzeugende Demo gesehen (weder das obige Video noch z.B. das Video mit Quake 4 mit Raytracing). Meistens sieht man in den Videos hauptsächlich toll verspiegelte Oberflächen, die so in der Realität fast nicht vorkommen. Weiche Oberflächen sind mit Raytracing (zumindest in der traditionellen Variante) verflucht schwer zu simulieren, da Licht an weichen Oberflächen gestreut wird - da müsste man anfangen, für jeden Lichtstrahl, der auf eine weiche Oberfläche fällt, hunderte von weiteren zu berechnen - absoluter Overkill..
 
Zum Thema Raytracing in Games
Ich glaube nicht daran, dass so schnell Raytracing Games kommen. Bisher hab ich noch keine einzige überzeugende Demo gesehen (weder das obige Video noch z.B. das Video mit Quake 4 mit Raytracing). Meistens sieht man in den Videos hauptsächlich toll verspiegelte Oberflächen, die so in der Realität fast nicht vorkommen. Weiche Oberflächen sind mit Raytracing (zumindest in der traditionellen Variante) verflucht schwer zu simulieren, da Licht an weichen Oberflächen gestreut wird - da müsste man anfangen, für jeden Lichtstrahl, der auf eine weiche Oberfläche fällt, hunderte von weiteren zu berechnen - absoluter Overkill..

Absolut nicht korrekt grade das ist der Vorteil von Raytracing. Man braucht nämlich die Material eigenschaften nicht mehr berücksichtigen wenn sie bekannt sind. Das berücksichtigt der Algorithmus nämlich quais von allein. (BTW was ist mit Weichen Oberflächen gemeint???)
Den Absoluten overkill bekommen wir wenn wir die nächsten jahre nicht auf Raytracing umstellen und bei Rastarisation bleiben irgendwann macht das keinen Sinn mehr da die Performance derart in die knie gehen wird wenn wir bei mehr als 10 mio polys/s pro szene angekommen sind.
Nicht umsonst wird bei Animationsfilmen nur noch Raytracing eingesetzt.
 
Zuletzt bearbeitet:
Absolut nicht korrekt grade das ist der Vorteil von Raytracing. Man braucht nämlich die Material eigenschaften nicht mehr berücksichtigen wenn sie bekannt sind. Das berücksichtigt der Algorithmus nämlich quais von allein. (BTW was ist mit Weichen Oberflächen gemeint???)
Den Absoluten overkill bekommen wir wenn wir die nächsten jahre nicht auf Raytracing umstellen und bei Rastarisation bleiben irgendwann macht das keinen Sinn mehr da die Performance derart in die knie gehen wird wenn wir bei mehr als 10 mio polys/s pro szene angekommen sind.
Nicht umsonst wird bei Animationsfilmen nur noch Raytracing eingesetzt.

Klaus hat da teilweise recht. Diffuse Oberflächen sind mit Raytracing schlecht darzustellen. Kaustiken, also Lichtbündel sogar gar nicht. Da nimmt man dann Photonmapping. In Animationsfilmen wird auch nicht nur Raytracing verwendet, sondern eine Kombination aus verschiedenen Verfahren. Für die diffusen Flächen Radiosity, für die Lichtquellen einen Photonmapper und dann noch einen Raytracer für die normalen Oberflächen. Halbschatten kann ein Raytracer allein auch nicht.
 
Klaus hat da teilweise recht. Diffuse Oberflächen sind mit Raytracing schlecht darzustellen. Kaustiken, also Lichtbündel sogar gar nicht. Da nimmt man dann Photonmapping. In Animationsfilmen wird auch nicht nur Raytracing verwendet, sondern eine Kombination aus verschiedenen Verfahren. Für die diffusen Flächen Radiosity, für die Lichtquellen einen Photonmapper und dann noch einen Raytracer für die normalen Oberflächen. Halbschatten kann ein Raytracer allein auch nicht.

Photonmapping ist eine erweiterung von Raytracing und gehört für mich dazu. Desswegen komme ich zu der Aussage. Der begriff Raytracing beschreibt viele bestandteile.
Photonmapping, Pathtracing, echte Global Illumiantion gehört für mich alles unter den Begriff Raytracing. Also definitions sache.
Bei den Animationsfilmen hast du recht das werden beide verfahren verwendet.
 
Aber bei Photonmapping und Radiosity werden keine Strahlen verfolgt. Daher haben die auch für mich nichts mit Raytracing zu tun. Bei Radiosity wird die Energie anhand des Formfaktors auf die Teile der Geometrie verteilt und später wird diese Energie dann wieder "eingesammelt" Beim Photonmapping werden aus jeder Lichtquelle Unmengen Photonen verschossen, die dann in der Szene liegen bleiben. Daher kann man überhaupt Kaustiken erzeugen. Denn die Wahrschienlichkeit, dass der verfolgte Strahl in eine Lichtquelle fällt ist sehr gering. Es gibt durchaus gute Methoden ohne Strahlen zu verfolgen.
 
Aber bei Photonmapping und Radiosity werden keine Strahlen verfolgt. Daher haben die auch für mich nichts mit Raytracing zu tun. Bei Radiosity wird die Energie anhand des Formfaktors auf die Teile der Geometrie verteilt und später wird diese Energie dann wieder "eingesammelt" Beim Photonmapping werden aus jeder Lichtquelle Unmengen Photonen verschossen, die dann in der Szene liegen bleiben. Daher kann man überhaupt Kaustiken erzeugen. Denn die Wahrschienlichkeit, dass der verfolgte Strahl in eine Lichtquelle fällt ist sehr gering. Es gibt durchaus gute Methoden ohne Strahlen zu verfolgen.

Aber Photonmapping ist keine eigenständige Rendermethode sondern wird doch bloß als ergänzung zu anderen Raytracing mehtoden verwendet. Für mich ist Photonmapping mit Raytracing verknüpft.
 
Photon Mapping kann sehr wohl auch ohne Raytracing verwendet werden. Im Übrigen habe ich darum im obigen Post auf die traditinelle Variante (reine Sehstrahlenverfolgung) verwiesen. Habe bisher keine brauchbare Echtzeit-Demo mit diffusen (danke fürs Adjektiv Xeno, hab ich gesucht) Oberflächen mit Raytracing Verfahren gesehen.
 
Photon Mapping kann sehr wohl auch ohne Raytracing verwendet werden. Im Übrigen habe ich darum im obigen Post auf die traditinelle Variante (reine Sehstrahlenverfolgung) verwiesen. Habe bisher keine brauchbare Echtzeit-Demo mit diffusen (danke fürs Adjektiv Xeno, hab ich gesucht) Oberflächen mit Raytracing Verfahren gesehen.

Hab ich noch nirgends gesehen und macht das überhaupt sinn? Klar bei pre Rendered material aber in echtzeit ohne Raytracing?

Und für diffuse Oberflächen gibt es doch eben die erweiterungen wie Photonmapping, Radiosity etc. wenn man diese mit diffusem Raytracing kombiniert.
 
Zuletzt bearbeitet:
Hab ich noch nirgends gesehen und macht das überhaupt sinn? Klar bei pre Rendered material aber in echtzeit ohne Raytracing?
Gesehen hab ich's auch noch nicht, aber es kann zum Beispiel auch mit Path Tracing kombiniert werden. Und der Einsatz bei einem Rasterization Verfahren kann sich auch anbieten..

Und für diffuse Oberflächen gibt es doch eben die erweiterungen wie Photonmapping, Radiosity etc. wenn man diese mit diffusem Raytracing kombiniert.
Ja schon, nur würden wir ja das ganze gerne in Echtzeit haben, oder? Und da sehe ich zur Zeit noch gar kein Land, selbst wenn es schon (simple) Realtime Raytracer gibt..
 
Zuletzt bearbeitet:
Gesehen hab ich's auch noch nicht, aber es kann zum Beispiel auch mit Path Tracing kombiniert werden. Und der Einsatz bei einem Rasterization Verfahren kann sich auch anbieten..


Ja schon, nur würden wir ja das ganze gerne in Echtzeit haben, oder? Und da sehe ich zur Zeit noch gar kein Land, selbst wenn es schon (simple) Realtime Raytracer gibt..

In Zeiten von mehr Kern CPU's und dann auch speziellen GPU's bin ich zuversichtlich, immerhin skaliert Raytracing nahezu linear mit jedem CPU Kern, das macht schon hoffnung. Zum anderen konnte ich mir vorstellen das wir sowas in echtzeit auch zuerst auf handhelds sehen die eine realtive geringe auflösung haben denn auch hier skaliert Raytracing linear.
 
Das würd ich gerne mal sehen - ein Handheld zeigt den Konsolen, wo der Hammer hängt ;)
 
Das würd ich gerne mal sehen - ein Handheld zeigt den Konsolen, wo der Hammer hängt ;)

ewnn raytracing sich nun wirklich in die spieleentwicklung einschleichen sollte, wäre das eine durchaus interessante sache, denn dann könnte rein thoeretisch jeder der sich normalerweise mit szenen rendering oder sonst gerne was in 3D macht als potenzieller designer fürn spiel anbieten, da man dann mittlerweile auf polygonzahlen scheissen kann...
wäre eine sehr interessante sache!
 
Zurück
Top Bottom