Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Meinst du ray casts für AI, Kollisionsabfragen u.ä.? Das hat recht wenig mit Raytracing zu tun, genauso wenig wie das hier beschriebene Verfahren, das im screen space arbeitet.
Nene, da wird schon "echtes" Raytracing verwendet (halt einfach im Screenspace), wird z.B. auch schon länger für die Darstellung von Augen eingesetzt.. Allerdings ist es nicht so, dass die gesamte Szene via Raytracing dargestellt wird, falls Du das meintest.

Edit: Raytracing ist ja nix anderes als das Verfolgen von (Licht- oder Seh-) Strahlen, von dem her könnte man sogar Raycasts als Raytracing bezeichnen, nur werden die fast ausschliesslich via CPU berechnet & für Spiellogik / Physik verwendet statt für die Grafikberechnung.. Wollte nur mal vorbeugend klarstellen, dass Raytracing in der Grafiktechnologie von Games nix wirklich neues sind.
 
Zuletzt bearbeitet:
Am Ende des Videos wenn das Finale Bild gezeigt wird, dann spiegeln sich im Wasser am Boden nichtmal die Charaktere...

Genauso wie im Gameplay Trailer sich in den ganzen Fenstern nur die Umgebung, aber keine beweglichen Objekte, spiegeln.

Was ist also nun so besonders daran?

das ist mir auch aufgefallen, als er noch sagt das man jetzt die charaktere im wasser sehen kann, aber dan selber kurz bemerkt das man sie nicht sieht aber einfach weiter redet xD
denke im Final ist das dan drin :)
 
Am Ende des Videos wenn das Finale Bild gezeigt wird, dann spiegeln sich im Wasser am Boden nichtmal die Charaktere...

Genauso wie im Gameplay Trailer sich in den ganzen Fenstern nur die Umgebung, aber keine beweglichen Objekte, spiegeln.

Was ist also nun so besonders daran?

Das besondere ist, das selbst diese äusserst zufriedenstellende grafik dir nicht gefällt, obwohl sie in der form nichtmal auf 5 parallel laufenden wiius berechnet werden könnte.
 
Killzone 4 sieht so geil aus. IMO das schönste Spiel bisher. Techdemos erwähne ich absichtlich nicht weil es nur Techdemos sind und Killzone 4 dafür bereits spielbar ist.
 
Am Ende des Videos wenn das Finale Bild gezeigt wird, dann spiegeln sich im Wasser am Boden nichtmal die Charaktere...

Genauso wie im Gameplay Trailer sich in den ganzen Fenstern nur die Umgebung, aber keine beweglichen Objekte, spiegeln.

Was ist also nun so besonders daran?
Die hatten ein Durcheinander mit den Folien, fand das auch verwirrend :) In der Tat spiegeln sich bei dem Effekt auch bewegte Objekte. Sieht man auch recht gut im Trailer:

[video=youtube_share;RN80YbBnXd0]http://youtu.be/RN80YbBnXd0[/video]

Schaust Du bei 1:45 (Wände von der Glasbox), 2:00 (Füsse spiegeln sich subtil), 5:46 (Rauch, Schüsse, Feuer etc. spiegeln sich in der Wand).

Ist schon ein hübscher Effekt, Probleme gibt's aber, wenn sich Sachen spiegeln sollten, die nicht auf dem Screen sichtbar sind (z.B. wenn man direkt in eine Wand / Spiegel schaut) - dann funktioniert das ganze nicht mehr. Gleiches Spiel übrigens beim Wasser von KZ3, das spiegelt auch schön die Umgebung, sobald man aber steil nach unten schaut müssen sie den Effekt ausblenden, da der (nur in der Reflektion sichtbare Himmel) nicht auf dem Screen bereits sichtbar ist..
 
Zuletzt bearbeitet:
Danke klaus. Wollte eben schon schreiben dass sehr wohl dynamische Objekte reflektiert werden. Sieht man besonders gut ab 5:45.
 
GG hat ja noch reichlich zeit alles noch besser zu optimieren, da kann man so kleine fehler in einer presentation schon verzeihen.
Im optimieren sin GG eh wahre künstler, das hat man schon bei KZ2 gesehen und bei KZ3 auch.

beispiel:

auf die FPS achten und auf das leicht bessere endergebnis
kz3opt35te15.jpg

kz3opt12ki6i.jpg
 
Nene, da wird schon "echtes" Raytracing verwendet (halt einfach im Screenspace), wird z.B. auch schon länger für die Darstellung von Augen eingesetzt.. Allerdings ist es nicht so, dass die gesamte Szene via Raytracing dargestellt wird, falls Du das meintest.
Meine das schon so, dass nur für den Reflektionen-Teil ein Ray-wasauchimmer-Renderpass läuft.
Edit: Raytracing ist ja nix anderes als das Verfolgen von (Licht- oder Seh-) Strahlen, von dem her könnte man sogar Raycasts als Raytracing bezeichnen.
Naja, dann ist Wolfenstein 3D auch Raytracing. Da würde ich jetzt schon genauer sein. Vernünftiges Lichtmodell, Stochastik/Samples usw. gehören da einfach dazu.

Am Ende des Videos wenn das Finale Bild gezeigt wird, dann spiegeln sich im Wasser am Boden nichtmal die Charaktere...

Genauso wie im Gameplay Trailer sich in den ganzen Fenstern nur die Umgebung, aber keine beweglichen Objekte, spiegeln.
So wie ich das verstanden habe, setzen sich die Reflektionen in KZ aus mehreren Teilen zusammen. Der statischen Cubemap, dem Raytracing-Teil im Screenspace und was dynamisches für andere Objekte ausserhalb des Screenbereichs muss auch da sein. Wenn letzteres fehlt, gibt es keinen Helikopter in der Reflektion zu sehen. Kann auch sein das die Cubemap nicht statisch ist wie die anderen Lightmaps, hab die Präsentation nicht komplett gesehen.
 
So wie ich das verstanden habe, setzen sich die Reflektionen in KZ aus mehreren Teilen zusammen. Der statischen Cubemap, dem Raytracing-Teil im Screenspace und was dynamisches für andere Objekte ausserhalb des Screenbereichs muss auch da sein. Wenn letzteres fehlt, gibt es keinen Helikopter in der Reflektion zu sehen. Kann auch sein das die Cubemap nicht statisch ist wie die anderen Lightmaps, hab die Präsentation nicht komplett gesehen.
Denke wird ähnlich sein wie das was crytek in dem Video als realtime local reflections bezeichnet ab 1:07:

[video=youtube;hVGNWnY_GIs]http://www.youtube.com/watch?v=hVGNWnY_GIs[/video]

Effective reflections are one of the trickiest effects to pull off in real-time rendering. The most commonly used ones are planar reflections for liquid surfaces and cube map reflections. These old methods use precomputed texture images and are often inaccurate, taking away from the user’s immersion. More advanced methods are available, but the gap between the older and tested methods versus the latest and most accurate reflection implementation is quite large in terms of computing demand. In the Crysis 2 DirectX 11 update, CryTek uses Realtime Local Reflections done by approximating ray-traced High Dynamic Range reflections local to specific objects. RLR allows for any curved surface to reflect the nearby surroundings in real time without taking too much of a performance hit on the GPU processing.
 
Die hatten ein Durcheinander mit den Folien, fand das auch verwirrend :) In der Tat spiegeln sich bei dem Effekt auch bewegte Objekte.

Mir ging es eher um die verglasten Häuserfronten ganz am Anfang des Trailers. Die Reflektionen laufen nicht flüssig (sie stocken sehr stark) und es spiegeln sich darin keine Flugzeuge.

Wiso das? Sollte das mit Raytracing nicht problemlos gehen?

Für echtes Realtime Raytracing bei so einer Grafik benötigst du Supercomputer ;)
 
Zuletzt bearbeitet:
Crysis 2 war schon ein ziemliches Grafikbrett, finde ich optisch auch hübscher als Crysis 3, ist allerdings auch erheblich schlauchiger...
 
Wiso das? Sollte das mit Raytracing nicht problemlos gehen?

Das Raytracing läuft eben nicht in einer echten 3d Szene, sondern im Screen Space. Konkret heisst das, man rendert das Bild erstmal "normal" (so wie es der Spieler auf dem Screen sieht), und dann schickt man Strahlen in dieses 2D Bild, das noch Zusatzinformationen hat (zB. wo jeder Pixel in der Welt ist, wie die Oberfläche beschaffen ist etc.). Pro Pixel lässt man einen Strahl abprallen & prüft, wo der nächste Treffer im Bild ist -> das ist die reflektierte Farbe (etwas vereinfacht erklärt). Das Problem hierbei ist, dass beim ersten Rendern ja nur alles Sichtbare dargestellt wird (also zB. die Spielfigur selber nicht bei einer Egoperspektive) - darum können sich auch nur Dinge spiegeln, die "sowieso" schon sichtbar sind.. Ist alles ein wenig kompliziert, aber läuft *massiv* schneller als "echtes" Raytracing, und sieht dabei noch recht schnuckelig aus.


Meine das schon so, dass nur für den Reflektionen-Teil ein Ray-wasauchimmer-Renderpass läuft.

Naja, dann ist Wolfenstein 3D auch Raytracing. Da würde ich jetzt schon genauer sein. Vernünftiges Lichtmodell, Stochastik/Samples usw. gehören da einfach dazu.

Ja da kann man sich schon drüber streiten - aber streng nach Definition gibt es tatsächlich wenig Unterschiede zwischen Raytracing / -casting / -marching etc. Wenn man sehr streng ist, verlangt man halt noch irgendwelche sekundäre Bounces / Lichtmodelle oder so, aber eigentlich sind die Grenzen inzwischen recht schwammig geworden..


So wie ich das verstanden habe, setzen sich die Reflektionen in KZ aus mehreren Teilen zusammen. Der statischen Cubemap, dem Raytracing-Teil im Screenspace und was dynamisches für andere Objekte ausserhalb des Screenbereichs muss auch da sein. Wenn letzteres fehlt, gibt es keinen Helikopter in der Reflektion zu sehen. Kann auch sein das die Cubemap nicht statisch ist wie die anderen Lightmaps, hab die Präsentation nicht komplett gesehen.

Ja sie sagen, dass sie Cubemaps mit den raytraced Reflektionen mischen - nehme mal an sie faden diese aus wenn der Winkel "ungünstig" wird, so wie Crytek das macht..


Denke wird ähnlich sein wie das was crytek in dem Video als realtime local reflections bezeichnet ab 1:07:

Denke ich auch.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom