Grafikvergleiche (auf technischer Ebene)

Nerazar schrieb:
[removed pic from quote] Müsstest du dich dann nicht permanent über dich selbst aufregen...?

Das Bild ist das Selbe, nur wird, aufgrund der simulierten Pupille, die größer wird, mehr Helligkeit aufgenommen und über das Dunkel hinwegegesehen...

Hilfe hört das denn nie auf...:rofl2:

Du sagst doch selber das untere Bild sei Heller, nur rede ich hier nicht vom Effekt der das möglich macht oder was auch immer, sondern nur das was man sieht ist das so schwer zu verstehen...:-?

Ich wette mit Dir wenn ich die zwei Bilder in einem nicht Technikfreakforum posten würde, würden zu 99% aller Leute sagen das untere Bild sei heller...;)

Ausserdem weiss ich was wsippel meint nur reden wir aneinander vorbei...:)
 
Sorrow33 schrieb:
Hilfe hört das denn nie auf...:rofl2:

Du sagst doch selber das untere Bild sei Heller, nur rede ich hier nicht vom Effekt der das möglich macht oder was auch immer, sondern nur das was man sieht ist das so schwer zu verstehen...:-?

Ich wette mit Dir wenn ich die zwei Bilder in einem nicht Technikfreakforum posten würde, würden zu 99% aller Leute sagen das untere Bild sei heller...;)

Ausserdem weiss ich was wsippel meint nur reden wir aneinander vorbei...:)
Wenn Du's tatsächlich verstanden hast, was diskutierst Du hier dann überhaupt? Hier geht's um Technik, und ich habe eine Technologie anhand eines konkreten Beispiels erklärt. Da gibt's kein schöner oder weniger schön, es geht um die Möglichkeiten der Technik. Deine Argumentation lässt vermuten, dass Du's ohnehin eigentlich nicht verstanden hast, aber ich will Dir einfach mal glauben...
 
bin gespannt ob irgendwann hdr-displays wie
dr37pfrontside.jpg

für den 08/15 verbraucher auf den markt kommen. besser wäre natürlich ein echtes spektrales display...aber soweit ich informiert bin ist das technisch noch nicht möglich, außerdem würde man quasi unendlich viel speicher benötigen um dieses display mit den richtigen daten zu versorgen. habe einmal gelesen, dass es eine forschergurppe gibt, die damit experimentiert mit einem künstlichen muskel ein prisma zu bewegen, um die auf dem monitor erscheinende farbe zu ändern, aber das ist noch weit entfernt von einer technischen umsetzung, geschweige denn eines prototypen.


Sorrow33 schrieb:
Und noch mal ich rede hier nicht vom Technikgeschwaffel @Mokka

Und jetzt husch ab ins Bett Mokka nicht das du zu spät in die Schule kommst...:lol:

tja, bildung ist nicht jedermanns sache, da hast du wohl recht, aber imo nichts wofür man sich schämen sollte. manche bevorzugen es halt gleich nach der pflichschule einen beruf zu ergreifen, um geld zu verdienen.
wenn ich so etwas lese, dann benutze ich aber auch keinen :lol: -smilie, also wieso fühlst du dich dazu genötigt einen solchen zu verwenden?
darüber hinaus musst du als metallbauer wohl ausgeschlafener sein als ich für die uni. schließlich besteht bei deiner arbeit sicher erhöhtes verletzungsrisiko, oder irre ich mich?

...und es heißt "...dass du zu spät..."
 
Mokka schrieb:
bin gespannt ob irgendwann hdr-displays wie
[removed pic from quote]
für den 08/15 verbraucher auf den markt kommen. besser wäre natürlich ein echtes spektrales display...aber soweit ich informiert bin ist das technisch noch nicht möglich, außerdem würde man quasi unendlich viel speicher benötigen um dieses display mit den richtigen daten zu versorgen. habe einmal gelesen, dass es eine forschergurppe gibt, die damit experimentiert mit einem künstlichen muskel ein prisma zu bewegen, um die auf dem monitor erscheinende farbe zu ändern, aber das ist noch weit entfernt von einer technischen umsetzung, geschweige denn eines prototypen.

Na das ist doch die einzig logische Konsequenz, das es mal HDR-Displays für den Konsumermarkt geben wird.

Btw die Komprimierung muss man auch beachte: High Dynamic Range Imaging

[...]Um dieses Problem erst nicht aufkommen zu lassen, haben Wissenschaftler am Max-Planck-Institut für Informatik einen Verfahren für eine High Dynamic Range (HDR)Video Komprimierung entwickelt, das die komplette Farbinformation, die für das menschliche Auge sichtbar ist, speichert. HDR Video kann die Helligkeitsbereiche eines mondlosen Himmels bis zum direkten Sonnenlicht verschlüsseln und kann die komplette Farbskala des sichtbaren Lichtes wiedergeben[...]

Die Meldung ist schon was älter.
 
Mokka schrieb:
bin gespannt ob irgendwann hdr-displays wie
[removed pic from quote]
tja, bildung ist nicht jedermanns sache, da hast du wohl recht, aber imo nichts wofür man sich schämen sollte. manche bevorzugen es halt gleich nach der pflichschule einen beruf zu ergreifen, um geld zu verdienen.
wenn ich so etwas lese, dann benutze ich aber auch keinen :lol: -smilie, also wieso fühlst du dich dazu genötigt einen solchen zu verwenden?
darüber hinaus musst du als metallbauer wohl ausgeschlafener sein als ich für die uni. schließlich besteht bei deiner arbeit sicher erhöhtes verletzungsrisiko, oder irre ich mich?

...und es heißt "...dass du zu spät..."

Ich bin Metallbauer allerdings arbeite ich schon lange im Büro, technische Zeichnungen sind nicht gerade einfach und im Sommer fange ich eine Umschulung als Elektroniker an...:)

Ausserdem schreibt man Nomen und nach Punkten gross auf die Artikel gehe ich jetzt nicht ein...;)

Das mit dem Smily war ein Joke...8-)

@wsippel das ist mir schon klar das es hier ein Technik Thread ist ich wollte doch nur meinen Standpunkt erläutern warum mir das obere Bild besser gefällt...:)
 
wsippel schrieb:
In den Beispielen hier sehe ich nur eine Ebene, das ist nicht ungewöhnlich. Hatte Doom³ beispielweise auch schon. Es wird aber immer aufwändiger, je mehr Verzerrungen übereinanderliegen. Sagen wir, Du siehst die Druckwelle im Godfather-Screenshot durch Reliefglas noch einmal verzerrt. Oder Du blickst einfach durch mehrere hintereinanderliegende Scheiben Reliefglas auf eine Szene. Du musst also Scheibe für Scheibe berechnen, und benötigst jeweils das Ergebnis des vorherigen Schritts. Pokemon nutzt einen solchen Effekt mit zumindest zwei Ebenen scheinbar für einige Angriffe.
Ohne deine Begeisterung dafür drücken zu wollen, doch diesen Effekt konnte man schon in Half-Life 2 vor 2,5 Jahren über mehrere Ebenen erzielen (dazu einige dynamische Lichtquellen, die ordentlich Performance fressen).

http://www.megaupload.com/?d=3SICJCS9

Die Wunder der Technik einer vier Jahre alten Radeon 9800Pro... :D
1024*768, 4xMSAA, alles auf höchste Details auf meinem zugemüllten Windows. KA warum die FRAPS-Anzeige nicht auf den Screenshots zu sehen ist, aber ich hatte konstante *hust* 10fps.^^
Dass es so wenig Spiele nutzen mag daran liegen, dass es wenig sinnvoll ist das Bild mehrmals bis zur Unkenntlichkeit zu verzerren. ;)
 
Taddl schrieb:
Ohne deine Begeisterung dafür drücken zu wollen, doch diesen Effekt konnte man schon in Half-Life 2 vor 2,5 Jahren über mehrere Ebenen erzielen (dazu einige dynamische Lichtquellen, die ordentlich Performance fressen).

http://www.megaupload.com/?d=3SICJCS9

Die Wunder der Technik einer vier Jahre alten Radeon 9800Pro... :D
1024*768, 4xMSAA, alles auf höchste Details auf meinem zugemüllten Windows. KA warum die FRAPS-Anzeige nicht auf den Screenshots zu sehen ist, aber ich hatte konstante *hust* 10fps.^^
Dass es so wenig Spiele nutzen mag daran liegen, dass es wenig sinnvoll ist das Bild mehrmals bis zur Unkenntlichkeit zu verzerren. ;)
Keine Frage, dass man's theoretisch umsetzen konnte. Aber technisch machbar und praktikabel sind halt doch noch zwei verschiedene Paar Schuhe.
 
wer hätte gedacht das es noch was langweiligeres als grafikvergleiche gibt ... ja echt, wir habens geschafft ... grafikvergleiche auf TECHNISCHER EBENE


next generation langeweile ... weis garnichtmehr wo ich noch hinklicke soll ^^

irgendwie denk ich mir, ok, der hersteller gibt mir garantie auf ca. 2.000.000 mausklicks mit meiner maus, will ich wirklich einen klick verschwenden um hier reinzuschauen ??? ^^
manchmal muss man entscheidungen treffen, und gleich muss ich noch absenden klicken ... *nerv* ^^

bye bye ihr normal maps ...legt euch mal ins bettchen, das ist immernoch das beste postprocessing :D ^^
 
sponk schrieb:
wer hätte gedacht das es noch was langweiligeres als grafikvergleiche gibt ... ja echt, wir habens geschafft ... grafikvergleiche auf TECHNISCHER EBENE


next generation langeweile ... weis garnichtmehr wo ich noch hinklicke soll ^^

irgendwie denk ich mir, ok, der hersteller gibt mir garantie auf ca. 2.000.000 mausklicks mit meiner maus, will ich wirklich einen klick verschwenden um hier reinzuschauen ??? ^^
manchmal muss man entscheidungen treffen, und gleich muss ich noch absenden klicken ... *nerv* ^^

bye bye ihr normal maps ...legt euch mal ins bettchen, das ist immernoch das beste postprocessing :D ^^

Man darf zwar zu allem eine Meinung haben, muss man aber nicht....
 
Ambient Occlusion

Was ist das?
Der Begriff Umgebungsverdeckung oder englisch Ambient Occlusion bezeichnet eine Shading-Methode, die in der 3D-Computergrafik verwendet wird, mit relativer kurzer Renderzeit eine realistische Verschattung von Szenen zu erreichen. Das Ergebnis ist zwar nicht physikalisch korrekt, reicht jedoch in seinem Realismus oft aus, um auf rechenintensive globale Beleuchtung verzichten zu können.
Ambient Occlusion in Verbindung mit einem guten Lightig sorgt für sehr realistische Ergebnisse.

Welche Spiele verwenden diese Technik?
Beispielsweise GRAW2 oder Halo 3.

Wie sieht diese Technik aus?
AmbientOcclusion_German.jpg


om_allLight.jpg


ambient_occlusion_01.jpg


lm_test2.jpg


Zusammenfassung
Zusammenfassung

Ambient Occlsion ist eine einfache Methode einem Modell realistisches und plastisches Aussehen zu geben. Ganz automatisch erhält man dabei weiche Schatten und den Eindruck von globaler Beleuchtung. Dabei kann die GPU entweder zum Vorberechnen der Ambient Occlusion oder zur Echtzeitberechnung benutzt werden.

Caustics

Was ist das?
Als Caustics bezeichnet man die Brechung von Licht hinter transparenten Materialien. So z.B. Glas oder auch Wasser. Die einzelnen Lichtphotonen, die auf das Material treffen, laufen durch einen komplizierten Algorythmus und führen dann zu einer realistischen Lichtbrechung.

Welche Spiele verwenden diese Technik?
Aufgrund der sehr rechenaufwendigen Berechnung dieses Effekts, machen momentan sehr wenig Spiele von dieser Technik gebraucht. Ein Beispiel ist allerdings Crysis.

Wie sieht diese Technik aus?
caustics.jpg


caustics.jpg
 
Etwas zu Caustics. Echte Caustics kann bisher kein Spiel. Man versucht nur den Eindruck zu vermitteln. Selbst ein normaler Raytracer kann keine Caustiken darstellen, da er keine Lichtbündelungen erkennen kann. Am Schnittpunkt wird nur gefragt, welche Lichtquelle von dort sichtbar ist.
Um Caustiken wirklich zu erzeugen nimmt man Photon Mapping. Dabei verschießt jede Lichquelle eine bestimmte Anzahl Photonen. Treffen diese dann beispielsweise auf eine Glaskugel, dann wird in den Matrialeigenschaften nachgesehen. Dort steht dann beispielsweise: Durchlässigkeit 95% Brechungsindex x. Jetzt werden also 95% der auftreffenden Photonen von dem Glas gebrochen und weiterverfolgt bis sie wieder auf eine Oberfläche treffen. Dort wieder die Materialaigenschaften nachsehen und weiter. Wenn ein Objekt (z.B. der Boden) jetzt sehr diffuses Matrial hat, bleiben die meisten Photonen dort liegen.
Wenn jetzt alle Photonen verschossen wurden geht der Raytracer über die Szene und zählt bei jedem Schnittpunkt die Anzahl von Photonen in Entfernung n. (Dabei entstehen Probleme an Objektkanten und man müsste eigentlich noch clippen). Aus der Anzahl der gefundenen Photonen lässt sich dann erkennen ob an dieser Stelle das Licht gebündelt wurde.
Um jetzt auch noch gute Ergebnisse zu erzielen, kann man locker 500.000 Photonen pro Lichtquelle verschießen, was einen immensen Rechenaufwand darstellt.
Es gibt also in Echtzeit einen physikalisch plausiblen, aber keinen physikalisch korrekten Caustikeffekt.
 
wie geil sieht das denn aus :D gefällt mir der effekt


mir würde ein spiel auch gefallen das nur weiße texturen hat :D


hauptsache so schön wie die auf dem bild :D
 
Xenobit schrieb:
Etwas zu Caustics. Echte Caustics kann bisher kein Spiel. Man versucht nur den Eindruck zu vermitteln. Selbst ein normaler Raytracer kann keine Caustiken darstellen, da er keine Lichtbündelungen erkennen kann. Am Schnittpunkt wird nur gefragt, welche Lichtquelle von dort sichtbar ist.
Um Caustiken wirklich zu erzeugen nimmt man Photon Mapping. Dabei verschießt jede Lichquelle eine bestimmte Anzahl Photonen. Treffen diese dann beispielsweise auf eine Glaskugel, dann wird in den Matrialeigenschaften nachgesehen. Dort steht dann beispielsweise: Durchlässigkeit 95% Brechungsindex x. Jetzt werden also 95% der auftreffenden Photonen von dem Glas gebrochen und weiterverfolgt bis sie wieder auf eine Oberfläche treffen. Dort wieder die Materialaigenschaften nachsehen und weiter. Wenn ein Objekt (z.B. der Boden) jetzt sehr diffuses Matrial hat, bleiben die meisten Photonen dort liegen.
Wenn jetzt alle Photonen verschossen wurden geht der Raytracer über die Szene und zählt bei jedem Schnittpunkt die Anzahl von Photonen in Entfernung n. (Dabei entstehen Probleme an Objektkanten und man müsste eigentlich noch clippen). Aus der Anzahl der gefundenen Photonen lässt sich dann erkennen ob an dieser Stelle das Licht gebündelt wurde.
Um jetzt auch noch gute Ergebnisse zu erzielen, kann man locker 500.000 Photonen pro Lichtquelle verschießen, was einen immensen Rechenaufwand darstellt.
Es gibt also in Echtzeit einen physikalisch plausiblen, aber keinen physikalisch korrekten Caustikeffekt.
... Ich wollte es halt nicht so kompliziert ausdrücken :P
 
klobrille schrieb:
... Ich wollte es halt nicht so kompliziert ausdrücken :P

Es war eine Frage in meiner Diplomprüfung, wie denn Caustiken physikalisch korrekt dargestellt werden. Da war die Antwort dann dann noch komplizierter bzw. ausführlicher... ;)
 
Light Scattering (Rayleigh und Mie) und Sub-Surface Scattering sollte man vielleicht noch erklären, habe aber zumindest für Light Scattering keine schönen Bilder gefunden. Beispiele für Light Scattering wären zumindest Halo 3 und Rogue Leader, Beispiele für SSS wäre Fight Night 3 meines Wissens, und Mario Galaxy für vorgetäuschtes SSS (gut, ist immer vorgetäuscht, aber SMG nutzt wohl eine andere/ simplere Technik).
 
Zum HDR:
Das sind normalerweise Bilder, die aus einer Belichtungsreihe zusammengefügt werden und wo man das Ergebnis auf dem Bildschirm gar nicht erkennen könnte!
Also z.B. diese 3:
sample3_01_sm.jpg
+
sample3_02_sm.jpg
+
sample3_03_sm.jpg

Unterbelichtet + leicht Überbelichtet + Überbelichtet

Durch Tonemapping werden sie dann sichtbar gemacht:

sample301sm2sm3smpn4.jpg


Sinn und Zweck an der Sache ist normalerweise, dass es oftmals Situationen gibt, wo entweder der Vordergrund richtig belichtet wird und der Hintergrund unterbelichtet! Oder der Hintergrund richtig belichtet und der Vordergrund überbelichtet (siehe die Beispiele oben)! Durch die HDR-Technik ist es möglich den Dynamikumfang so zu heben, dass Vorder- und Hintergrund samt Objekte gleichermaßen belichtet sind! Für die Augen sind solche Sachen im echten Leben kein Problem, für Kameras aber schon!
Die HDR-Technik lässt sich aber auch noch übertreiben und so als Stilmittel einsetzen! Das kann man sowohl in der Fotografie, Filmtechnik und auch in Videospielen verwenden.....
 
Zurück
Top Bottom