3DS Nintendo 3DS [DS Nachfolger]

Naja ich meine das eher so, wenn man länger nach links blickt bewegt sich auch die Kamera nach links (also nicht sprunghaft). Dann hat man noch genug Zeit sich auf das Objekt zu fixieren. Ich glaube man müsste da ein wenig experimentieren um die besten Resultate zu erzielen.
Ich kann mich noch an frühere Gespräche im Forum erinnern in der es hieß, wie langsam man sich mit der Wii-Steuerung um 360° (in Shootern) drehen könne. Wäre wohl am Anfang bei Eye-Tracking genauso?
 
Ich kann mich noch an frühere Gespräche im Forum erinnern in der es hieß, wie langsam man sich mit der Wii-Steuerung um 360° (in Shootern) drehen könne. Wäre wohl am Anfang bei Eye-Tracking genauso?
Habe gerade das hier gefunden:
http://www.youtube.com/watch?v=ldw3HugJ2rE&feature=related

So langsam sieht das nicht aus. :-)
Es ist ja nur eine theoretische Möglichkeit, die mir ausgedacht habe. ;-)
Könnte aber funktionieren. Fragt sich nur, wie aufwendig das ist.
 
Ich kann mich noch an frühere Gespräche im Forum erinnern in der es hieß, wie langsam man sich mit der Wii-Steuerung um 360° (in Shootern) drehen könne. Wäre wohl am Anfang bei Eye-Tracking genauso?

Hier auch ein sehr schönes Beispiel für Headtracking:
http://www.youtube.com/watch?v=Vqu9NuINKbc

Bei der Geschwindigkeit gibt es zunächst keine Einschränungen, im Gegenteil als alter Mousespieler empfand ich die Trägheit der Steuerung mit einem Analogstick immer als großes Problem und das sorgt übrigens auch dafür, dass das Gameplay in der Konsolenversion deutlich langsamer ist als die PC-Version.
Was die Kollegen meinen ist folgendes, bei der Pointer-Steuerung (Mouse oder Wii-Mote oder in Zukunft Headtrackting) sorgt man typ. für einen blinden Bereichen (also ein Bereich in dem sich das Bild nicht ändert so lange sich der Zeiger darin befindet). Die Idee dabei ist, dass eben nicht jedes Zittern gleich in eine Bewegung umgesetzt wird und die Leute seekrank werden. Bei der Wii war das am Anfang so, dass der blinde Bereich meist einen Großteil des Bildschirms ausgefüllt und erst quasi am Rand die Bewegung stattfand. Das sorgt dann für seeeehr träge Bewegungen denn erstens musstest Du den Zeiger bis zum Rand bewegen und dann hat das ganze erst angefangen sich mit konstanter Geschwindigkeit zu bewegen.

Aber in der Zwischenzeit gibt es auch auf der Wii (auf dem PC schon lange) Spiele die es erlauben, sich die Steuerung nach belieben zu konfigurieren. Als "Profi wählt man meist einen sehr kleinen bilnden Bereich und koppelt die Sicht dann mehr oder weniger an die Pointer-Bewegung.
Dazu kommt aber noch ein weiterer Punkt bei großen Drehungen (z.B. 180 Grad) macht man bei einem Analogstick eine Abkürzung (und dreht die Sicht nicht erst), aber auch das ist mit dem Nunchuck oder Mouse und Tastatur möglich. Das müsste man natürlich auch bei der Kombination mit Headtracking vorsehen (sprich irgend ein Nunchuck oder Tastatur)...
 
Zuletzt bearbeitet:
Habe gerade das hier gefunden:

So langsam sieht das nicht aus. :-)
Es ist ja nur eine theoretische Möglichkeit, die mir ausgedacht habe. ;-)
Könnte aber funktionieren. Fragt sich nur, wie aufwendig das ist.
Und das funktioniert durch Eye-Tracking? Weiß nicht, teilweise bewegt sich die Kamera schon arg schnell. Kann irgendwie gar nicht glauben, dass man das einfach so steuern kann und nicht ins Straucheln kommt.

@Beta: Also Headtracking klingt für mich schon plausibel, da der Kopf ruhig gehalten werden kann. Mir stößt nur Eye-Tracking etwas auf. ;)

Wenn ich nochmal dieses Bild als Beispiel heranziehen dürfte:
_wsb_510x381_wohnung.jpg

Wenn ein User diesen Beitrag liest und das Bild sieht, dann springt sein Auge wohl zuerst zu den hellen Punkten. Also zum Fernseher, Lampe und zur Schale. Während Fernseher und Lampe noch relativ nahe beieinander stehen, liegt die Schale fern ab. Das Bild ist also ständig in Bewegung.
xblaeu54xtl4.jpg

Wenn sich das Bild nun bewegt, dann wird es schwer, weitere Dinge, die man gerne sehen möchte, aber eher unauffällig im Bild verschwinden, wie beispielsweise die beiden Kerzen im Hintergrund, zu fixieren. Man bräuchte einen ruhigen Punkt, der aber nicht wirklich existiert, weil Augen ständig in Bewegung sind, selbst wenn man einen Bereich fixiert.

Man sieht es auch sehr schön, wenn man mit Leuten spricht. Der Blick macht gerade zu eine Reise durch das Gesicht. Da wird es einem doch schwindlig.^^


Aber ich glaube, das kann man erst nachvollziehen, wenn man es mal so gespielt hat.
 
Zuletzt bearbeitet:
Und das funktioniert über Eye-Tracking? Weiß nicht, teilweise bewegt sich die Kamera schon arg schnell. Kann irgendwie gar nicht glauben, dass man das so einfach steuern kann und nicht ins straucheln kommt.

@Beta: Also Headtracking klingt für mich schon plausibel, da der Kopf ruhig gehalten werden kann. Mir stößt nur Eye-Tracking etwas auf. ;)

Wenn ich nochmal dieses Bild als Beispiel heranziehen dürfte:
_wsb_510x381_wohnung.jpg

Wenn ein User diesen Beitrag liest und das Bild sieht, dann springt sein Auge wohl zuerst zu den hellen Punkte, also zum Fernseher, zur Lampe und zur Schale. Während Fernseher und Lampe noch relativ nahe beieinander stehen, liegt die Schale fern ab. Das Bild ist also ständig in Bewegung.
xblaeu54xtl4.jpg

Wenn sich das Bild nun bewegt, dann wird es schwer, weitere Dinge, die man gerne sehen möchte, aber eher unauffällig im Bild verschwinden, wie beispielsweise die beiden Kerzen im Hintergrund, zu fixieren. Man bräuchte einen ruhigen Punkt, der aber nicht wirklich existiert, weil Augen ständig in Bewegung sind, selbst wenn man einen Bereich fixiert.

Man sieht es auch sehr schön, wenn man mit Leuten spricht. Der Blick macht gerade zu eine Reise durch das Gesicht. Da wird es einem doch schwindlig.^^


Aber ich glaube, das kann man erst nachvollziehen, wenn man es mal so gespielt hat.

Hatte ich ja versucht unten klar zu machen, man würde bei Eyetracking (vs. Headtracking) auf jeden Fall einen "blinden Bereich" definieren in dem das Bild nicht springt. Ansonsten gebe ich Dir recht, da würde es einem schwindelig.

Aber es ist auch nicht so schlimm wir Du es Dir vorstellst, tatsächlich bewegt sich der Kopf nahezu dauernd um 3D-Beziehungen herzustellen und auch den Gleichgewichtssinn anzuregen.

Aber eine Frage hätte ich in dem Zusammenhang und vielleicht kann die einer hier beantworten. Wenn ich nur die Augen und nicht den Kopf/Körper bewege handelt es sich doch eigentlich um eine Rotationsbewegung (genähert), diese sollte doch zwar den Ausschnitt verschieben aber nicht die (3D-)Perspektive ?

Da sich das akademisch anhört ein Versuch den jeder machen kann. Wenn ich mich vor mein Fenster setze (Glasbüro im 6. Stock ;-)) und nur die Augen bewege, dann sehe ich zwar den Baum und die Wiese und nicht mehr das Gebäude vor mir, aber es ensteht nicht der 3D-Effekt durch Headtracking, da der Rrahmen meines Fensters sich nicht bezogen auf das Bild bewegt. Wenn ich aber aufstehe oder im Stuhl hin- und herbewege dann merke ich, dass sich der Fensterauschnitt bezogen auf das Gesamtbild ändert und ich merke dass sich der Rahmen näher bei mir befindet. Werde ich senil oder ist das real ?
 
Zuletzt bearbeitet:
@Kugelblitz
Aber das macht das Auge ja auch im realen Leben und ich habe trotzdem nicht das Gefühl, dass ich nichts fixieren kann und alles ständig hin und her springt.
Ich glaube, du machst es komplizierter, als es ist ;)
Aber da wir beide keine Ahnung von der Technik haben, sollten wir einfach abwarten, ob es demnächst Eyetracking beim 3DS gebn wird und wie das funktioniert ;)

BetaVersion, stimmt, die Perspektive sollte sich nicht ändern.
 
BetaVersion, stimmt, die Perspektive sollte sich nicht ändern.

Glaube ich auch und das bedeutet bezogen auf die Frage von Kugelblitz:
durch das hin- und herspringen der Augen ensteht sowieso kein 3D-Effekt, sondern Du musst den Kopf bewegen (nach vorne, hinten, oben, unten, links oder rechts) ;-)
 
@Kugelblitz
Aber das macht das Auge ja auch im realen Leben und ich habe trotzdem nicht das Gefühl, dass ich nichts fixieren kann und alles ständig hin und her springt.
Ich glaube, du machst es komplizierter, als es ist ;)
Aber da wir beide keine Ahnung von der Technik haben, sollten wir einfach abwarten, ob es demnächst Eyetracking beim 3DS gebn wird und wie das funktioniert ;)

BetaVersion, stimmt, die Perspektive sollte sich nicht ändern.
Allerdings unterscheidet sich das reale Leben vom virtuellen. In der Realität ist die "Kamera" wie auch das "Ziel" statisch, wenn wir davon ausgehen, dass sich zwei Menschen gegenüberstehen.

lady_face.jpg

Man bewegt sich minimal, weshalb wir einfach davon ausgehen, dass unsere Kamera , unser Auge, statisch (bezogen auf den Standort) ist.

d. h. Schau ich der Dame (im Bild) in die Augen, bilden sie den zentralen Punkt des (meines) Bildes. Guck ich ihr auf den Mund, so nimmt er diesen Punkt (des Auges) ein. Der Blickwinkel ändert sich nicht im Sinne einer Kopfbewegung.


Im virtuellen Reich ist die Kamera genauso statisch wie im realen Leben, jedoch dreht sich der Raum je nach Ziel.

d. h. Schau ich der Dame erneut in die Augen, bilden die Augen den zentralen Punkt des Bildes. Guck ich ihr daraufhin auf den Mund, so nimmt er diesen Punkt ein. Der Blickwinkel ändert sich dadurch komplett, als würde man auch den Kopf bewegen, wordurch sich das Auge erst mal an diese neue "Szene" gewöhnen muss.

@Beta: Jetzt bin ich etwas verwirrt, was genau du meinst. Ich bin mir nicht sicher ob du Headtracking oder dieses Eye-Tracking meinst. Aber vielleicht sprechen wir von etwas Unterschiedlichem?

Beim Headtracking stell ich es mir vor, wie im Video, welches du gepostet hast.
Beim Eye-Tracking ensteht kein 3D-Effekt (Tiefeneffekt). Es funktioniert ähnlich der Wiimote und ihrem Cursor bzw. diesem blinden Bereich.

Während man bei der Wiimote den Cursor steuert und zeitgleich Gegenstände unabhängig betrachten kann, bedingt sich beim Eye-Tracking beides. Das gezielte Fixieren müsste also relativ schwer sein.

Aber gut, belassen wir es dabei. Früher oder später wird man das schon zu sehen bekommen und dann wird es sich klären. Ich kanns mir im Moment einfach kaum vorstellen, wie es funktioniert, ohne Überfordert zu werden bzw. wie ein Depp durch den Raum zu steuern. :uglylol:

EDIT: Mein Problem in kurz ist: Cursor und Auge sind das Gleiche. Ich kann einen virtuellen Raum also nicht begutachten, ohne den kompletten Blickwinkel, der durch die Bewegung des Auges ausgelöst wird, zu verändern. Und jedes Mal, wenn ich etwas neues sehe, verändert sich das komplette Bild in Echtzeit und den Augenbewegungen.
 
Zuletzt bearbeitet:
Ich verstehe dein Problem nicht, Kugelblitz. Genau dasselbe passiert auch im realen Leben. Nur das dort das Bild am Rand nicht mit einem Mal verschwindet, sondern langsam immer unschärfer wird. Aber wenn ich mit meinen Augen erst nach links gucke und dann nach rechts, dann habe ich zwei völlig unterschiedliche Bilder. Auch ohne, dass ich meinen Kopf bewege.
 
Allerdings unterscheidet sich das reale Leben vom virtuellen. In der Realität ist die "Kamera" wie auch das "Ziel" statisch, wenn wir davon ausgehen, dass sich zwei Menschen gegenüberstehen.

lady_face.jpg

Man bewegt sich minimal, weshalb wir einfach davon ausgehen, dass unsere Kamera , unser Auge, statisch (bezogen auf den Standort) ist.

d. h. Schau ich der Dame (im Bild) in die Augen, bilden sie den zentralen Punkt des (meines) Bildes. Guck ich ihr auf den Mund, so nimmt er diesen Punkt (des Auges) ein. Der Blickwinkel ändert sich nicht im Sinne einer Kopfbewegung.


Im virtuellen Reich ist die Kamera genauso statisch wie im realen Leben, jedoch dreht sich der Raum je nach Ziel.

d. h. Schau ich der Dame erneut in die Augen, bilden die Augen den zentralen Punkt des Bildes. Guck ich ihr daraufhin auf den Mund, so nimmt er diesen Punkt ein. Der Blickwinkel ändert sich dadurch komplett, als würde man auch den Kopf bewegen, wordurch sich das Auge erst mal an diese neue "Szene" gewöhnen muss.

@Beta: Jetzt bin ich etwas verwirrt, was genau du meinst. Ich bin mir nicht sicher ob du Headtracking oder dieses Eye-Tracking meinst. Aber vielleicht sprechen wir von etwas Unterschiedlichem?

Beim Headtracking stell ich es mir vor, wie im Video, welches du gepostet hast.
Beim Eye-Tracking ensteht kein 3D-Effekt (Tiefeneffekt). Es funktioniert ähnlich der Wiimote und ihrem Cursor bzw. diesem blinden Bereich.

Während man bei der Wiimote den Cursor steuert und zeitgleich Gegenstände unabhängig betrachten kann, bedingt sich beim Eye-Tracking beides. Das gezielte Fixieren müsste also relativ schwer sein.

Aber gut, belassen wir es dabei. Früher oder später wird man das schon zu sehen bekommen und dann wird es sich klären. Ich kanns mir im Moment einfach kaum vorstellen, wie es funktioniert, ohne Überfordert zu werden bzw. wie ein Depp durch den Raum zu steuern. :uglylol:

EDIT: Mein Problem in kurz ist: Cursor und Auge sind das Gleiche. Ich kann einen virtuellen Raum also nicht begutachten, ohne den kompletten Blickwinkel, der durch die Bewegung des Auges ausgelöst wird, zu verändern. Und jedes Mal, wenn ich etwas neues sehe, verändert sich das komplette Bild in Echtzeit und den Augenbewegungen.

Ich glaube Du machst Dir das zu kompliziert, im realen Leben sollte es sein wie im virtuellen Leben (sonst fühlt sich der Betrachter unwohl). Das heißt wenn Du nur die Augen bewegst siehst Du nur einen anderen Bildausschnitt und es ist eben nicht so, dass das Anfixierte in den Mittelpunkt rückt, denn der Rand wird definiert durch die Augenhöhlen (probiers mal aus).

Deshalb beiben wir einfach bei Headtracking, auch wenn man für die Berechnung der Kopfposition gerne die Augen als markantes Merkmal benutzt. Eyetracking (Auswertung der Position der Iris) ist eher geeignet für die Auswertung von Werbemaßnahmen (wo schaut der Kunde zuerst hin) ist aber nach meiner Schätzung für 3D praktisch kaum relevant...
 
Zuletzt bearbeitet:
Kugelblitz labert eh nur Zoigs, weil das was er beschreibt nicht wirklich was mit nem 3D Effekt zu tun hat wie wir ihn dann hoffentlich im 3DS zu sehen bekommen werden. :P
 
Kugelblitz labert eh nur Zoigs, weil das was er beschreibt nicht wirklich was mit nem 3D Effekt zu tun hat wie wir ihn dann hoffentlich im 3DS zu sehen bekommen werden. :P
Sag ich ja nicht, dass es was mit dem 3D-Effekt zu tun hat. Ist nur ein Gespräch, welches aus einem Post PeterGerris resultierte. Da ging es um Headtracking, woraufhin wir auf Eye-Tracking zu sprechen kamen.

Das wurde übrigens schon sehr oft hier diskutiert. :P
 
Imo ist es nicht ganz so einfach. Ein Effekt, der mich zB auch extrem gestört hat, ist die vorgegebene Schärfe des Bildes. In einer normalen 3D Umgebung bist Du es gewohnt frei zu entscheiden worauf Du Dich fokussierst. In einem 3D Film gibt Dir der Film vor was Du gerade anzuschauen hast. Von dieser Entkopplung spricht ja auch der Artikel. Das wäre auf dem 3DS nicht anders.
 
Imo ist es nicht ganz so einfach. Ein Effekt, der mich zB auch extrem gestört hat, ist die vorgegebene Schärfe des Bildes. In einer normalen 3D Umgebung bist Du es gewohnt frei zu entscheiden worauf Du Dich fokussierst. In einem 3D Film gibt Dir der Film vor was Du gerade anzuschauen hast. Von dieser Entkopplung spricht ja auch der Artikel. Das wäre auf dem 3DS nicht anders.

Ebenso wäre die Tatsache der falschen Tiefenfokussierung nicht anders, also, dass das Auge auf die Nähe des Bildschirmes eingestellt ist - und nicht auf die womögliche empfundene Ferne eines optisch eigentlich weiter hinten liegenden Objektes.
 
Ach kommt, wenns danach geht darf man gar nicht spielen oder habt ihr euch mal die Gesundheitshinweise in den Spieleanleitungen durchgelesen ;)
 
Imo ist es nicht ganz so einfach. Ein Effekt, der mich zB auch extrem gestört hat, ist die vorgegebene Schärfe des Bildes. In einer normalen 3D Umgebung bist Du es gewohnt frei zu entscheiden worauf Du Dich fokussierst. In einem 3D Film gibt Dir der Film vor was Du gerade anzuschauen hast. Von dieser Entkopplung spricht ja auch der Artikel. Das wäre auf dem 3DS nicht anders.
Warum sollte das auf dem 3DS nicht anders sein? Filme haben deshalb eine eigene Tiefenunschärfe, weil sie mit einer Kamera aufgenommen werden, die so wie unser Auge auf eine bestimmte Entfernung fokussiert wird und nur dorthin richtig scharfstellt. Bei einem Spiel, wo die Grafik sowieso nur berechnet wird, gibt es dieses Problem nicht. Dort muss Tiefenunschärfe über Effekte erst hinzugefügt werden, damit es welche gibt.

Im Gegensatz zur Kino-Leinwand wird auf dem 3DS der Tiefeneffekt wohl kaum so gewaltig sein, dass es diese Probleme gibt, meiner Ansicht nach. Außerdem - vielleicht lag es an mir - konnte ich auch bei Alice in 3D ohne Probleme in manchen Situationen auf die gewünschte Tiefe fokussieren. Ich war ehrlich gesagt überrascht, dass das so gut funktioniert hat, aber es hat funktioniert.
 
Gibt es einen Grund, warum Tiefenunschärfe bei 2D-Filmen nicht zu Problemen führt? Dieser Effekt bei einer Kamera ist unter anderem ein Qualitätsmerkmal und kostet mehr in der Produktion, als Filme ohne Unschärfe. Wie kann man einen solche Effekt also rechtfertigen? Er ist teurer, verursacht Kopfschmerzen und ist wahrscheinlich Grund für dauerhafte Probleme oder Gesundheitseinschränkungen.

Bei teureren 2D-Produktionen war/ist Tiefenunschärfe also ein Muss und sorgte niemals für Gesprächsstoff wie aktuell.

Ist es bei einem 3D-Film anders als bei einem 2D-Film?
 
Zurück
Top Bottom