Kinect vs. PSMove vs. MotionPlus

  • Thread-Ersteller Thread-Ersteller finley
  • Erstellungsdatum Erstellungsdatum

Welches Konzept berzeugt Euch am meisten?


  • Stimmen insgesamt
    641
Status
Nicht offen für weitere Antworten.
Das jeder finger einzeln getrackt wird glaube ich auch nicht aber für 99% der Handbewegungen reicht auch das Handgelenk aus, und das wird mit sicherheit getrackt.

Die Finger werden bislang noch nicht getrackt, hätte man sonst bei der Paint Demo mit Sicherheit gezeigt!
 
@squallsdestiny

Wie iimpact schon gesagt hat, gibt es insgesamt 48 Trackpunkte und jetzt zähl mal die auf der Grafik ;-)

Wenn das Teil auch Emotionen erkennen soll dann sollten doch wohl Füße und Hände nicht wirklich das Problem sein oder!

Gesichter erkennen ist was anderes, den Kontrast zwischen Augen und dem Rest den Gesichts ist stark genug um die Augen als Fixpunkte zu nutzen, dabei wird, davon gehe ich von aus, eine andere Technik genutzt, hat ja immerhin schon in vielen Customer ( Handy-) Kameras einzug gehalten, bei dem der Auslöser erst aktiviert wird wenn das Gesicht ein Lächeln von sich gibt.
 
Die Finger werden bislang noch nicht getrackt, hätte man sonst bei der Paint Demo mit Sicherheit gezeigt!

Natürlich. Wir sprechen hier von MS, dem Inovator in dieser Gen...

Microsoft: Project Natal Can Support Multiple Players, See Fingers

Earlier this week Microsoft let me try Project Natal in a hotel suite where test-versions of the new gaming sensor array was set up. Three times, I thought I found a flaw in the systems.

I thought the system, as impressive as it was in letting me play kickball with virtual balls on a TV and no controllers on my body, might not be able to handle multi-player gaming.

Wrong, the project's director, Kudo Tsunoda told me. He had me look at a special display set up as part of the ball-ricocheting demo. What I saw proved how clearly Natal was easily reading both my body and his as we both stood in front of the sensors. We appeared on screen as simplified, mutli-jointed stick figure skeletons within silhouettes of our bodies. It clearly saw us as separate people. There would be no problem, he said, for the system to support a game that let us play at the same time and track our movements separately.

I thought Project Natal might be good for reading big body movements but not for finer finger movements.

Theoretically, I got that wrong too, Tsunoda told me, though he didn't have a way to prove it to me there. The stick-figure skeletons that Natal recognize us as did not have fingers. Each one had a short stick for each hand. I saw no fingers, so I assumed it could not see my fingers. There seemed to be no way for Natal to know, say, how many fingers I was holding up. If it could, then it could maybe read hand signs issued to squadmates in military first-person shooters. I questioned Natal's ability to detect those finer movements. Tsunoda said that such detection was possible, though the sensitivity would be different at different distances. He thought my fingers idea was do-able.

I thought that the Natal could be fooled to let me drive Burnout Paradise one-handed.

Wrong, for sure. Microsoft had EA's Burnout Paradise programed to work with Natal. As I stood in front of the sensors, I moved my right foot forward to accelerate, and moved it back to decelerate and reverse. I held my hands in front of me, pretending to turn a steering wheel. The Natal had registered me in under a second and was letting me control Burnout smoothly. I saw, in another monitor, how it read my stick-figure skeleton. I guessed that it was reading my hands as a single unit moving in space and that it wouldn't be programmed to know or care if I put one hand behind my back. It did. When I put my hand behind my back and just waved one hand in front of the TV, the Burnout car failed to steer. The Natal needed to see two hands. Maybe it's cooler to drive one-handed, but Natal not letting me do it was impressive in its own way.

I thought Natal had to be used in bright light.

Wrong? The demos I played of Natal were set up in dimly-lit hotel rooms, except for Peter Molyneux's Milo demo which was set in a bright room. Tsunoda said lighting was a non-issue for Natal. Maybe so, maybe not. But if it works in a dim room, that's not bad.

With Project Natal not due for release at least until next year, we'll all have plenty of time to question every aspect of Natal. The strong showing the system had in its first week in public suggests that it may withstand the skepticism. So far, it's fun. And it works.

http://kotaku.com/5279531/microsoft-project-natal-can-support-multiple-players-see-fingers
 
Gesichter erkennen ist was anderes, den Kontrast zwischen Augen und dem Rest den Gesichts ist stark genug um die Augen als Fixpunkte zu nutzen, dabei wird, davon gehe ich von aus, eine andere Technik genutzt, hat ja immerhin schon in vielen Customer ( Handy-) Kameras einzug gehalten, bei dem der Auslöser erst aktiviert wird wenn das Gesicht ein Lächeln von sich gibt.

Die Gesichtserkennung wird freilich auch durch die RGB Kamera bewältigt das ist klar, dennoch müssen diese 48 Trackpunkte ja auch verteilt werden und bei diesem groben Bild sind gerademal 13 Trackpukte sichtbar wenn man noch den rechten Arm und den Kopf dazurechnet!

Ich denke das ist wirklich nur ein ganz ganz grobes Bild!



@Mahlzeit

Also bei Fingern je nach Bedarf des Pogramms oder was ?
 
Zuletzt bearbeitet:
eine der imo interessantesten anwendung für natal ist die möglichkeit das dir charaktere in die augen schauen können. Stellt euch mal vor die charaktere in Mass Effect 2 schauen euch bei den dialogen oder überhaupt die charaktere in zwischensequenzen von spielen können euch in die augen schauen. das hat imo ungeheuren psychologischen wert um tiefer in ein spiel einzutauchen.
 
Das war bei Oblivion und Fallout 3 schon so... Merkwürdig... :oops:

Aber ja, es gibt gute Anwendungsmöglichkeiten für Natal. Mal sehen, wie diese umgesetzt werden!
 
Das war bei Oblivion und Fallout 3 schon so... Merkwürdig... :oops:

Aber ja, es gibt gute Anwendungsmöglichkeiten für Natal. Mal sehen, wie diese umgesetzt werden!
mir geistert gerade die idee einer zwischensequenz durch den kopf in der dir, im RE5 oder MGS stil, ein gegner unerwartet zublinzelt. ich hätte angst :ugly:
 
Es muss ja auch nicht zwingend nur per Natal gesteuert werden. Würde mir bei Rennspielen z.b. wünschen, dass Natal die Rundumsicht ermöglicht, Steuerung wie gewohnt per Pad/Lenkrad etc pp. In dem Zusammenhang hat Natal sehr viel mehr Potential als M+ und die "leutenden Analdildos" (Zitat) von Sony
 
eine der imo interessantesten anwendung für natal ist die möglichkeit das dir charaktere in die augen schauen können. Stellt euch mal vor die charaktere in Mass Effect 2 schauen euch bei den dialogen oder überhaupt die charaktere in zwischensequenzen von spielen können euch in die augen schauen. das hat imo ungeheuren psychologischen wert um tiefer in ein spiel einzutauchen.

Auf das wäre ich gar nicht gekommen - genial :goodwork:

Natal bietet sowohl als Controller-Ersatz als auch als Controller-Unterstützung unzählige Möglichkeiten...
 
man darf aber auf die umsetzung gespannt sein. bei meinen ersten wii videos dachte ich auch an schwertkampf und co. wirklich viel is ja draus net geworden ;)
 
Auf das wäre ich gar nicht gekommen - genial :goodwork:

Natal bietet sowohl als Controller-Ersatz als auch als Controller-Unterstützung unzählige Möglichkeiten...

darf es blos net zu teuer werden ;) fürs "Schau mir in die Augen, Baby" feature bezahl ich keine 100-200€ :D
man könnte bei RPG´s wenn man mehrere Dialog optionen hat die vorlesen welche man will, weis net obs ein nerven würde aber es würde bisse realistischer werden ^^
was könnt man noch machen mhhh, vielleicht schnell die waffen wechseln.. man nimmt ganz kurz die rechte hand vom controller und hält 1-5 finger nach oben wir waffe 1 bis 5 ;D
was ginge noch mit controller mhhh z.b. durch Nicken oder kopfschütteln "Ja" "Nein" fragen beantworten ^^

naja die gameentwickler lassen sich schon was einfallen
 
Also Headtracking bei Shootern und Racern wäre schon genial.
Vorlones Video hat das ja ganz gut gezeigt wie so etwas funktionieren kann!

http://www.youtube.com/watch?v=9wXx3vMy_AQ&fmt=22

Und dafür würde ich sogar 100€ blechen und das ohne irgend so ein gedöns auf den Kopf zu tragen!


Jedenfalls gibt es recht viele Möglichkeiten....
 
Zuletzt bearbeitet:
ich denke headtracking würde mit der normalen eyetoy kamera auch funktioniert. zumindest die umsicht in alle richtungen.
wäre richtig cool in ego spielen oder racern
 
darf es blos net zu teuer werden ;) fürs "Schau mir in die Augen, Baby" feature bezahl ich keine 100-200€ :D
man könnte bei RPG´s wenn man mehrere Dialog optionen hat die vorlesen welche man will, weis net obs ein nerven würde aber es würde bisse realistischer werden ^^
was könnt man noch machen mhhh, vielleicht schnell die waffen wechseln.. man nimmt ganz kurz die rechte hand vom controller und hält 1-5 finger nach oben wir waffe 1 bis 5 ;D
was ginge noch mit controller mhhh z.b. durch Nicken oder kopfschütteln "Ja" "Nein" fragen beantworten ^^

naja die gameentwickler lassen sich schon was einfallen

Vorlesen bzw Nicken/Kopfschütteln würde imo nerven :P

Ideen hab ich sonst momentan keine mehr.. Naja, bei Duke Nukem Forever hätte man wie im Trailer den Finger zeigen können :ugly:
 
Also Headtracking bei Shootern und Racern wäre schon genial.
Vorlones Video hat das ja ganz gut gezeigt wie so etwas funktionieren kann!

http://www.youtube.com/watch?v=9wXx3vMy_AQ&fmt=22

Und dafür würde ich sogar 100€ blechen und das ohne irgend so ein gedöns auf den Kopf zu tragen!


Jedenfalls gibt es recht viele Möglichkeiten....

nice video, ok spiel sieht langweilig aus aber das mit den kopf bewegen is nett. Blos gewöhnt man sich daran den kopf nur ein bisse(10-20Grad) zu drehen um im spiel den kopf (90-100Grad) zu drehen? xD
es fehlt halt noch der VirtualBoy von Nintendo :P wenn der Bildschirm sich mit den Kopf bewegt is alles möglich :D
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom