Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Die XBOX One MISST hier auch nichts. Wo haste dass denn hier? Es ist richtig, die iR Dots lassen eine genauere Tiefenbestimmung zu, aber gemessen wird nicht nichts, sondern auch nur wie im Falle der PS4 Cam berechnet. Bei der PS4 Cam erfolgt dies über zwei Kameras, was genauso exakt sein kann wie iR Punkte im Raum verteilt.

Es werden iR Dots verstreut, die iR Kamera nimmt diese wieder auf und die XBOX errechnet den Raum.

Die PS4 errechnet den Raum eben anhand der zwei Bilder.

Die Tiefensensoren sind auch nur zum Spaß verbaut, oder?
 
Was sollen das für Tiefensensoren sein? Klär mich mal bitte auf.

Die beiden Tiefensensoren (bei der Xbox One ist glaube ich nur noch ein Sensor nötig) sind überhaupt DAS wichtigste an Kinect. Mit Kinect hat es Microsoft geschafft, dass diese Technik, die vorher einige Tausend Euro kostete, in erschwingliche Regionen kommt und mittlerweile auch in Forschungen eingesetzt wird.

Dabei sendet einer der Tiefensensoren ein Infrarotsignal (mit einem speziellen Muster) aus, welches von Personen oder Gegenständen reflektiert wird. Der zweite Tiefensensor fängt das Signal dann auf und kann dann die Entfernung berechnen. Hier ist ein relativ gutes Video dazu:

[video=youtube;uq9SEJxZiUg]http://www.youtube.com/watch?v=uq9SEJxZiUg[/video]
 
Die beiden Tiefensensoren (bei der Xbox One ist glaube ich nur noch ein Sensor nötig) sind überhaupt DAS wichtigste an Kinect. Mit Kinect hat es Microsoft geschafft, dass diese Technik, die vorher einige Tausend Euro kostete, in erschwingliche Regionen kommt und mittlerweile auch in Forschungen eingesetzt wird.

Dabei sendet einer der Tiefensensoren ein Infrarotsignal (mit einem speziellen Muster) aus, welches von Personen oder Gegenständen reflektiert wird. Der zweite Tiefensensor fängt das Signal dann auf und kann dann die Entfernung berechnen. Hier ist ein relativ gutes Video dazu:

[video=youtube;uq9SEJxZiUg]http://www.youtube.com/watch?v=uq9SEJxZiUg[/video]

Herje... Was schrieb ich denn darüber? Es ist aber keine Distanzbestimmung möglich, sondern nur eine Schätzung.
 
Ich weiß nicht ob es gerade um kinect 1geht,aber kinect2 besitzt einen tof Sensor und das misst Distanzen.

Wenn es ein richtiger TOF Sensor ist, dann Respekt, der funktioniert so wie ich es beschrieben habe.

Nur warum geht es dann immernoch soo schlecht? :oops:

Habe da nun nichts drüber gefunden, ob die iR Signal nun nur im Raum verteilt werden, oder per TOF die Distanzen ermittelt werden. Keine Ahnung. Hast Du mir da vielleicht eine Quellenangabe?
 
Zuletzt bearbeitet:
SRuXkxM.png
 
Wenn es ein richtiger TOF Sensor ist, dann Respekt, der funktioniert so wie ich es beschrieben habe.

Nur warum geht es dann immernoch soo schlecht? :oops:

Habe da nun nichts drüber gefunden, ob die iR Signal nun nur im Raum verteilt werden, oder per TOF die Distanzen ermittelt werden. Keine Ahnung. Hast Du mir da vielleicht eine Quellenangabe?
Ich hab kein Plan was alles im kinect steckt. MS meint es wäre eine tof cam und die können Distanzen direkt messen, ob gut oder schlecht ist ja eine andere Frage.
 
Ich hab kein Plan was alles im kinect steckt. MS meint es wäre eine tof cam und die können Distanzen direkt messen, ob gut oder schlecht ist ja eine andere Frage.

Wenn sie wirklich TOF erwähnt haben, dann sollte das Verfahren ja klar sein, und des wäre in der Tat recht ordentlich. Macht mich aber ehrlich gesagt recht stutzig, wenn Du dir mal anschaust wie die Profi TOFs aufgelöst sind und wieviel Rechenleistung man bei Kinect bräuchte. ALso entweder die wissen selber nicht was die da drin haben, haben hier wahnsinns Patente oder aber es ist keine echte TOF, was ich ehrlich gesagt am ehesten glaube. So wie es aussieht, ist es einfach nur ein iR Verteiler.. mit DREI LEDs, die auf diese drei Schablonen treffen. Gut, die könnte man auch modulieren, aber welche Kamera sollte soviele Dots berechnen können? Ist schwer vorstellbar.
 
Wenn sie wirklich TOF erwähnt haben, dann sollte das Verfahren ja klar sein, und des wäre in der Tat recht ordentlich. Macht mich aber ehrlich gesagt recht stutzig, wenn Du dir mal anschaust wie die Profi TOFs aufgelöst sind und wieviel Rechenleistung man bei Kinect bräuchte. ALso entweder die wissen selber nicht was die da drin haben, haben hier wahnsinns Patente oder aber es ist keine echte TOF, was ich ehrlich gesagt am ehesten glaube. So wie es aussieht, ist es einfach nur ein iR Verteiler.. mit DREI LEDs, die auf diese drei Schablonen treffen. Gut, die könnte man auch modulieren, aber welche Kamera sollte soviele Dots berechnen können? Ist schwer vorstellbar.

Doch, Kinect 2 hat einen TOF-Sensor:

http://www.joystiq.com/2013/10/03/xbox-ones-kinect-to-use-time-of-flight-for-more-exact-measure/

Genaueres zur Funktionsweise von den Entwicklern selbst:

http://blogs.technet.com/b/microsof...ise-produce-enhanced-sensing-in-xbox-one.aspx
 
Wenn sie wirklich TOF erwähnt haben, dann sollte das Verfahren ja klar sein, und des wäre in der Tat recht ordentlich. Macht mich aber ehrlich gesagt recht stutzig, wenn Du dir mal anschaust wie die Profi TOFs aufgelöst sind und wieviel Rechenleistung man bei Kinect bräuchte. ALso entweder die wissen selber nicht was die da drin haben, haben hier wahnsinns Patente oder aber es ist keine echte TOF, was ich ehrlich gesagt am ehesten glaube. So wie es aussieht, ist es einfach nur ein iR Verteiler.. mit DREI LEDs, die auf diese drei Schablonen treffen. Gut, die könnte man auch modulieren, aber welche Kamera sollte soviele Dots berechnen können? Ist schwer vorstellbar.
Es gab 2011 schon "billig" tof cams von creative für 150$
 
Also das ist sicher kein TOF.

So wie es im Internet beschrieben wird, erkennt Kinect anhand der Leuchtkraft der iR Dots den Abstand, bzw. schätzt diesen. Das sind soviele Dots, wieso sollte die XBOX One die Rechenkraft haben innerhalb weniger ms die Distanz berechnen zu können? Das glaube ich nicht.

Im Endeffekt wird hier wohl ein iR Bild durch die massigen Dots erzeugt und je nach Leuchtkraft wird ein 3D Raum errechnet von Kinect. Sprich, näherliegende Objekte leuchten einfach stärker als die Objekte dahinter. An eine echte Distanzmessung glaube ich nach wie vor nicht.
 
Also eigentlich ist man sich ja einig das Kinect 2 TOF nutzt....z.B.:
New "time of flight" technology enables the sensor to measure the time it takes for photons to bounce off players, and because it uses infrared technology, it works in a dark room.
http://www.polygon.com/2013/5/21/4341770/xbox-one-kinect

Nicht das Du Kinect für Windows mit Kinect für die One verwechselst?
Da wird das neue Kinect erst vorgestellt!
It is thought that this ToF sensor will be a replacement for the infrared-based depth sensing system that is still used within Microsoft's Kinect for Windows offering.


In 2013 Microsoft began shipping the Xbox One, the successor to the Xbox 360, with an updated version of Kinect that used a wide-angle time-of-flight camera. That camera offered a 60 percent wider field of vision and operated than the previous depth sensing system.
http://www.analog-eetimes.com/en/mi...or-for-kinect.html?cmp_id=7&news_id=222906156

Oder darf es einfach mal wieder nicht sein, weil es sich ja um die Hardwaretrottel MS handelt?
 
Also eigentlich ist man sich ja einig das Kinect 2 TOF nutzt....z.B.:

http://www.polygon.com/2013/5/21/4341770/xbox-one-kinect

Nicht das Du Kinect für Windows mit Kinect für die One verwechselst?
Da wird das neue Kinect erst vorgestellt!

http://www.analog-eetimes.com/en/mi...or-for-kinect.html?cmp_id=7&news_id=222906156

Oder darf es einfach mal wieder nicht sein, weil es sich ja um die Hardwaretrottel MS handelt?

Jap.. ich glaube es einfach nicht.

Es sind viel zu viele iR Dots, wie soll denn die Kamera bei so einer Menge, wenn der ganze Raum ausgeleuchtet ist die einzelnen Dots berechnen können?

Die SR4000 kostet über 4000 US$ und hat eine AUflösung von 166x144!

http://mesa-imaging.ch/swissranger4000.php

Kinect 2.0 soll ca. 500x400 Dots noch im Griff haben können, für einen Bruchteil des Preises? Du kannst daran glauben, ich halte es für eine Markenting-Ente von MS.
 
The Order: 1886 Devs Explain Tech for Shadows and Materials; “Just Getting Started” Maxing Out PS4

The upcoming PS4 exclusive The Order: 1886 definitely pushes the technolofy envelope in many aspects of its rendering, and Ready at Dawn’s Graphics and Engine Programmer Matt Pettineo has been sharing what kind of techniques are being used to achieve the level of realism we’re seeing in the game.

We use SDSM + EVSM

This technique, researched by Intel Tech Lead Andrew Lauritzen (you can read about his research here), implements Sample Distribution Shadow Maps with Exponential Variance Shadow Maps reducing light bleeding and artifacts, producing higher quality shadows than traditional Z-partitioning, saving development time and also guaranteeing efficient memory usage.

We use GGX for most materials. For skin we’re using pre-integrated SSS. There’s more details in our course notes from SIGGRAPH.

The GGX shader is a microfacet model that recreates light reflection from surfaces in a realistic and believable way, while pre-integrated skin shaders calculates shading for the skin based on pre-integrated physically based profiles. Basically it divides all skin lighting between head level lighting, bump level lighting and shadow. While head level lighting takes care of large surfaces, bump level simulates lighting on smaller details.

Interestingly enough, Pettineo had a discussion with Lauritzen himself on Twitter. Lauritzen advised to use pixel shaders instead of compute, and Pettineo’s repsonse seem to hint that The Order: 1886 may already be using asynchronous compute on the PS4′s GPU.

http://www.dualshockers.com/2014/03...terials-just-getting-started-maxxing-out-ps4/
 
[video]http://download-software.intel.com/sites/default/files/m/d/4/1/d/8/sampleDistributionShadowMaps.mp4[/video]

Hier wird gut dargestellt.
 
Eine 6 Jahre alte Spezialanfertigung in Minimalststückzahlen für Spezialindustriebedarf vs ein neu entwickeltes Millionenfach gefertigtes Massenprodukt für die breite Masse ist also dein Beweis das MS entweder aus Versehen IRDS mit ToF verwechselt, oder die komplette Fachpresse bewusst betrügt und es noch keinem aufgefallen ist?

Schon gewusst!
14MP Digitalkameras mit viel Schnickschnack gibt es heute schon für 55€, während 2MP-Kameras für die normale Industrie (also nichtmal Laborzeugs, nur normale Industrie) nagelneu kaum unter 200€ zu bekommen sind und sonst nichts bieten.
Sieht so aus als würden Digitalkamerahersteller für den Endkundenmarkt uns auch alle betrügen, oder haben kein Ahnung... wie soll den bitte eine 55€ Billigkamera 14MP aufnehmen und berechnen können, dazu noch anderen Schnickschnack bieten, wenn Industriebedarf für 200€ das gerade mal mit 2MP für den fast 4-fachen Preis nur ohne Schnickschnack schafft?:scan:
http://www.amazon.de/SpeedShot-Digi...=sr_1_4?s=photo&ie=UTF8&qid=1393760818&sr=1-4
http://www.pressebox.de/pressemitte...-MP-HDTV-Format-GigE-USB3-Vision/boxid/652075

Oder könnte es auch andere Gründe haben warum man Spezialanfertigungen nicht mal eben so einfach mit einem Massenprodukt vergleichen kann!?
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom