Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Eine 6 Jahre alte Spezialanfertigung in Minimalststückzahlen für Spezialindustriebedarf vs ein neu entwickeltes Millionenfach gefertigtes Massenprodukt für die breite Masse ist also dein Beweis das MS entweder aus Versehen IRDS mit ToF verwechselt, oder die komplette Fachpresse bewusst betrügt und es noch keinem aufgefallen ist?

Schon gewusst!
14MP Digitalkameras mit viel Schnickschnack gibt es heute schon für 55€, während 2MP-Kameras für die normale Industrie (also nichtmal Laborzeugs, nur normale Industrie) nagelneu kaum unter 200€ zu bekommen sind und sonst nichts bieten.
Sieht so aus als würden Digitalkamerahersteller für den Endkundenmarkt uns auch alle betrügen, oder haben kein Ahnung... wie soll den bitte eine 55€ Billigkamera 14MP aufnehmen und berechnen können, dazu noch anderen Schnickschnack bieten, wenn Industriebedarf für 200€ das gerade mal mit 2MP für den fast 4-fachen Preis nur ohne Schnickschnack schafft?:scan:
http://www.amazon.de/SpeedShot-Digi...=sr_1_4?s=photo&ie=UTF8&qid=1393760818&sr=1-4
http://www.pressebox.de/pressemitte...-MP-HDTV-Format-GigE-USB3-Vision/boxid/652075

Oder könnte es auch andere Gründe haben warum man Spezialanfertigungen nicht mal eben so einfach mit einem Massenprodukt vergleichen kann!?

Darum gehts nicht. Es geht um die Rechenkapazität die man bräuchte und darum einzelne Dots nicht auseinander halten zu können, was es eben absurd macht. ich glaube da nicht dran! Zudem macht es keinen Sinn nur iR Dots auszustrahlen um dann mit einer normalen iR Cam wieder einzufangen!? Das macht einfach keinen Sinn. Ich denke Kinect 2 kann den Abstand großflächig bestimmen aber nicht einzelne Dots messen.. Was nur TOF basierend ist aber eben keine echte TOF Cam!
 
Darum gehts nicht. Es geht um die Rechenkapazität die man bräuchte und darum einzelne Dots nicht auseinander halten zu können, was es eben absurd macht. ich glaube da nicht dran! Zudem macht es keinen Sinn nur iR Dots auszustrahlen um dann mit einer normalen iR Cam wieder einzufangen!? Das macht einfach keinen Sinn. Ich denke Kinect 2 kann den Abstand großflächig bestimmen aber nicht einzelne Dots messen.. Was nur TOF basierend ist aber eben keine echte TOF Cam!
Dir ist dabei schon klar das man bei ToF ggü herkömmlichen 3D Bildverfahren im Gegenteil sogar weniger Rechenleistung benötigt, weil man sich bei der Datenauswertung eben leichter auf die Bereiche konzentrieren kann, welche auch relevant sind?
Du wirfst also MS vor sie könnten garnicht nach dem ToF-Verfahren arbeiten, während das ToF-Verfahren es ihnen erst möglich machen würde so effizient zu arbeiten?
 
Zocker, bloss weil du dir irgendwas nicht vorstellen kannst, heisst das nicht das es nicht existiert. Kinect 2 ist ein time-of-flight cam, ein Prozessor in Kinect errechnet aus den Messdaten das Tiefenbild, das an die Konsole gesendet wird.
 
Dir ist dabei schon klar das man bei ToF ggü herkömmlichen 3D Bildverfahren im Gegenteil sogar weniger Rechenleistung benötigt, weil man sich bei der Datenauswertung eben leichter auf die Bereiche konzentrieren kann, welche auch relevant sind?
Du wirfst also MS vor sie könnten garnicht nach dem ToF-Verfahren arbeiten, während das ToF-Verfahren es ihnen erst möglich machen würde so effizient zu arbeiten?

Ich denke du hast da was nicht ganz verstanden. Bei echtem ToF wird ja jeder einzelne Punkt berechnet.. Ach Montalaar..:neutral:
 
Zocker, bloss weil du dir irgendwas nicht vorstellen kannst, heisst das nicht das es nicht existiert. Kinect 2 ist ein time-of-flight cam, ein Prozessor in Kinect errechnet aus den Messdaten das Tiefenbild, das an die Konsole gesendet wird.

WELCHER PROZESSOR? Quelle bitte! Ich habe keinen gefunden, nur gewöhnliche ADCs.
 
Du weißt doch selber am besten, dass fast alle 360 Spiele komplett unspielbar sind, durch ruckeln, Tearing usw.. ich meine, selbst Dir müsste doch mal auffallen, dass hier was nicht stimmen kann, oder? Aber naja, Du redest Dir ja eh viel schön.. :lol:
Zocker hat wohl in den letzten 4-5 Jahren nichts dazu gelernt :ugly:
 
Ich denke du hast da was nicht ganz verstanden. Bei echtem ToF wird ja jeder einzelne Punkt berechnet.. Ach Montalaar..:neutral:
Ach Marmul....man muss bei ToF eben nicht alles berechnen, das war bei alten 3D-Verfahren so!
ToF muss man nur das auswerten, was einen interessiert!
Du verwechselt das Informationen sammeln (jeder Punkt wird berücksichtigt) mit der Datenauswertung (nur die Informationen verwenden, welche man benötigt)!
Und nein, nicht das Datensammeln benötigt viel Rechenleistung, sondern das Weiterverarbeiten!
 
Ach Marmul....man muss bei ToF eben nicht alles berechnen, das war bei alten 3D-Verfahren so!
ToF muss man nur das auswerten, was einen interessiert!
Du verwechselt das Informationen sammeln (jeder Punkt wird berücksichtigt) mit der Datenauswertung (nur die Informationen verwenden, welche man benötigt)!
Und nein, nicht das Datensammeln benötigt viel Rechenleistung, sondern das Weiterverarbeiten!

Das ist ja der Punkt. Dann ist es eben kein echtes ToF!

Quelle Wikipedia:

Das Herzstück der TOF-Kamera ist der Sensor, der die Laufzeit für jeden Bildpunkt separat misst. Der Bildsensor ähnelt dabei anderen Chips für Digitalkameras mit dem Unterschied, dass ein Pixel um einiges komplizierter aufgebaut ist: Es muss nicht einfach das einfallende Licht sammeln können, sondern die Laufzeit messen. Durch den komplizierteren Aufbau sind die Pixel im Vergleich zu Digitalkameras groß, sie erreichen Seitenlängen bis 100 µm. Die bisher höchste Auflösung von ToF-Sensoren beträgt 204 × 204 Pixel bei einer Kantenlänge von 45 µm.

Und das passt nicht. Kinect hat eine normale RGB und iR Kamera!
 
Zuletzt bearbeitet:
Wo soll denn da der prozessor sein?

thumb-32.jpg


BTW: Machst du das mit Absicht?
 
Das ist ja der Punkt. Dann ist es eben kein echtes ToF!
:(:-?:shakehead::lol::bang::rolleyes1::rofl2::fp:

Definition "echtes" ToF nach Prof.Dr. Marmul , Fachgebiet "Gefährliches Endkundenhalbwissen":
Man entwickelt ein Verfahren, welches im Gegensatz zu herkömmlichen Methoden effizienter ist und Rechenleistung einspart, um anschliessend alles daran zu setzen diese Ersparnis durch Datenmüllauswertung wieder genauso ineffektiv zu machen wie die herkömmlichen Methoden....
Da bin ich aber froh das die Idioten von MS "falsches" ToF anwenden und nur wichtige Daten weiterverarbeiten!:lol:

Bist Du eigentlich im Marketing/Vertrieb tätig?
Man hat den Eindruck Du meinst das auch noch Ernst.....typische Vertriebstaktik!:scan:


Edit: sehe gerade Du hast nochmal nachgearbeitet!
Um Dir deine Informationen nochmal zu erklären!
Natürlich misst man bei ToF die zeitliche Differenz, bis wann ein Lichtimpuls wieder zurückkommt für jeden einzelnen Bildpunkt...wie will man sonst auch Tiefe bestimmen?
Wobei der Rechenaufwand dafür nicht das Problem ist, das schafft vermutlich sogar (übertrieben) ein C64 in Echtzeit und macht jedes ToF!

"Echtes" vs "Falsches" ToF wäre, wie man mit den gewonnen Informationen weiter umgeht!
Z.B. verarbeite ich alles an Daten, von dem Typen der Vor der Kamera rumhampelt bis ins zu der Blume hinten am Fenster, oder nur den Typen?
Bei herkömmlichen Verfahren musste man alles Verarbeiten->Viel Rechenaufwand!
Bei ToF kann ich mich auf den Typen konzentrieren->weniger Rechenaufwand!

"Falsches" ToF ist also der Grund warum man ToF entwickelt hat, dein "echtes" ToF ist schlichtweg sinnbefreit, weil man da gleich bei alten Verfahren bleiben kann!
Hab da irgendwie den Verdacht "falsches" ToF könnte sich durchaus durchsetzen......

Warum IR & RGB Kinect als ToF-Lösung ausschliesst musst Du mir nochmal erläutern....ToF arbeitet mit Licht.....IR ist Licht (mit dem Vorteil relativ störungsfrei vom Umgebungslicht zu sein), RGB-Sensoren arbeiten mit Licht!
Wo ist das Problem?
Ausser natürlich das IR nicht so cool und aus den 70ern ist!
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom