3DS vs. PS Vita - The War may begin!

Status
Nicht offen für weitere Antworten.
3. Technische Daten:
Der obere Breitbildscreen bietet die 3D Darstellung hat eine Diagonale von knapp 9 cm und bietet eine Auflösung von 800x240 Bildpunkten, bei eingeschalteten 3D bedeutet das 400x240 Bildpunkten für jedes Auge. Der untere Bildschirm ist der Touchscreen und bietet eine Diagonale von gut 7,5cm und eine Auflösung von 320x240 Bildpunkten. Das System ist gut 13,5 cm breit, 7,3 cm lang und ca. 2 cm hoch. Hat also in etwa das Format des Vorgängers.

Quelle: http://www.zimmer101.de/3ds-spiele/technik.html
 
Wie wäre es wenn jemand mal Nintendo anschreibt und dort nachfragt wie viele Pixel das Display wirklich hat. Dann wäre dieses Diskussion erübrigt

Das Display hat 800x240 Pixel. Braucht es ja auch, damit der 3D-Modus funktioniert. Nur hat die Anzahl der Pixel im 3D-Modus nichts mit der Auflösung des Bildes zu tun.
 
Wisst ihr überhaupt noch, worum es bei dieser Diskussion geht? Letztlich ist es wirklich sehr, sehr einfach. Es werden vom 3DS 800x240 dargestellt und im 3D-Modus werden vom Rezipienten 400x240 Pixel wahrgenommen. Was ist jetzt genau der Punkt dieser Debatte? Und ist das nicht irgendwo egal? Ich versteh's wirklich nicht.
 
@Frames
Nur mal so am Rande, du kannst den 3D Modus von 3DS nicht mit dem der PS3 vergleichen.
- Beim 3DS sind die 2 Bilder (Rechtes- & Linkes-Auge) immer gleichzeitig vorhanden.
- Die PS3 verwendet Shutter, da ist immer nur ein Bild auf dem Fernseher (Rechtes- oder Linkes-Auge).

Beim 3DS sind im 3D Modus alle 800*240 Pixel aktiv und können etwas anderes Darstellen. Durch den erhöhten Rechenaufwand nehmen aber die fps ab (und AA geht aus).
Bei der PS3 nimmt aber tatsächlich die Anzahl Pixel (Auflösung) im 3D Modus ab, da sie auf 120Hz kommen müssen um 3D mit Shutter flüssig an zu zeigen.

Den Beispiel mit der PS3 zeigt eigentlich genau das gegenteil von dem was du wolltest.
Wie genau man das nun bezeichen will ist egal.
Es ist einfach so beim 3DS hat man im 3D zwei Bilder mit auflösung X, auf der PS3 hast du im 3D ein Bild mit der Auflösung X.

Edit:
Keine Ahnung nun genau um was ihr Diskutiertet, aber ich nehme mal an es geht um Bildinformationen die weiter gegeben werden im vergleich zu 3D (du und Peter legen das Wort Information anders aus(nur Pixel = Info vs. 3d ist selber eine Info)). Aber im grunde lässt sich sagen, egal ob 2 oder 3D, die "grösse" der Information die du bekommst bleibt gleich, nur ist sie "anders".
 
Zuletzt bearbeitet:
@Frames
Nur mal so am Rande, du kannst den 3D Modus von 3DS nicht mit dem der PS3 vergleichen.
Beim 3DS sind die 2 Bilder (Rechtes- & Linkes-Auge) immer gleichzeitig vorhanden.

Die PS3 verwendet Shutter, da ist immer nur ein Bild auf dem Fernseher (Rechtes- oder Linkes-Auge).

Beim 3DS sind im 3D Modus alle 800*240 Pixel aktiv und können etwas anderes Darstellen. Durch den erhöhten Rechenaufwand nehmen aber die fps ab (und AA geht aus).
Bei der PS3 nimmt aber tatsächlich die Anzahl Pixel (Auflösung) im 3D Modus ab, da sie auf 120Hz kommen müssen um 3D mit Shutter dar zu stellen.

Den Beispiel mit der PS3 zeigt eigentlich genau das gegenteil von dem was du wolltest.
Frames got owned pretty hard. :brit:
 
Das stimmt von der Technik natürlich. War auch eher als Denkanstoß gedacht, da die Logik bei der Technik die der 3DS verwendet irgendwie nicht ankommt.

Frames got owned pretty hard.

Nö. Weil beim 3DS stimmt´s. :)
 
Bei genauerem Überlegen fällt mir auf, dass das PS3-Beispiel vielleicht doch gar nicht so schlecht ist, um den Logikfehler aufzuzeigen, auch wenn die Technik, wie Secret of Evermore natürlich richtig sagt, eine andere ist.
Auf dem 3DS werden 800 Pixel permanent dargestellt, bei der PS3 werden 640 abwechselnd dargestellt. Die 800 Pixel des 3DS zeigen die Informationen von 400 Pixeln in zwei verschiedenen Perspektiven (einfach ausgedrückt) an, um den 3D-Effekt zu erreichen. Bei der PS3 werden jeweils abwechselnd 640 Pixel mit verschiedenen Informationen dargestellt um den 3D-Effekt zu erreichen. Trotzdem kann ich nicht sagen, ich zähle hier einfach die 640 Pixel links und rechts zusammen und habe damit wieder eine Auflösung von 1280 (ob das nun durch Shutter-Technik oder permanenter Technik erreicht wird, ist erstmal unrelevant, es geht ja um die Auflösung des Bildes).

Oder um es auf die Hz-Zahl umzulegen, nur weil der Monitor und die Brille mit 120 Hz arbeiten, heißt dass nicht, dass ich im 3D-Modus auch 120 Hz habe, sondern eben nur 60 Hz (für jedes Auge).

Ich glaube, wenn man beim 3DS die horizontalen Pixel einzeln ansteuern könnte, wäre es sofort klar ersichtlich, denn dann wäre das Bild im 2D-Modus tatsächlich 800x240 Pixel und damit würde der Unterschied zum 3D-Modus sofort erkennbar sein.
 
Tut mir leid, aber das ist und bleibt schlicht uned ergreifend falsch und basiert in der Tat, wie von dir bereits angesprochen, auf Grundschul-Mathematik. Ungefähr die selbe Logik, wie das 2 qm doppelt so groß ist wie 1 qm. Die 800 Pixel dienen, wie schon beschrieben, dazu, die 400 Pixel mit jeweils zwei Informationswerten zu versorgen. Die doppelte Informationsmenge hat mit der AUFLÖSUNG nichts zu tun. In 3D siehst du (2x) 400 x 240 Pixel... und definitiv NICHT eine Auflösung von 800x240.

Frames hat natürlich recht, wollte ich nur auch nochmal unterstreichen.

Natürlich stellt der 3DS 800 breitenpixel dar, für jedes auge 400 damit der 3D effekt entsteht, der Regler stellt nun ein wie weit diese voneinander verschoben werden, da Menschen nicht alle gleich sind und der Augenabstand ebenso variieren kann, muss man sich diesem hilfsmittel bedienen.

Es ist auch völlig egal ob das rechte auge jetzt 400 eigene breitenpixel bekommt und das linke 400 andere, deswegen ist die Rechnung noch immer falsch, denn auch wenn der Bildschirm sowieso nur eine Auflösung von 400x240 Pixel hätte würde das RECHTE Auge 400 breitenpixel und das LINKE Auge ebenso 400 Breitenpixel wahrnehmen! Wenn man so rechnet, müsste die NGP folgerichtig auch 960x544 x2 haben, weil wir schauen uns das mit 2 augen an, natürlich rechnet so keiner weil das einfach total absurd ist!


Warum? WEIL DA EBEN 400 SIND! Mehr Details kann man also auf keinen Fall sehen, das einzige ist die vorgegaukelte Tiefenwirkung, die kann man sehen. Letztlich wird also folgerichtig eine NGP mit der höheren Auflösung deutlich mehr Details darstellen (können) als der 3DS mit seinem 3D Screen.

Aber das hat im großen und ganzen ja frames sowieso schon gesagt ^^
 
Zuletzt bearbeitet:
Was gibt's da zu diskutieren? Der Framebuffer beim 3DS ist 800x240 groß und die Ps3 sendet je nach Spiel im Side by Side Verfahren einen Framebuffer mit beiden Ansichten zum Fernseher. Bei Killzone 3 ist der sogar kleiner als 1280x720.
 
Da geht's ja wieder mal zu. Es ist doch ganz einfach: jedes Auge sieht eigene 400x240 Pixel, also zusammen 800x240. Nur dass das Gesamtbild, das im Hirn zusammengesetzt entsteht, diese Pixel halt nicht nebeneinander, sondern hintereinander (in die Tiefe) anordnet. Aber die 800 Pixel in der Breite sieht man trotzdem, da man ja beide Seiten gleichzeitig sehen kann. Würde man ein Auge zukneifen, dann hätte man nur noch 400x240 zweidimensionale Pixel.

Was frames vermutlich meint, ist, dass sich die 800 Pixel auf der x-Achse den "Raum" von 400 Pixeln teilen, was problemlos geht, sobald man die räumliche Tiefe sieht. Aber, nur um das klarzustellen, ich habe von Anfang an von der effektiven Auflösung gesprochen, die erhöht wird. Die physische Auflösung beider Einzelbilder selbst bleibt bei 400x240 - jeweils. Aber da wir ja beide gleichzeitig sehen, ändert das nichts daran, dass wir eine effektive Auflösung von 800x240 Pixeln sehen. Ob die neben-, über- oder hintereinander angeordnet sind, ist piepegal. Und bei einem räumlichen Bild mit 2D-Auflösungen zu argumentieren, denen eine ganze Achse zur Bildbeschreibung fehlt, ist eine wirklich grottenschlechte Idee. Ich habe schon ganz zum Anfang der Diskussion davor gewarnt, sich nicht täuschen und dazu hinreißen zu lassen, mit den herkömmlichen technischen Ideen, die wir von 2D-Bildern kennen, zu argumentieren, weil diese hier nur mehr sehr bedingt greifen. Im Fall der Auflösung so gut wie gar nicht, denn was aus diesem Beharren auf der Auflösung als Angabe über nur zwei Dimensionen entsteht, obwohl es eigentlich um drei geht, haben wir hier ja nun gesehen.
 
Okay, anderer Versuch: Schau dir mal in den Spielen das HUD an. Dir wird auffallen, dass das HUD in fast allen Spielen, egal wie du den 3DS drehst und wendest, immer scharf bleibt. Warum? Weil hier die Pixel ganz normal, also wie im 2D-Modus, angesprochen werden. Sind sind quasi 2D im 3D-Bild (da Bild geht nach hinten, das HUD bleibt vorne). Deine Logik mit 800x240 Pixeln geht davon aus, dass wir 800 verschiedene Pixel sehen... was damit schon mal falsch wäre. Die Pixel für das HUD sind für beide Augen gleich und haben keine Tiefeninformationen bekommen. Würde man also bei deiner Rechenart bleiben, müsstest du jetzt anfangen, die Pixel rauszurechnen, die für HUD und sonstige (2D) Objekte normal bleiben und daraus dann die Auflösung des Bildes basteln. Was natürlich Blödsinn wäre, daher heißt die Rechnung (2x) 400x240 und ist in jedem Fall korrekt.
 
Okay, anderer Versuch: Schau dir mal in den Spielen das HUD an. Dir wird auffallen, dass das HUD in fast allen Spielen, egal wie du den 3DS drehst und wendest, immer scharf bleibt. Warum? Weil hier die Pixel ganz normal, also wie im 2D-Modus, angesprochen werden. Sind sind quasi 2D im 3D-Bild (da Bild geht nach hinten, das HUD bleibt vorne). Deine Logik mit 800x240 Pixeln geht davon aus, dass wir 800 verschiedene Pixel sehen... was damit schon mal falsch wäre. Die Pixel für das HUD sind für beide Augen gleich und haben keine Tiefeninformationen bekommen. Würde man also bei deiner Rechenart bleiben, müsstest du jetzt anfangen, die Pixel rauszurechnen, die für HUD und sonstige (2D) Objekte normal bleiben und daraus dann die Auflösung des Bildes basteln. Was natürlich Blödsinn wäre, daher heißt die Rechnung (2x) 400x240 und ist in jedem Fall korrekt.

Das wäre theoretisch genau so richtig. Eine Information ohne Z Achse befindet sich auf einem zweidimensionalem Raum und hat somit keine Tiefeninformationen. Der Rest allerdings müsste doppelt gerechnet werden, denn wenn die Z-Achse hinzu kommt, dann haben wir nun eben Tiefeninformationen die man genauso mit einbeziehen muss wie wenn die Pixel in der breite (X-Achse) dargestellt würden.

Du sagst ja bei einer Milchpackung nicht auch "Da passen 140cm² Milch rein", sondern man nimmt natürlich noch die Z-Achse hinzu um auf cm³ zu kommen. Wie du selbst schon gesagt hast, die 400 Pixel fürs linke und die 400 Pixel fürs rechte Auge können verschiedene Informationen (in unserem Fall Blickwinkel) an den Spieler wiedergeben. Das sind also zwei voneinander unabhängige Informationen (theoretisch könnte der Entwickler zwei KOMPLETT verschiedene Bilder/Informationen an den User senden) und das ist wie als wenn du die zwei Bilder nebeneinander legst und dann mittels schielen zu einem zusammenfügt. Von der Fläche her ja, da sieht man nur die 400 Pixel, aber durch die Tiefenwirkung ergibt sich eine wesentlich höhere Informationsdichte durch 2 Bilder.

Anderes Beispiel. Bei einem 2D Bild ist es egal ob du mit dem linken oder rechten Auge guckst, weil es eben nur X und Y-Achs Informationen besitzt, die durch ein Auge problemlos wahrgenommen werden können: Wenn du das beim 3DS versuchen würdest, hättest du keine Chance das Bild ordentlich wahr zu nehmen, da man eben ZWEI BILDER also 2 MAL 400 PIXEL braucht um die ganze Information wahrnehmen zu können. Und genau deshalb MUSS man hier anderst rechnen. ;)
 
Natürlich ist die Informationsdichte in 3D doppelt so hoch (ca.) wie in 2D. Das ist ja auch der Sinn dahinter bzw. damit kann der 3D-Effekt ja auch nur erreicht werden. Ein Pixel in 2D hat nur einen Wert. Ein Pixel in 3D hat zwei Werte. Um das zu erreichen, werden einem 3D-Pixel die Informationen von zwei 2D-Pixeln zugewiesen. Das bedeutet aber eben auch, dass die eigentliche Auflösung des Bildes (2x) 400x240 ist und nicht einfach 800x240. Könnte der 3DS die 800 horizontalen Pixel dezidiert ansteuern, würde man beim Wechseln in 3D einen klaren Unterschied erkennen, da hier nun wirklich die Bildauflösung sinkt (sieht man ja bei der PS3 auch, wenn man von 2D in 3D wechselt). Natürlich sind die Pixel nicht "verloren", aber die Auflösung des Bildes ist dann eben (2x) X x vertikale Pixel. Einfach zusammenrechnen ist nicht, dass sollte das obige Beispiel ja zeigen.
 
Deine Logik mit 800x240 Pixeln geht davon aus, dass wir 800 verschiedene Pixel sehen... was damit schon mal falsch wäre. Die Pixel für das HUD sind für beide Augen gleich und haben keine Tiefeninformationen bekommen. Würde man also bei deiner Rechenart bleiben, müsstest du jetzt anfangen, die Pixel rauszurechnen, die für HUD und sonstige (2D) Objekte normal bleiben und daraus dann die Auflösung des Bildes basteln. Was natürlich Blödsinn wäre, daher heißt die Rechnung (2x) 400x240 und ist in jedem Fall korrekt.
Das macht keinen Unterschied. Meine Rechnung geht von theoretischen 800x240 Pixeln aus, die genutzt werden können. Dass Teile davon verwendet werden, um UI in den Vordergrund zu klatschen, ist dabei irrelevant. Das ist so, als würdest du den links obersten Pixel aus jeder Auflösung wegrechnen wollen, weil er am Nullpunkt beider Achsen liegt. Das ergibt keinen Sinn. Dein HUD liegt halt auf der Position 0 der z-Achse. Das ist übrigens, gerade im Kontext mit anderen, weiter entfernten Objekten, sehr wohl eine Tiefeninformation.
 
Natürlich ist die Informationsdichte in 3D doppelt so hoch (ca.) wie in 2D. Das ist ja auch der Sinn dahinter bzw. damit kann der 3D-Effekt ja auch nur erreicht werden. Ein Pixel in 2D hat nur einen Wert. Ein Pixel in 3D hat zwei Werte. Um das zu erreichen, werden einem 3D-Pixel die Informationen von zwei 2D-Pixeln zugewiesen. Das bedeutet aber eben auch, dass die eigentliche Auflösung des Bildes (2x) 400x240 ist und nicht einfach 800x240. Könnte der 3DS die 800 horizontalen Pixel dezidiert ansteuern, würde man beim Wechseln in 3D einen klaren Unterschied erkennen, da hier nun wirklich die Bildauflösung sinkt (sieht man ja bei der PS3 auch, wenn man von 2D in 3D wechselt). Natürlich sind die Pixel nicht "verloren", aber die Auflösung des Bildes ist dann eben (2x) X x vertikale Pixel. Einfach zusammenrechnen ist nicht, dass sollte das obige Beispiel ja zeigen.

Aber eben weil es 2 Bilder aus zwei verschiedenen Blickwinkeln sind, entsteht ja dieser AA-Effekt (viele sagen ja aus, dass die Kanten Weicher werden). Desweiteren sieht man ja die 2 Bilder trotzdem, sie liegen auch nicht zu 100% übereinander. Es ist wie im echten Leben. Das linke und das rechte Auge sehen zwei Bilder und erhalten dadurch die Möglichkeit alles dreidimensional sehen zu können. Während das anfixierte Objekte gestochen scharf ist, ist alles was sich dahinter und davor befindet "doppelt" zu sehen und grundsätzlich alles was, nicht fixiert ist, ist unscharf. Gerade der Punkt mit dem "was nicht fixiert ist, ist doppelt" zeigt doch, das die 2 Bilder definitiv da sind und man beide an und für sich auch einzelt wahrnimmt. Wirklich Sinn ergeben diese 2 Bilder natürlich nur an dem fixierten Punkt, wo dann die 3D-Informationen entstehen.
 
Ich glaube, worauf er ganz simpel hinaus möchte, ist, dass sich die Auflösung nicht auf 800 (als nebeneinander liegend wahrnehmbare) x 240 Pixel erhöht im 3D-Modus, sondern noch immer als ein 400x240 Bild (genauer: 400x240xZ) gesehen wird, was die Horizontale anbetrifft. Was als technisches Detail für 2D-Bilder völlig richtig ist, für 3D-Bilder jedoch total egal, da es letzten Endes egal ist, wie die Pixel angeordnet sind, wie ich ja schon schrieb. Meinetwegen können wir die effektive Auflösung auch in Megapixel angeben, wenn der Gedankenbrei leichter zu verarbeiten sein sollte. :wink2:
Ich finde nur, dass die 800x240 Pixel als Auflösung, die der 3DS ganz physisch genauso, in 2D, besitzt und nutzt, um den 3D-Effekt zu erzeugen, einigermaßen nachvollziehbar sind (darum auch meine Angabe: es ändert sich nicht, was man sieht (=800x240 reale Pixel), sondern wie man es sieht (400x240xZ räumlich angeordnete Pixel)). Offenbar ist das aber nicht der Fall, also lasse ich's lieber. Zudem ging's mir darum, die falsche Behauptung "Verdoppeln tut sich da rein gar nichts" zu widerlegen, was mittlerweile ja einem Durchbruch gleich auch endlich geschafft ist:

frames60 schrieb:
Natürlich ist die Informationsdichte in 3D doppelt so hoch (ca.) wie in 2D.
 
Zuletzt bearbeitet:
ihr labert jetzt seit einigen seiten darüber, wie das bild im hirn aussieht ?
es sind 400 x 240 p bilder für jeweils beide augen und das ist auch die auflösung die wahrgenommen wird. jeweils ein 400x240p bild.
das wars :nix:.
das bild im hirn sieht vllt weniger aliasing oder so ,aber das hat andere gründe.
hört also auf irgendwelche mit raumkoordinaten wild rum zu argumentieren
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom