• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Bezweifel ich. DMP gibt ein max. 200MHz an. 133 sind realistischer. Und alles doppelt berechnen?
Kannst Du nach Belieben bezweifeln, sind trotzdem 268MHz. Die GPU mach auch mehr, wenn das erwünscht wird. Und ja, für 3D muss man Szenen doppelt berechnen. So funktioniert 3D.
 
Aha. Der 3DS rendert intern mit 800*240 und teilt es dann am Ende in 2 Bildern auf. Wirklich doppelt ist es nicht.
 
Aha. Der 3DS rendert intern mit 800*240 und teilt es dann am Ende in 2 Bildern auf. Wirklich doppelt ist es nicht.
Falsch. Das würde einen Scheiß bringen. Du brauchst unterschiedliche Perspektiven für die beiden Bilder, sonst wäre es nicht 3D. Ergo brauchst Du zwei Viewports für den oberen Bildschirm. Das 3DS rechnet somit intern 2 x 400 x 240 + 1 x 320 x 240. Drei komplette Viewports. Der untere Viewport ist normalerweise nur eine Karte oder so, also im Idealfall zwei Dreiecke - der obere ist hingegen die dargestellte 3D Szene doppelt.
 
Zuletzt bearbeitet:
@wsippel:
Ach so... hab' nicht aufgepasst und verpasst, dass es um den Polygoncount ging. Mein Fehler. Aber andererseits hast du Recht, und ich stimme dir ja zu, insofern wurscht. xD
 
Mal eine Frage in die Runde, was wollt ihr eigentlich ständig mit "XYZ hat doppelte Leistung wie ABC", "Wii U wird 3x stärker als Konsole ZYX". Was soll dies eigentlich in euren Augen genau bedeuten? Ich meine, wir sind hier nicht bei einem Grafikkarten-Test wo ich dann in verschiedenen Setups die Höchst-FPS oder Frameverläufe messen kann.

Finde, dass das hier immer bisschen nach Voodoo klingt :ugly:
 
Hehe, ich sag, die Presse hat technische Daten zu Wii-U bekommen, die so performant sind, das sie das Teil, prestigeträchtig Baschen, um es nach dem "War has Changed"-Countdown, richtig zu hypen. ;-)
 
Da auch die Betriebssysteme von Konsolen immer komplexer werden, widerspreche ich da aber ganz nachdrücklich. Ganz egal, wie leistungsfähig Prozessoren werden, wenn andere Chips ohnehin zwingend notwendige Features für weniger Geld und mit weniger Stromverbrauch bereitstellen können, ist nie verkehrt, auf dedizierte Hardware zu setzen.

Das ist schon richtig. Es ist aber nicht so dass die Extrachips in der Kostenrechnung nicht auftauchen, oder gar als 100%ige Ersparnis zu verstehen sind. Mit dem Chip allein ist es auch nicht getan.

Ich bin mir nicht so ganz sicher, ob Du meinen Post verstanden hast. PICA200 liefert im 3DS rund 20 Millionen Polygone pro Sekunde. SGX535 beispielsweise schafft zwar theoretisch rund 30 Millionen bei vergleichbarem Stromverbrauch, aber hier kommt der Fixed Function Aspekt zum Tragen: Bei IMG GPUs geht die Performance sofort in den Keller, sobald Du die Polygone auch noch texturierst oder gar beleuchtest (und das tut man bei Spielen üblicherweise). Bei PICA nicht.

Wie schon erwähnt wurde, Pica schafft bei 200MHz 15,3 Millionen Polygone, und warum du bei IMG so tief stapelst und und so ein Quarkröllchen wie den SGX535 raussuchen musst, bleibt wohl auch dein Geheimnis ;-)
Hätte auch eine SGX543 Konfig oder SGX545 sein können, da ist bei gleichen Takt locker über das doppelte drin, als Singlevariante. Die SGX543 in der MP4 Version, wie sie in der Vita steckt, fledert dir bei 200MHz 135 Millionen Polys um die Ohren, da ist Pica lustig dagegen, nicht mehr. Also die garantierter Performace kann nicht der ausschlaggebene Punkt gewesen sein.
Was ein Einbruch bei Texturierung und Beleuchtung angeht, sieht es in der Realität anders aus.
Übrigens bist du die Frage schuldig, wo die PS3 bsw im 3D Modus einfach mal die doppelte Polygon Performance herzaubert, ein Uncharted 3 läuft in 3D nicht um die Hälfte schlechter, und macht am Ende nichts anderes als der 3DS im 3D Modus, die Auflösung halbieren.
[video=youtube;BfKo_HhlhYM]http://www.youtube.com/watch?v=BfKo_HhlhYM[/video]
Da hat Vita bei der höheren Auflösung einiges mehr zu tuckern, und bietet auch ohne Einbruch einiges Mehr an Texturierung und Beleuchtung :P
Aber gut, ein wenig fernab vom Thema

@CaptainCrunch

Was isn das?
 
Zuletzt bearbeitet:
Es ging meines Wissens nicht um den Preis, sondern um die Performance/Watt - und um garantierte Performance. Besonders die garantierte Performance war Nintendo immer extrem wichtig. Deshalb setzen sie auch mehr als jeder andere Konsolenhersteller auf dedizierte Hardware wie DSPs und programmierbare IO Prozessoren (und klammern an Fixed Function Hardware). Ein mutmaßlicher Insider bei B3D schrieb unlängst gar, dass bei der Wii U das ganze Betriebssystem auf einem ARM Prozessor laufen solle, und entsprechend die ganze PowerPC-CPU komplett für Spiele zur Verfügung stünde. DRM, IO, Networking und Browser sollen auf dem ARM laufen. Das ist natürlich als Gerücht zu betrachten, aber Starlet zeigt, dass Nintendo in genau diese Richtung denkt: Auf der Wii haben Entwickler UNIX-artige Device Files, die von Starlet zur Verfügung gestellt werden, um auf die gesamte Peripherie einschließlich Netzwerk zuzugreifen. Alle Treiber und Subsysteme laufen auf Starlet. Bei der Wii U geht's angeblich noch einen riesigen Schritt weiter.

Sorry, aber wie soll das denn funktionieren.
Du kannst ja Dinge auf eine zweite CPU auslagern, aber nicht das Betriebssystem auf einen schwachen Kern.
Das Betriebssystem muss auf dem Hauptprozessor laufen. Und auf dem läuft auch das Hauptprogramm. Dann könnte man Teile des Programmcodes auf eine zweite CPU auslagern, dazu gehört ja auch die GPU.
Die Verbindung zwischen CPU und CPU/GPU ist natürlich um mehrere zehnerpotenzen langsamer als innerhalb einer CPU.
Und da Betriebssystemroutinen ständig genutzt werden würde das ganze System zum Flaschenhals werden.

Außerdem verbraucht bei einer Konsole das Betriebssystem, während ein Spiel läuft, nicht einmal ein Prozent der Prozessorpower.
Ich halte das Gerücht mit der ARM-CPU für das Betriebssystem also für völligen Unsinn.
Als programmierbarer Controller ok, aber nicht als CPU, auf dem der Betriebssystem-kernel läuft
 
Mal eine Frage in die Runde, was wollt ihr eigentlich ständig mit "XYZ hat doppelte Leistung wie ABC", "Wii U wird 3x stärker als Konsole ZYX". Was soll dies eigentlich in euren Augen genau bedeuten? Ich meine, wir sind hier nicht bei einem Grafikkarten-Test wo ich dann in verschiedenen Setups die Höchst-FPS oder Frameverläufe messen kann.

Finde, dass das hier immer bisschen nach Voodoo klingt :ugly:
Warte immer noch auf eine Antwort :coolface:
 
Mal eine Frage in die Runde, was wollt ihr eigentlich ständig mit "XYZ hat doppelte Leistung wie ABC", "Wii U wird 3x stärker als Konsole ZYX". Was soll dies eigentlich in euren Augen genau bedeuten? Ich meine, wir sind hier nicht bei einem Grafikkarten-Test wo ich dann in verschiedenen Setups die Höchst-FPS oder Frameverläufe messen kann.

Finde, dass das hier immer bisschen nach Voodoo klingt :ugly:

Die Rechenleistung ist eben die am einfachsten zu vergleichende Größe. Allerdings müssen die Systeme auch von der grundlegenden Technik recht ähnlich sein.
Das ist aber heute immer zunehmender der Fall.
Alle drei Next-Gen Konsolen werden wohl in der Grundarchitektur übereinstimmen.
IBM CPU auf Basis eines PowerPC, AMD GPU mit aktueller Shadertechnik.
Der Rest sind Nuancen. Und wenn ein Hersteller es nicht bei anderen Komponenten wie Bandbreite oder Speicher verkackt, dann kann man die Rechenleistung ziemlich genau miteinander vergleichen.

Spiele werden immer aufwendiger in ihrer Technik. Und dafür braucht man eben immer mehr Rechenleistung.
PS360 Games werden schon auf Teufel komm raus optimiert, damit sie dort auf einem anständigen Niveau laufen.
Aber irgendwann ist eben Ende im Gelände und man muss im Gegensatz zur PC Version so viel runterschrauben, dass der eigentliche Spielspaß darunter leidet.
Spätestens dann braucht man neue Hardware.

Natürlich braucht man für guten Spielspaß nicht immer starke Hardware. So lange Spiele, wie bei den First- und Secondparty der Wii, nur für diese eine Hardware entwickelt werden, kann man sich als Spielentwickler natürlich auf diese Hardware komplett einstellen und Spiele abliefern, die vom Spielspaß her mehr Spaß machen als grafisch opulente Games der Konkurrenz. Das ist aber meistens die Ausnahme der Regel.

Spiele, die für mehrere Systeme angeboten werden, leiden in der Regel unter schwacher Hardware.
Deshalb verkauft sich ja auf der Wii so gut wie kein technisch aufwendiges Spiel, was es auch für die HD Konsolen gibt.

Es wird also schon eine Rolle spielen in wie fern sich die Wii-U in der Next-Gen leistungstechnisch plazieren wird können. Der Tablet Controller könnte eine gewisse Leistungsschwäche auffangen. Denn wenn er optimal genutzt wird könnte er den Spielspaß mehr steigern als dieser durch die schlechtere Technik der Wii-U Einbußen erleidet.
Wenn er allerdings in den meisten Games nur ein zu verzichtendes Gimmick darstellt, wird es schon schwieriger.
Denn dann fehlt irgendwie die Zielgruppenbestimmung.

PS360 Gamer werden dann nicht in Scharen auf die Wii-U wechseln sondern bleiben bei ihren Systemen und wechseln eben ein Jahr später auf die Nachfolger
Casuals sind aber auch nicht die primäre Zielgruppe der Wii-U.
Die sind in der breiten Masse mit der Wii mehr als bedient und werden auch nur vereinzelt zu neuer Hardware greifen. Insbesondere, wenn diese um einiges teurer wieder ist und das Tablet für Casuals natürlich nicht so intuitiv zu bedienen ist wie die Mote.

Bleiben also nur jeweils kleine Grüppchen aus allen Zielgruppen sowie beinharte Nintendofans, die sich als Wii-U Erstkäufer anbieten würden. Zur E3 wissen wir hoffentlich schon mehr über die Technik und Ende des Jahres über den Verkaufsstart :)
 
mal ne Frage: Woher kommt denn eigentlich die allgemeine These, dass die Wii U NICHT mehr so krass auf den Casual-Markt zugeschnitten sei? Ich meine, hallo? Eine Tablet-Steuerung per Touchscreen ist doch so ziemlich die zugänglichste und einfachste Steuerungsart die es gibt, das kennt mittlerweile jeder durch Handy, den DS etc. (zumal die Wii-Mote ja ohnehin noch weiter verwendet wird).

Ich denke mal Nintendo wird sich weiterhin so stark um die Casuals bemühen, wie zur Wii-Zeit (wäre ja auch absolut dämlich wenn nicht) nur dass man eben zusätzlich versuchen wird, für Cores wieder interessanter zu werden, also quasi den Spagat zwischen beiden Marktsegmenten besser hinzubekommen, ähnlich wie die PS2 damals.

Ich meine, schaut euch doch nur mal den Spot der letzten E3 an: Der war imo schon sehr casual-lastig. Eine lachende Familie, ein paar spielen mit Wiimotes, einer mit dem Tablet. Es wird geskypet, Gesellschaftspiele gespielt und wenn der Papi Football schauen will, dann spielen die anderen auf dem Tablet weiter. Noch familienfreundlicher/casual-mäßiger gehts doch eigentlich kaum !
 
Sorry, aber wie soll das denn funktionieren.
Du kannst ja Dinge auf eine zweite CPU auslagern, aber nicht das Betriebssystem auf einen schwachen Kern.
Das Betriebssystem muss auf dem Hauptprozessor laufen. Und auf dem läuft auch das Hauptprogramm. Dann könnte man Teile des Programmcodes auf eine zweite CPU auslagern, dazu gehört ja auch die GPU.
Die Verbindung zwischen CPU und CPU/GPU ist natürlich um mehrere zehnerpotenzen langsamer als innerhalb einer CPU.
Und da Betriebssystemroutinen ständig genutzt werden würde das ganze System zum Flaschenhals werden.

Außerdem verbraucht bei einer Konsole das Betriebssystem, während ein Spiel läuft, nicht einmal ein Prozent der Prozessorpower.
Ich halte das Gerücht mit der ARM-CPU für das Betriebssystem also für völligen Unsinn.
Als programmierbarer Controller ok, aber nicht als CPU, auf dem der Betriebssystem-kernel läuft
Natürlich läuft auch ein Betriebssystem auf der CPU. Da tut's dann aber ein extrem schlankes System (die Partnerschaft mit GHS könnte auf µ-velOSity oder Integrity hindeuten). Und es ist natürlich auch Unsinn, dass das OS inklusive Hintergrundprozessen nur 1% Rechenleistung verbrauchen. Es ist kein Geheimnis, dass bei der PS3 eine ganze SPE und ein Teil der PPE für's OS draufgehen. Kommt aber natürlich in hohem Maße darauf an, was Du als Teil des Betriebssystem ansiehst. Man könnte beispielsweise Geschichten wie Dekompression und Teile des File IO über das OS machen und entsprechend auslagern. Damit werden bei PS3 und Xbox360 'ne Menge Cycles verschwendet.
 
Natürlich läuft auch ein Betriebssystem auf der CPU. Da tut's dann aber ein extrem schlankes System (die Partnerschaft mit GHS könnte auf µ-velOSity oder Integrity hindeuten). Und es ist natürlich auch Unsinn, dass das OS inklusive Hintergrundprozessen nur 1% Rechenleistung verbrauchen. Es ist kein Geheimnis, dass bei der PS3 eine ganze SPE und ein Teil der PPE für's OS draufgehen. Kommt aber natürlich in hohem Maße darauf an, was Du als Teil des Betriebssystem ansiehst. Man könnte beispielsweise Geschichten wie Dekompression und Teile des File IO über das OS machen und entsprechend auslagern. Damit werden bei PS3 und Xbox360 'ne Menge Cycles verschwendet.

Ich meine bei der Rechenzeit des Betriebssystems natürlich den Teil, der unabhängig vom eigentlichen Spiel laufen muss. Betriebssystemroutinen, die vom Spiel genutzt werden, sind da natürlich außen vor. Also solche Routinen, die auch der entsprechende Entwickler selber programmieren könnte, aber vom Betriebssystem eben in anständiger Form angeboten werden.
Dazu zähle ich z.B. auch die ganzen Chatmöglichkeiten der 360. Jedes Spiel muss diese bieten und die Funktionen dafür werden zum größten Teil vom Betriebssystem zur Verfügung gestellt.
Da diese Funktionen aber eben zum Spiel gehören rechne ich deren Rechenzeit logischerweise nicht zu den allgemeinen OS-Zeiten dazu.
Dazu zählen eben nur verwaltungstechnische Aufgaben, die mit dem eigentlichen Spiel nichts zu tun haben.

Zur PS3
Das OS der PS3 war eh ein Flickwerk und brauchte am Anfang wirklich viel Rechenzeit. Viele Dinge waren auch dort nicht von Anfang an mit einkalkuliert was ja unter anderem ein Grund dafür ist, dass es bis heute keinen Spielüberschreitenden Sprachchat gibt.
 
Vor allem wird der 1SPU deswegen für das OS verschwendet, da es für den Schutz geopfert wurde. Sprich Hypervisor also hat weniger mit der Last des OS zu tun
 
Ich meine bei der Rechenzeit des Betriebssystems natürlich den Teil, der unabhängig vom eigentlichen Spiel laufen muss. Betriebssystemroutinen, die vom Spiel genutzt werden, sind da natürlich außen vor. Also solche Routinen, die auch der entsprechende Entwickler selber programmieren könnte, aber vom Betriebssystem eben in anständiger Form angeboten werden.
Dazu zähle ich z.B. auch die ganzen Chatmöglichkeiten der 360. Jedes Spiel muss diese bieten und die Funktionen dafür werden zum größten Teil vom Betriebssystem zur Verfügung gestellt.
Da diese Funktionen aber eben zum Spiel gehören rechne ich deren Rechenzeit logischerweise nicht zu den allgemeinen OS-Zeiten dazu.
Dazu zählen eben nur verwaltungstechnische Aufgaben, die mit dem eigentlichen Spiel nichts zu tun haben.
Wozu Du das zählst ist eigentlich ziemlich egal - es ist trotzdem OS, die Cycles gehen trotzdem drauf und die Prozesse könnten ausgelagert werden. Ist einfach Verschwendung, damit den teuren Hauptprozessor zu belasten, wenn's auch ein ARM für €3.50 täte.


@thraker:

Der Hypervisor gehört zum OS. Und DRM ist bei Nintendo-System ebenfalls Aufgabe des IO-Prozessors, nicht der CPU.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom