Wii U Wii U - Teil 2: Non-Specific Action Figure to the rescue!

Will wohl jemand nicht wahrhaben!
Kannst ja die Hobby-technikexperten auf CW fragen, die ja soviel Ahnung haben, einzelne News aufschnappen (lahme CPU, lahmer Ram) und daraus "lahme WiiU" basteln! Aber nicht erklären können, wieso ein Blops2 auf der WiiU im DualscreenMultiplayer läuft xD


Weils durch die GPU einfach gestreamt wird auf dem Controller, wird nicht doppelt gerendert falls du das meinst
 
Weils durch die GPU einfach gestreamt wird auf dem Controller, wird nicht doppelt gerendert falls du das meinst

Und selbst dann dürfte eure lahme CPU/lahme Ram-These=lahme WiiU-These falsch sein!
Ich stütz mich lieber auf die Ergebnisse! Ich bin nach wie vor sicher, dass die Entwickler Zeit brauchen um mit der WiiU-Architektur klar zu kommen und vlt. das erste Retro-Spiel sämtlichen Pre-WiiU-Hate in die Lächerlichkeit führt!

Also hatet noch solange ihr könnt!
Btw. noch 90,5 Stunden :aargh:
 
Und selbst dann dürfte eure lahme CPU/lahme Ram-These=lahme WiiU-These falsch sein!
Ich stütz mich lieber auf die Ergebnisse! Ich bin nach wie vor sicher, dass die Entwickler Zeit brauchen um mit der WiiU-Architektur klar zu kommen und vlt. das erste Retro-Spiel sämtlichen Pre-WiiU-Hate in die Lächerlichkeit führt!

Also hatet noch solange ihr könnt!
Btw. noch 90,5 Stunden :aargh:

1. Nein 2. Ist das keine These wenn es ein Entwickler sagt.

3. Deine Ideologie ist bisschen einfältig. Wenn ich nen 10.00 Köpfiges Programmier Team an eine Konsole setze holen die auch mehr aus der Konsole herraus. Das macht die Konsolen aber weder besser noch die Architektur sinnvoller.
 
Zuletzt bearbeitet:
Ich find's ja irgendwie seltsam, dass bei der Wii U alle so auf die Hardwaredetails achten, andererseits aber mit der Wii viele Jahre Spaß hatten, obwohl die Hardware eigentlich ein schlechter Scherz war...
Ich glaube, du täuschst dich da. Wenn ich mich da an Galaxy zurückerinnere, war der technische Aspekt immer schon von großer Bedeutung. Sogar bei SS oder auch MonsterHunter. Jetzt bei der neuen Konsole richtet es sich auf die Hardware anstatt auf ein bestimmtes Spiel.
 
1. Nein 2. Ist das keine These wenn es ein Entwickler sagt.

3. Deine Ideologie ist bisschen einfältig. Wenn ich nen 10.00 Köpfiges Programmier Team an eine Konsole setze holen die auch bessere mehr aus der Konsole herraus. Das macht die Konsolen aber weder besser noch die Architektur sinnvoller.
Die Antwort wie sinnvoll eine Architektur ist überlasse ich eher den Leuten, die sich damit auskennen! Auf CW gibt es zuviele selbsternannte Technikexperten, welche auch noch voreingenommen sind ;-) ...
Die Metro-macher haben sich eben noch nicht mit der hardware auseinandergesetzt und ziemlich oberflächlich analysiert! hatten ja auch bisher keine Zeit! War also auch etwas unglücklich deren Aussage....
 
Die Antwort wie sinnvoll eine Architektur ist überlasse ich eher den Leuten, die sich damit auskennen! Auf CW gibt es zuviele selbsternannte Technikexperten, welche auch noch voreingenommen sind ;-) ...
Die Metro-macher haben sich eben noch nicht mit der hardware auseinandergesetzt und ziemlich oberflächlich analysiert! hatten ja auch bisher keine Zeit! War also auch etwas unglücklich deren Aussage....

Erst sagst du hast keine Ahnung von Hardware/architektur, dann meinst du Metromacher haben sich nicht beschäftigt und die Aussage war unglücklich , acha
 
Erst sagst du hast keine Ahnung von Hardware/architektur, dann meinst du Metromacher haben sich nicht beschäftigt und die Aussage war unglücklich , acha

THQ hat die Aussage doch begründet! Ihr wollt ja das "lahme CPU" nicht aus eurem Wortschatz löschen ;-)
Fakt ist, die WiiU geht sehr souverän mit den launchports und Launchtiteln um! Da würde kein mensch (ausser er ist voreingenommen) drauf kommen, dass eure Analyse richtig wär...
 
Kannst mich ja in der Grundschule besuchen und bei der Gelegenheit noch etwas im Deutschunterricht aufpassen. Ich sehe da noch große Defizite im Textverständnis. Anstand und Etikette sind auch noch verbesserungswürdig, das fällt dann aber eher in den Aufgabenbereich des Elternhauses.Es ging nicht darum wieviel frames durch vsync zensiert und damit verloren gehen sondern um den Leistungsanspruch von vsync an sich. Du verbringst zuviel zeit im war Thread. Da verfällt man schnell in ein Argumentationsmuster sich immer alles zurechtzubiegen und anderen ans Bein zu pinkeln.
Was ist das denn jetzt für eine seltsame Argumentation.
Ich habe dir erläutert, was aktiviertes V-Synch, speziell bei BLOPs 2 bei der 360 kosten würde.Und das mit einer einfachen Rechnung. Mit was sonst.
Was hat das mit mangelndem Textverständnis zu tun ?
Noch mal.
Die 360 Version von Blops 2 würde bei aktiviertem V-Synch um ziemlich genau ein Frame pro Sekunde schlechter laufen.Das ist keine Zauberei, das ist nicht geraten sondern schlicht und ergreifend ausgerechnet.
Was in diesem Fall nun wirklich nicht schwer sein dürfte.
 
Zuletzt bearbeitet:
THQ hat die Aussage doch begründet! Ihr wollt ja das "lahme CPU" nicht aus eurem Wortschatz löschen ;-)
Fakt ist, die WiiU geht sehr souverän mit den launchports und Launchtiteln um! Da würde kein mensch (ausser er ist voreingenommen) drauf kommen, dass eure Analyse richtig wär...

Was THQ Werbefritze gesagt hast mir genau so egal was Reggie sagt, der Lead Entwickler hat ganz klar gesagt lahme CPU.

Und nein das ist kein Fakt, Fakt ist das die Wiiu von allen Konsolen bisher am schlechtesten damit zurecht kommt und das fällt sicherlich nicht "souverän". Und was ist "unsere" Analyse nochmal ?
 
Was THQ Werbefritze gesagt hast mir genau so egal was Reggie sagt, der Lead Entwickler hat ganz klar gesagt lahme CPU.

Und nein das ist kein Fakt, Fakt ist das die Wiiu von allen Konsolen bisher am schlechtesten damit zurecht kommt und das fällt sicherlich nicht "souverän". Und was ist "unsere" Analyse nochmal ?
Das ist eben das Problem! Solche Schlagworte kommen dann in Argumentationen aber haben einfach keinen halt! Die WiiU muss man als ganzes System betrachten und nicht einzelne komponenten bashen...

@Konsolenbaby:
Stellt sich dich Frage, wieso man dann auf der X360 nicht einfach auf den einen Frame verzichtet hat und das V-Sync eingeschaltet hat! Vlt. ist das doch nicht so einfach...
 
Das ist eben das Problem! Solche Schlagworte kommen dann in Argumentationen aber haben einfach keinen halt! Die WiiU muss man als ganzes System betrachten und nicht einzelne komponenten bashen...



Schön wie du auf meinen Post eingangen bist, und nein ich muss gar nix, schönen Tag noch sir :brit:
 
Das ist falsch.
Hier übrigens die Quelle zur besagten Bildanalyse.

http://www.lensoftruth.com/heads-up-call-of-duty-black-ops-ii-analysis-wii-ups3xbox-360/

Was du beschreibst nennt man gelockte Framerate.
Hier wird eben nicht immer zu einem festen Zeitpunkt der Puffer gewechselt. Denn dann hätte man 60fps mit eben häufigeren Tearing.
Du kannst mir schon glauben dass ich weiß was V-Synch, Framebuffer, gelockte Framerate usw. sind.

Die Engine bei Black Ops 2 funktioniert folgender maßen
Sie versucht, 60fps auszugeben. Es gibt wie du schreibst zwei Framebuffer.
Ist der eine fertig beschrieben kommt der zweite dran.
Der fertige wird ausgeben.
Wenn jetzt der zweite Buffer noch nicht fertig ist bevor das nächste Frame ausgegeben werden soll, entscheidet die Engine, ob sie das unfertige Bild ausgibt und den Rest vom fertigen Bild dazu gibt (was dann zum Zerreisen des Bildes führt), oder ob es das alte Bild noch einmal raus gibt
Bei BLOPS2 zwei ist die Engine eben so eingestellt, dass sie das unfertige Bild nur dann raus gibt, wenn nur noch ein paar Zeilen fehlen.
Wenn mehr fehlt, wird das alte Bild rausgeworfen.

Deshalb gibts auch keine konstante Framerate.
Und deshalb kann es auch 1,3% Tearing und auch nur am oberen Bildschirm geben.

Wenn nun V-Synch aktiviert wäre, würde man einfach dieses eine Bild pro Sekunde, was teart, auch noch verwerfen.
Und damit käme man im Schnitt eben genau auf ein Bild weniger pro Sekunde

Scheiße, jetzt habe ich Freigeist die Lösung schon verraten :(

Watt ??

Jetzt wird das ja immer verwirrender, woher soll den eine Engine wissen, dass nur noch ein paar Zeilen fehlen. Dazu müssten ja alle Elemente vorsortiert sein und ich kenne nur einen Algorithmus, der zeilenbasiert ist ?
Des Weiteren basiert deine Theorie darauf, dass exakt 1 Bild außerhalb des Frames war und "teart". Das stelle ich schlicht und ergreifend in Abrede, denn wenn die Framerate nur um ein Frame sinken würde, dann würde jeder Entwickler VSYNC anschalten, denn das sähe deutlich besser aus. Eine variable Framerate ist übrigens normal, wenn man VSYNC abschaltet und ist nichts besonderes...

Noch mal ganz langsam und zum Mitschreiben "1,3% Tearing und auch nur am oberen Bildschirm" kann es nur dann geben, wenn das Bild irgend wie synchronisiert umgeschaltet wird und zwar im sichtbaren oberen Bereich. In diesem Fall würde mir für die Entwickler nur ein Wort mit D einfallen. Denn dann wäre es doch besser gewesen, noch mal 2 ms früher umzuschalten.

Oder anders formuliert: Wenn ich in der Lage bin, zu jedem Frame "pünklich" zu spät umzuschalten und sich die Zeiten nicht kumulieren, dann bin ich genau so in der Lage jedes mal richtig pünktlich umzuschalten. Dazu kommt, bei VSYNC ist zu spät zu spät und damit hat sich was mit deiner 1 Frame Theorie...
Also bleibt für mich folge Zusammenfassung, die XBox 360 Version bricht das Rendering ab, wenn es die 60 FPS nicht schafft. Deshalb kommt es zu Tearing im sichtbaren oberen Bereich und die Wii U Version hat VSYNC an und es kommt zu Framerate Einbrüchen. Um zu entscheiden was besser ist, müsste ich es sehen, oder noch besser messen. Aber daraus auf die Leistung zu schließen, halte ich für mutig...
 
Zuletzt bearbeitet:
Schön wie du auf meinen Post eingangen bist, und nein ich muss gar nix, schönen Tag noch sir :brit:
Du bist eben einer von den "Voreingenommenen", von denen ich sprach! Da brauch ich weder von fehlendem tearing anfangen, noch von Schärfe oder besseren lighting... Denn was bei dir da zählt ist eben immer das negative an einem Port :nix:

Fakt ist, die ach so lahme WiiU beherrscht Dual-Screen, die ports laufen trotzdem sauber und das in der konsolen-Firstgen! Und da erkläre mir noch einer was vom lahmen Ram oder CPU xD
 
"Man sollte ergänzen, dass die CPU 3 verfügbare Kerne hat wobei einer fürs System vollständig genutzt wird. Zurzeit ist nur 1 Core für Entwickler zugelassen was ein Update in Kürze ändern soll… also ähnlich wie beim 3DS.

Also könnten Spiele problemlos 2.5 Cores verwenden und somit wäre es mindestens auch CPU-mäßig das 3fache einer XBOX360 (grafisch ja schon jetzt).

Hauptproblem bei Ports ist zurzeit, dass Enginges auf mehrere Cores ausgelegt sind die sich dann eben schwer tun wenns 1 Kern ist der alles berechnet – da müsste man sehr vieles umarbeiten, was wiederum Zeit und Geld kostet – aber sobald die Engines angepasst sind läuft alles superfein – siehe SegaAllstarRacing usw, was 3mal so viel darstellt und immer noch doppelt so flüssig läuft als auf Konkurrenzkonsolen."

Quelle: WiiBoy 3DS Entwickler Insider Infos, arbeitet derzeit am Spiel BitBoy
 
Könnt ihr den Scheiß nicht weiterhin im Technik-Thread lassen-dort könnt ihr euch die echten und Spekulatius-Specs um die Ohren hauen? Ihr verblendeten Gestalten (auf allen Seiten) geht einem langsam tierisch auf die Nüsse mit dem ganzen halbgaren Driss.... :rolleyes:
 
Zuletzt bearbeitet:
"Man sollte ergänzen, dass die CPU 3 verfügbare Kerne hat wobei einer fürs System vollständig genutzt wird. Zurzeit ist nur 1 Core für Entwickler zugelassen was ein Update in Kürze ändern soll… also ähnlich wie beim 3DS.

Also könnten Spiele problemlos 2.5 Cores verwenden und somit wäre es mindestens auch CPU-mäßig das 3fache einer XBOX360 (grafisch ja schon jetzt).

Hauptproblem bei Ports ist zurzeit, dass Enginges auf mehrere Cores ausgelegt sind die sich dann eben schwer tun wenns 1 Kern ist der alles berechnet – da müsste man sehr vieles umarbeiten, was wiederum Zeit und Geld kostet – aber sobald die Engines angepasst sind läuft alles superfein – siehe SegaAllstarRacing usw, was 3mal so viel darstellt und immer noch doppelt so flüssig läuft als auf Konkurrenzkonsolen."

Quelle: WiiBoy 3DS Entwickler Insider Infos, arbeitet derzeit am Spiel BitBoy

warum sollte nintendo anfangs nur einen kern anbieten?
das ergibt für niemanden sinn oder?
 
Watt ??

Jetzt wird das ja immer verwirrender, woher soll den eine Engine wissen, dass nur noch ein paar Zeilen fehlen. Dazu müssten ja alle Elemente vorsortiert sein ?
Des Weiteren basiert deine Theorie darauf, dass exakt 1 Bild außerhalb des Frames war und "teart". Das stelle ich schlicht und ergreifend in Abrede, denn wenn die Framerate nur um ein Frame sinken würde, dann würde jeder Entwickler VSYNC anschalten, denn das sähe deutlich besser aus. Ene variable Framerate ist übrigens normal, wenn man VSYNC abschaltet und ist nichts besonderes...

Noch mal ganz langsam und zum Mitschreiben "1,3% Tearing und auch nur am oberen Bildschirm" kann es nur dann geben, wenn das Bild irgend wie synchronisiert umgeschaltet wird und zwar im sichtbaren oberen Bereich. In diesem Fall würde mir für die Entwickler nur ein Wort mit D einfallen. Denn dann wäre es doch besser geweswen, noch mal 2 ms früher umzuschalten.

Oder anders formuliert, Wenn ich in der Lage bin, zu jedem Frame "pünklich" zu spät umzuschalten und sich die Zeiten nicht kumulieren, dann bin ich genau so in der Lage jedes mal richtig pünktlich umzuschalten. Dazu kommt bei VSYNC ist zu spät zu spät und damit hat sich was mit deiner 1 Frame Theorie...

Sorry, ich habe jetzt echt keine Lust, hier grundlegende Dinge der Grafikverarbeitung durch zu kauen.
Das kann man sich auf dutzenden Seiten im Netz sicherlich ansehen.

Ist auch herrlich, wie hier Fakten einfach ignoriert werden.
Die Jungs von LoT und Eurogamer haben die Games mittels entsprechendem Equipment getestet.
Hier unterstellt man also, dass die zu doof sind und falsche Ergebnisse posten.
Anders ist ja sonst euer Aufschrei nicht zu verstehen.

Die Framerate ist Fakt
Die Tearingquote ist Fakt
Und anhand der Einzelbilder konnten sie auch sagen, an welcher Stelle das Tearing auftritt.
Das kann man aber auch durch einfache mathematische Berechnungen, wie ich sie angestellt hat, herausfinden.

Also, fangen wir an.
Wie das Bild aufgebaut wird, ist dem Entwickler überlassen.
Nirgendwo steht geschrieben, dass man oben links anfängt und dann sich bis unten rechts herunter hangelt.
Zu Zeiten des Röhren TVs war das ja noch verständlich, da der Elektronenstrahl das Bild so aufbaut. Und ohne Buffer man so nur arbeiten kann.
Heute ist das aber nicht mehr der Fall.

Bei BLOPs 2 wird das Bild wohl von unten nach oben berechnet.
Die Ausgabezeit ist aber immer die Selbe und wird vom TV festgelegt.
Im Normalfall muss alle 60zigstel Sekunde ein Bild ausgegeben werden.

Das läuft nun so ab.
Das Bild wird Berechnet und gelangt in Framebuffer 1
Dann wird mit dem nächsten Bild angefangen was in Framebuffer 2 abgelegt wird.
Jetzt ist eine 60zigstel Sekunde rum und es muss ein Bild ausgegeben werden.
Es wird das aus Framebuffer 1 genommen.
Nach einer weiteren 60zigstel Sekunde wird das Bild aus Framebuffer 2 ausgegeben.
Wenn das aber noch nicht fertig ist wird das Bild verworfen und noch einmal das Bild aus Framebuffer 1 genommen.
Bei Blops 2 wird aber auch dann das Bild aus Framebuffer 2 genommen, wenn nur noch wenige Zeilen des Bildes fehlen.
Und natürlich weiß dass die Engine.

Da das Bild von unten nach oben gerendert wird, wird also das bisher gerenderte Bild aus Frame 2 ausgegeben und der Rest, der fehlt, aus Framebuffer 1 dazu genommen.

Und das ganze läuft dann weiter.
Und bei 1.3% Tearing bedeutet das, dass pro Sekunde im Durchschnitt 55 Bilder komplett ausgegeben werden und nur ein Bild teart. Denn die durchschnittliche Framerate liegt bei der 360 Version ja bei gut 56fps.
Wenn die Engine keine Schranke hätte, ab wann sie das unfertige Bild ausgeben soll und wann nicht, hätten wir konstante 60fps aber mit mehr Tearing.

Warum man bei so einer geringen Tearingrate und hohen Ausgabefrequenz nicht V-Synch bei der 360 aktiviert hat, musst du schon die Entwickler fragen. Vermutlich liegt es daran, dass die Wii-U Version ausgelagert wurde und man deshalb nicht abgesprochen hat.
Vielleicht ist es auch eine Vorgabe von Nintendo, V-Synch immer zu aktivieren.
Dann könnte ich mir vorstellen, das Blops 2 bei der Wii-U mit Triple-Buffer arbeitet. Das verhindert bei niedrigen Frameraten tearing, hat aber den Nachteil, dass die Latenz genau ein Bild schlechter wird. Das ist aber bei einer 60fps Ausgabe wesentlich unkritischer als bei 30fps.


PS: ich kopiers mal in den Next-Gen Thread
 
Zuletzt bearbeitet:
"Man sollte ergänzen, dass die CPU 3 verfügbare Kerne hat wobei einer fürs System vollständig genutzt wird. Zurzeit ist nur 1 Core für Entwickler zugelassen was ein Update in Kürze ändern soll… also ähnlich wie beim 3DS.

Also könnten Spiele problemlos 2.5 Cores verwenden und somit wäre es mindestens auch CPU-mäßig das 3fache einer XBOX360 (grafisch ja schon jetzt).

Hauptproblem bei Ports ist zurzeit, dass Enginges auf mehrere Cores ausgelegt sind die sich dann eben schwer tun wenns 1 Kern ist der alles berechnet – da müsste man sehr vieles umarbeiten, was wiederum Zeit und Geld kostet – aber sobald die Engines angepasst sind läuft alles superfein – siehe SegaAllstarRacing usw, was 3mal so viel darstellt und immer noch doppelt so flüssig läuft als auf Konkurrenzkonsolen."

Quelle: WiiBoy 3DS Entwickler Insider Infos, arbeitet derzeit am Spiel BitBoy

naja mal im ernst, das stimmt doch defintiv nicht oder?

1. Würde es keinerlei Sinn machen
2. Wurde die Wii U doch schon aufgeschraubt und die Größe der CPU festgestellt. Dass da bislang nur ein einziger Kern die Leistung bringt, um CoD etc. dazustellen ist doch absurd?!
 
Zurück
Top Bottom