PS4 vs. Wii U vs. Xbox One: Der große Current-Gen-War

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Die Präsentation war leicht lächerlich.
Ganz großes Unreal Engine 4 Logo und dann das.

Indie Entwickler mit der U4, ist sowieso ein Scherz.
Die Lizenz ist nicht gerade billig.



dir gefällts nicht, ok, alles klar, ändert nichts daran, dass so ein Dinospiel sicher recht spassig werden kann, UE3 oder 4 ist doch vollkommen egal. Da es ein Indie Game ist wirds auch kein Vollpreistitel, also warum erwartest du Übergrafik?

Das wichtige ist, dass die PS4 das Spiel bekommt, alles andere ist sekundär
 
weiß sowieso nicht wo da das problem liegen soll, durch die neue architektur brauchen sie doch bei den PS3 Multigames nur die PC Versionen nehmen, anpassen und ins PSN stellen, bei den Exklusivsachen ists dann etwas mehr Mühe, aber ähnlich wie bei den PS2 Classics, die einzeln an die PS3 angepasst werden, wirds doch da dann wohl auch möglich sein PS3 Games an die PS4 anzupassen

Das ist doch Bullshit...die PC Versionen nutzen meist maximal 4 CPU-Kerne dafür mit mehr Takt. Einfach mal so auf die PS4 porten geht da schon mal nicht.
 
Das ist doch Bullshit...die PC Versionen nutzen meist maximal 4 CPU-Kerne dafür mit mehr Takt. Einfach mal so auf die PS4 porten geht da schon mal nicht.


ich orientiere mich an aussagen von entwicklern, die meinten, dass das porten vom pc zur ps4 und umgekehrt extrem simpel wäre

bin selber kein programmierer, aber wenn es solche stimmen gibt, dann wird wohl was dran sein
 
Neue Informationen zur PS4 aus einem Interview mit Ito Masayasu und Mark Cerny:

Quelle (auf japanisch, obiges ist eine Zusammenfassung eines Users):

http://av.watch.impress.co.jp/docs/series/rt/20130325_593036.html
Die Punkte die genannt wurden, waren unsinnige Interpretationen vom User.
Die Quelle berichtet von den Compute-Pipelines glaube ich überhaupt nicht.
Und das mit dem HSA-Zeug war irgendwie auch total schwammig.
HSA kann so vieles bedeuten.

Indie Entwickler mit der U4, ist sowieso ein Scherz.
Die Lizenz ist nicht gerade billig.
Ohne zu wissen, welche Verhandlungsmöglichkeiten es gibt und welche Preise EPIC für eine UE4 Lizenz ansetzt kann man das aber auch nicht sagen.
 
ich orientiere mich an aussagen von entwicklern, die meinten, dass das porten vom pc zur ps4 und umgekehrt extrem simpel wäre

bin selber kein programmierer, aber wenn es solche stimmen gibt, dann wird wohl was dran sein

das mag sein, wenn Engines bessere Multicore Unterstützung haben. Ich bezog mich vorallen auf bestehende Spiele. In Zukunft wird es wiederum leichter sein, da man keine grosse extra Arbeit machen muss, wie damals zur PS3
 
das mag sein, wenn Engines bessere Multicore Unterstützung haben. Ich bezog mich vorallen auf bestehende Spiele. In Zukunft wird es wiederum leichter sein, da man keine grosse extra Arbeit machen muss, wie damals zur PS3

Es gibt SingleCore, DualCore und MULTICORE Engines. Letztere nutzen alle verfügbaren Kerne, obs ein OctaCore oder QuadCore ist, spielt keine Rolle mehr.

Spiele auf der PS4 werden auch 8 Kerne nutzen können, theoretisch. Praktisch werden wohl 1-2 reserviert sein für die Hintergrundprogramme, Interface etc.
 
Zuletzt bearbeitet:
Es gibt SingleCore, DualCore und MULTICORE Engines. Letztere nutzen alle verfügbaren Kerne, obs ein OctaCore oder QuadCore ist, spielt keine Rolle mehr.
Es ging um die Portierung bestehender PC-Games auf die PS4.
Da viele PC-Multi-Games bisher nur bis zu 2-4 Kernen skalieren, sind 2-4 Jaguar-Kerne oft zu schwach für eine saubere Performance.

MS hätte es aber theoretisch verdammt leicht nahezu jedes PC-Game direkt auf die Xbox Next zu "portieren".
Sie haben einen Win8 Kernel, ihnen gehört DX.
"Einfach" mal HUD und Gamepad-Steuerung implantieren und ab die Maus.
Man müsste halt beim Game noch versuchen das Threading auszuweiten, damit die Performance auf der CPU auch entsprechend ist.
 
Die Präsentation war leicht lächerlich.
Ganz großes Unreal Engine 4 Logo und dann das.

Indie Entwickler mit der U4, ist sowieso ein Scherz.
Die Lizenz ist nicht gerade billig.

Es gibt keine festen Lizenzkosten.
Die Kosten werden individuell ausgemacht. Oft wird es auch an die Gewinne gekoppelt die das Game einfährt.
Die Enginehersteller müssen die Indies entgegen kommen, Engines wie die UE4 oder Cryengine3 werden auch für Indies eine Option darstellen.
 
Die PS4 switcht das Bild im Split Screen modus,wenn man auf der couch die plätze tauscht^^ ist ja geil.
 
Da rafft jemand anscheinend einfach nicht den Aufbau und das Arbeitsprinzip und interpretiert shit hinein.
Es gibt 8 Compute-Pipelines (ACEs) für das Arbeitsmanagement und 18 CUs, die egal wie, völlig frei eingeteilt werden können für das Computing.
So funktioniert das prinzipiell bei GCN, so wird auch die PS4 funktionieren und so steht es auch im offiziellen PDF von Sony.
Keine Ahnung wie man so einen brain fart haben kann und das als reservierte CUs ansieht.
Die Compute-Pipelines hätte man vielleicht lieber ACEs offiziell nennen sollen, ansonsten scheinen die Leute Compute-Pipelines und Compute-Units zu verwechseln.
 
8 von 18 werden also für physik und co reserviert sein
ist die nächsten box doch näher an der ps4 dran als gedacht oder wie?

Reserviert ist garnix, du KÖNNTEST 8 von 18 für GPGPU Zeug nutzen, musst es aber nicht.

Kannst auch ein 3D Mario bauen und verwendest nalle 18 für Grafik, weil für nen Parakoopa der auf und ab fliegt, brauchst du echt keine komplizierten GPGPU Berechnungen :lol:
 
Wie viele Compute Units hat eigentlich die Wii U GPU? :v:
Keine einzige :v:

Compute-Unit ist aber nur eine Begrifflichkeit, die gewisse Bestandteile als Einzelteil zusammenfassen soll.
Bei der Wiiu funktioniert aber das Computing "unangenehmer", als bei der Next-Gen, nicht nur das VLIW5 da einen architektonisch bedingten Nachteil hat, was einige Algos angeht, ohne ACEs ist die Versorgung auch deutlich schlechter.
GPGPU war einfach so ein Müll, denn Iwata da verzapft hat.
Das Ding ist schon mit dem Rendering völlig ausgelastet und dann ist das Computing beinahe genau so scheiße wie auf dem PC und schlechter als bei heutigen APUs.
Da kann man einfach nicht GPGPU bringen, wenn man weiß das es zu 99% nicht eingesetzt wird.
Schon bei der Xbox 360 fiel das Wort GPGPU und wie oft kam die GPU zur Berechnung von allgemeinen Sachen? :v:
Die PS3 war dann wohl die einzige Konsole, wo eine Einheit auch mal Aufgaben der anderen übernommen hat.
Z.B. musste der Cell dem scheiß RSX mal aushelfen beim Rendering. :v:
 
Keine einzige :v:

Compute-Unit ist aber nur eine Begrifflichkeit, die gewisse Bestandteile als Einzelteil zusammenfassen soll.
Bei der Wiiu funktioniert aber das Computing "unangenehmer", als bei der Next-Gen, nicht nur das VLIW5 da einen architektonisch bedingten Nachteil hat, was einige Algos angeht, ohne ACEs ist die Versorgung auch deutlich schlechter.
GPGPU war einfach so ein Müll, denn Iwata da verzapft hat.
Das Ding ist schon mit dem Rendering völlig ausgelastet und dann ist das Computing beinahe genau so scheiße wie auf dem PC und schlechter als bei heutigen APUs.
Da kann man einfach nicht GPGPU bringen, wenn man weiß das es zu 99% nicht eingesetzt wird.
Schon bei der Xbox 360 fiel das Wort GPGPU und wie oft kam die GPU zur Berechnung von allgemeinen Sachen? :v:
Die PS3 war dann wohl die einzige Konsole, wo eine Einheit auch mal Aufgaben der anderen übernommen hat.
Z.B. musste der Cell dem scheiß RSX mal aushelfen beim Rendering. :v:

Ich hab mir fast gedacht, dass die keine CUs hat :lol:

GPGPU hat Iwata wohl eh nur erwähnt, damit die Hardcore-Nintendo Boys die Wii U CPU verteidigen können, hab ich so das Gefühl xD Denn wie du schon sagst, ist die alte Architektur, die geringe Rechenleistung und die nicht vorhandenen CUs wohl der GPGPU Killer, schade eigentlich. Nintendo hätte mit so einfachen Mitteln mehr Leistung rauskitzeln können. Warum haben sie die GPU nicht mit 128 Bit an den Speicher angebunden? Warum haben sie ihr nicht eine bessere Architektur, CUs und mehr Shaderkerne verpasst?

Was die APUs angeht, die sind imo echt klasse (hab ja auch nen APU Laptop :v:) ich hab mal gelesen, dass ein Typ mit einer mobilen Liano APU 20% mehr Leistung rausgekitzelt hat, und das nur mit einem Codeschnipsel. Da sieht man mal, wie viel Leistung einfach so flöten geht. Dürfte bei der PS4 auch funktionieren und wird sicher angewendet. Da bei einer APU GPU und CPU direkt auf einem Chip sitzen, kann man da wohl als Entwickler viel herum experimentieren und hohe Leistung erzeugen.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom