Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Verstehe nicht warum einige immer noch die letzte Gen mit der neuen Vergleichen.

Beide Konsolen sind keine Exoten mehr und nutzen kein Cell oder PowerPC mehr...

Da wird man relativ schnell das Ende erreichen. Xbone hustet ja jetzt schon bei HD Remaster games und Source Engine Games lol

Die alten Konsolen waren so konzipiert, dass man über die Zeit richtig viel rausholen konnte.

Die PS4 dagegen ist so einfach zu programmieren, dass man sie bereits heute zu 100% ausreizen kann.

Software engineering tot? Danke für die Information.

Einfach ausgedrückt gibt es drei Aspekte die unter der allgemeinen Aussage "Konsole ausreizen" stehen
- bessere Algorithmen
- bessere Tools
- Hardware besser kennen lernen

Der Dritte Punkt nimmt den kleinsten Aspekt ein, gerade da man in der heutigen Zeit nicht mehr mit Assebler ein an die Spiele geht, dafür ist der Aufwand zu groß. Selbst ein 1st Party Dev wie Santa Monica werkelt nicht groß mit on-the-metal an der PS3 rum um ihre Ergebnisse zu liefern, siehe dazu das Tech Interview von Digital Foundry zu GoW Ascension.
Die ersten beiden Punkte sind Hauptbestandteil der eigentlichen "Konsolenausreizung" und diese verschwinden auf PS4 und One nicht einfach. Natürlich gibt es noch das Gesetz vom abnehmenden Grenzertrag, doch gab es die letzte GDC nicht ohne Grund viele Vorträge zu Optimization GCN.
HSA und GPGPU sind auch noch Kinderschuhe und sowieso waren nun auch die GPUs von PS360 keine extraterrestrischen Produkte. Man hat auf 360 und PS3 defintiv mehr Zeit benötigt um etwas zum Laufen zu bekommen, demgegenüber bekommt man bei den Neuen nun schneller etwas zu Laufen und hat dafür mehr Zeit in kritischen Bereichen zu optimieren und ganz im Gegensatz zu den vorangegangenden Generationen sind die Konsolen nicht von Start an RAM limitiert.



Ausreizen ist relativ.
Beide Konsolen werden schon jetzt mit 100% AUslastung fahren, allerdings werden die Algorithmen und Routinen natürlich ständig weiterentwickelt und was früher 100% an Leistung verschlungen hat, wird ggf. später nur noch 50% brauchen.
So dass man eben später mehr Effekte darstellen kann.

ABer in beiden Fällen wird die Konsole eben voll ausgelastet. :-D

Wie immer.
 
Meinst du die GPU läuft nicht mit voller Auslastung?

Natürlich nicht, oder für was glaubst du gibt es die ACEs in den GCN GPUs?

Wenn du überhaupt schon so kommst, dann stellt sich gleich die Frage, warum ein RSX oder Xenos nicht 2006/05 schon mit voller Auslastung gefahren sein soll.
Nächste Frage: Warum gab es auf der GDC dieses Jahr einige Vorträge zur Optimierung von GCN?
 
Meinst du die GPU läuft nicht mit voller Auslastung?

Wahrscheinlich verstehst du den Optimierungsprozess bei der Spieleentwicklung nicht. Man kann bei der selben Auslastung in naher Zukunft grafisch besser aussehende Spiele entwickeln stell dir vor. :o
 
GPGPU ist ja eine schöne Sache, das effektive Nutzen dieser GPU Resource kostet aber Performance(die man anderwertig für bessere Grafik nutzen könnte).

Es ist ein wenig wie das Cloud Argument der xBone: Mit der Grafik hats so gut wie nichts zu tun. Im Gegenteil, sollte man GPGPU effektiv nutzen, werden wohl 200-300 mehr oder weniger Gflops von der Rechenleistung der GPU dafür abgestellt werden.

Das könnte aber zB. bedeuten, dass ein Spiel, das grafisch weiterhin aussieht wie Infamous(das ja bekanntlich großteils auf 40FPS lief vor dem Lock) mit 30 gelockte FPS auch auf einer sagen wir 1.6Tflop GPU 30FPS schaffen sollte.

Das was übrig bleibt könnte der Entwickler für GPGPU Befehle nutzen und was der Cell letzte Gen für die RSX war(nämlich eine Unterstùtzung bei grafischen Angelegenheiten) könnte diese Gen die GPU in der PS4 zu der Jaguar CPU in Sachen Berechnungen sein.

Ein Infamous mit komplett zerstörbarer Umgebung auf Partikelbasis wäre zB. Eine Möglichkeit die GPGPU Fähigkeiten zu nutzen(oder für bessere KI).

Das sind jetzt nur Ideen, keine Ahnung ob man das technisch umsetzen kann oder nicht, aber ist auf jedenfall vielversprechender als die Cloud :)
 
Meinst du die GPU läuft nicht mit voller Auslastung?
Warum werden Späße wie Furmark wohl vom Treiber gedrosselt? Die meisten GPUs würden den Hitzetod sterben wenn man sie wirklich zu 100% auslasten könnte.

MTC001 schrieb:
GPGPU ist ja eine schöne Sache, das effektive Nutzen dieser GPU Resource kostet aber Performance(die man anderwertig für bessere Grafik nutzen könnte).
GPU Compute ist auch für Grafik extrem relevant. Die Möglichkeit die traditionelle Grafikpipeline aufzubrechen bietet enorme Möglichkeiten.
 
Zuletzt bearbeitet:
GPGPU ist ja eine schöne Sache, das effektive Nutzen dieser GPU Resource kostet aber Performance(die man anderwertig für bessere Grafik nutzen könnte).

Es ist ein wenig wie das Cloud Argument der xBone: Mit der Grafik hats so gut wie nichts zu tun. Im Gegenteil, sollte man GPGPU effektiv nutzen, werden wohl 200-300 mehr oder weniger Gflops von der Rechenleistung der GPU dafür abgestellt werden.

Das könnte aber zB. bedeuten, dass ein Spiel, das grafisch weiterhin aussieht wie Infamous(das ja bekanntlich großteils auf 40FPS lief vor dem Lock) mit 30 gelockte FPS auch auf einer sagen wir 1.6Tflop GPU 30FPS schaffen sollte.

Das was übrig bleibt könnte der Entwickler für GPGPU Befehle nutzen und was der Cell letzte Gen für die RSX war(nämlich eine Unterstùtzung bei grafischen Angelegenheiten) könnte diese Gen die GPU in der PS4 zu der Jaguar CPU in Sachen Berechnungen sein.

Ein Infamous mit komplett zerstörbarer Umgebung auf Partikelbasis wäre zB. Eine Möglichkeit die GPGPU Fähigkeiten zu nutzen(oder für bessere KI).

Das sind jetzt nur Ideen, keine Ahnung ob man das technisch umsetzen kann oder nicht, aber ist auf jedenfall vielversprechender als die Cloud :)

ich hab zwar kein wort verstanden. aber wenn du mir sagsr ich hab damit mehr explosionen pro sekunde auf dem bildschirm dann unterschreib ich dir das.
 
GPGPU ist ja eine schöne Sache, das effektive Nutzen dieser GPU Resource kostet aber Performance(die man anderwertig für bessere Grafik nutzen könnte).

Es ist ein wenig wie das Cloud Argument der xBone: Mit der Grafik hats so gut wie nichts zu tun. Im Gegenteil, sollte man GPGPU effektiv nutzen, werden wohl 200-300 mehr oder weniger Gflops von der Rechenleistung der GPU dafür abgestellt werden.

Das könnte aber zB. bedeuten, dass ein Spiel, das grafisch weiterhin aussieht wie Infamous(das ja bekanntlich großteils auf 40FPS lief vor dem Lock) mit 30 gelockte FPS auch auf einer sagen wir 1.6Tflop GPU 30FPS schaffen sollte.

Das was übrig bleibt könnte der Entwickler für GPGPU Befehle nutzen und was der Cell letzte Gen für die RSX war(nämlich eine Unterstùtzung bei grafischen Angelegenheiten) könnte diese Gen die GPU in der PS4 zu der Jaguar CPU in Sachen Berechnungen sein.

Ein Infamous mit komplett zerstörbarer Umgebung auf Partikelbasis wäre zB. Eine Möglichkeit die GPGPU Fähigkeiten zu nutzen(oder für bessere KI).

Das sind jetzt nur Ideen, keine Ahnung ob man das technisch umsetzen kann oder nicht, aber ist auf jedenfall vielversprechender als die Cloud :)

Es gibt immer Leerläufe, die lassen sich kaum verhindern, da es Prozesse gibt die voneinander abhängig sind, heißt das Einheiten mit der Berechnung anderer Aufgaben warten müssen bis eine bestimmt fertig ist, oder weil ihnen noch keine neuen Aufgaben zugeteilt wurde. Die Minderung solcher Leerläufe ist auch Aufgabe des Compilers, dessen Effizienz sich im Laufe der Zeit bessert. Der RSX war auch nichts anderes als PC Stangenhardware, konnte aber immer besser ausgenutzt werden.
Eliminieren lassen sich diese Leerläufe aber nie vollständig. Hier kommen die ACEs der GCN Architektur zum Zuge, das sind Scheduler die gezielt nach solchen Leerläufen schauen und diese mit GPGPU Aufgaben "füllen". Die PS4 hat hier übrigens die gleiche Anzahl an ACEs wie die Radeon R9 290x, Sony hat also einen großen Wert darauf gelegt. Die One hat ein Viertel davon.
 
Insider: Best Watch Dogs Console Experience Is On PS4
Swedish insider Tidux has added more fuel to the rumors regarding the differences between the PS4 & Xbox One versions of Watch Dogs. The product page at Sony’s official website mentioned 60FPS, but it could have been a mistake since we know that just a couple weeks ago the game was running at 30FPS. Still, Tidux said that PS4 will get the best console experience, and he also added that this trend with PS4 versions being the best on consoles will continue.

Either way, we wouldn’t be surprised as most multiplatform games until now proved to be superior on PlayStation 4. We’ll know very soon in any case, as Watch Dogs releases on 27th May for PC, PS3, PS4, Xbox 360 and Xbox One, with a WiiU version still planned but not pinned for a release yet.

http://www.worldsfactory.net/2014/05/11/insider-best-watch-dogs-console-experience-ps4

Wie immer Crispstation am delivern Weakbox still weak. :goodwork:
 
Das habe ich hier bei einem Tom's Hardware Review der ersten 180nm GeForce 2 GTS gefunden. ;-)



Das ist heute schon ziemlich witzig zu lesen. :lol:

Die Karte hatte also weniger als 10W, verglichen mit den 300W einer 780Ti oder R9 290X. Über den genauen Faktor muss man jetzt auch nicht streiten, es ist ein massiver Anstieg.

ja schon lustig aller omg ich grauch en 350w netzteil :lol:

ne aber ne gf2 gts ist schon was anderes als ne gf2u die hat ja sogar unter dx7 ne gf3 hinter sich gelassen

und was die leistung angeht ist das auch schon so ne faktor
wie viel rohleistung hatten die gpus darmals 400-700 mflops bei aktuellen ist man bei 5-6tflpos wenn man es nicht ins extreme geht
.
Eliminieren lassen sich diese Leerläufe aber nie vollständig. Hier kommen die ACEs der GCN Architektur zum Zuge, das sind Scheduler die gezielt nach solchen Leerläufen schauen und diese mit GPGPU Aufgaben "füllen". Die PS4 hat hier übrigens die gleiche Anzahl an ACEs wie die Radeon R9 290x, Sony hat also einen großen Wert darauf gelegt. Die One hat ein Viertel davon.
im grunde bedeutet das doch nur das es gcn2 ist bei der ps4 oder nicht? xbo hat 2 wie in der gcn1 und die r260 gpus 4 werden doch auch meist gcn1.1 genannt
grafisch hat das aber nich zu bedeuten da es sich da nur um compute befehle handelt die die acu zuweissen wenn nix läuft
 
Zuletzt bearbeitet:
Die Ps4 ist nicht stärker, kapiert das endlich, die One hat NOC-Architektur, Multifunktionale-ALUs und einen Protottyp-HMC.

Ich weiss,das es schwer zu akzeptieren ist, aber das Leben ist hart, so wie die Fehlinvestition Ps4, sofern man die stärkste Konsole für Spiele erwartet hat, nun den Preis wird die One holen, aber auch Sony macht gute Spiele, das ist doch ein guter Trostpreis, immerhin Platz 3, der PC muss hinzugerechnet werden. ;-)
 
Die Ps4 ist nicht stärker, kapiert das endlich, die One hat NOC-Architektur, Multifunktionale-ALUs und einen Protottyp-HMC.

Ich weiss,das es schwer zu akzeptieren ist, aber das Leben ist hart, so wie die Fehlinvestition Ps4, sofern man die stärkste Konsole für Spiele erwartet hat, nun den Preis wird die One holen, aber auch Sony macht gute Spiele, das ist doch ein guter Trostpreis, immerhin Platz 3, der PC muss hinzugerechnet werden. ;-)

Schwachsinn hoch drei. :goodwork:
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom