PS5 PlayStation 5

  • Thread-Ersteller Thread-Ersteller Red
  • Erstellungsdatum Erstellungsdatum
  • Tags Tags
    ps5
Also ich kann mir beim besten Willen nicht vorstellen dass Sony noch mal 600€ wagt. Da hatte man sich 2006 ordentlich die Finger verbrannt, und ich denke auch heute würden das viele nicht schlucken.

Ich kann mir daher durchaus die 499€ / 449€ Variante vorstellen.

Das Zwei-Konsolen-Modell dürfte auf jeden Fall die Konkurrenz, die ja ebenfalls mit zwei Konsolen kommen soll, ins grübeln gebracht haben.
 
  • Lob
Reaktionen: Avi
Mehr als 499€ wirds am Ende auch nicht sein. Diese amazon.fr Anzeige würde denk ich mal schon so passen, die SX wird wohl dann genauso viel kosten und die Digital die 449€...vielleicht gibt es ja auch noch ne Überraschung und die digital kostet sogar nur 399€ um die zweite XBOX Wind aus dem Segel zu nehmen
 
Es gibt sogar extra ein Digital Foundry Interview.
"The CPU and GPU each have a power budget, of course the GPU power budget is the larger of the two," adds Cerny. "If the CPU doesn't use its power budget - for example, if it is capped at 3.5GHz - then the unused portion of the budget goes to the GPU. That's what AMD calls SmartShift. There's enough power that both CPU and GPU can potentially run at their limits of 3.5GHz and 2.23GHz, it isn't the case that the developer has to choose to run one of them slower."

But what if developers aren't going to optimise specifically to PlayStation 5's power ceiling? I wondered whether there were 'worst case scenario' frequencies that developers could work around - an equivalent to the base clocks PC components have. "Developers don't need to optimise in any way; if necessary, the frequency will adjust to whatever actions the CPU and GPU are performing," Mark Cerny counters. "I think you're asking what happens if there is a piece of code intentionally written so that every transistor (or the maximum number of transistors possible) in the CPU and GPU flip on every cycle. That's a pretty abstract question, games aren't anywhere near that amount of power consumption. In fact, if such a piece of code were to run on existing consoles, the power consumption would be well out of the intended operating range and it's even possible that the console would go into thermal shutdown. PS5 would handle such an unrealistic piece of code more gracefully."


Ich kenne den Artikel natürllich
Er ist aber etwas seltsam formuliert und auch nicht ganz richtig

Aber im Grunde genommen steht genau das da drin, was ich sage.
Jede Komponente hat ein maximales Energiebudget aber das Gesamtbudget ist eben niedriger als beide einzelnen zusammen.
Das liegt bei der GPU bei dem Wert, der sich einstellt, wenn sie bei Maximaltakt voll ausgelastet ist.
Gleiches bei der CPU
Genau das hat Cerny in der Präsentation gesagt.

Ist ja auch logisch.
Die CPU läuft maximal mit 3,5Ghz, die GPU maximal mit 2,23Ghz.
Und daran ändert sich auch nichts, wenn die eine Komponente zum Gunsten der anderen auf etwas von ihrem Energiebudget verzichtet.

Wenn man den Text so ließt, könnte man nämlich genau das meinen.
"If the CPU doesn't use its power budget - for example, if it is capped at 3.5GHz - then the unused portion of the budget goes to the GPU."
Die GPU erhält zwar mehr von der CPU, überschreitet aber nicht ihr Budget, was sie bei voller Ausnutzung im Höchsttakt benötigt.
Denn dann müsste sie ja logischerweise den Takt erhöhen um noch mehr Leistung zu erzielen.
Tut sie aber nicht. Bei 2.23GHz ist Schluss.

Wenn das alles überhaupt keinen Einfluss auf die Rechenleistung hätte, bräuchte man es doch nicht explizit und so ausführlich zu erwähnnen
Der von dir Fett geschriebenen Ansatz ist ja lediglich eine Rechtfertigung nach dem Motto.
Wird eh nicht vorkommen, dass CPU und GPU voll ausgelastet werden.
 
Ok, also werde ich, sobald die PS5 im Hause ist, ein PS4 Game nach dem anderen in die Konsole einlegen und testen ob es funktioniert, ehe ich meine PS4 Pro verkaufe. :uglylol:

Bzw. gegebenenfalls entscheiden ob ich für ein Spiel wie "FIFA 13" unbedingt noch meine PS4 brauche.
 
  • Lob
Reaktionen: Avi
Das kappiert er doch garnicht, gibt ja auch einen Grund warum CPUs mit den niedrigsten Auflösungen getestet werden und GPUs mit den höchst möglichen.
Darum ist Smart Shift in Laptops ein kleiner gamechanger wenn gamer mehr aus der GPU wollen (höhere settings, Auflösung) weil die GPU zum Bottleneck wird und die CPU jetzt aber runter getaktet wird und GPU mehr vom power budget bekommt. Wenn bei der XsX die CPU wartet, weil krasse alpha effekte oder RT genutz wird in gewissen Abschnitten, läuft da die CPU mit selben takt weiter.

Natürlich werden CPUs und GPUs so getestet.
Aber was hat das mit der diskutierten Thematik zu tun?
In einem normalen Spiel gibts Stellen, bei denen die GPU der limitierende Faktor ist und andere, wo es die CPU ist.
Es gibt aber eben auch Momente, wo keiner von beiden limitiert oder beide, wie man es eben betrachtet.
Und genau bei solchen Fällen muss eben einer zu Gunsten des Anderen etwas zurück stecken.
Meistens wirds da eben die GPU sein, da man bei ihr einfacher, z.B. durch Auflösungsverringerung, das ausgleichen kann.
Bei den Aufgagen, die die CPU zu bewältigen hat, ist das schon schwieriger.
Ist sie am Limit gehts meistens direkt auf die Framerate.


Bestes beispiel immer noch die BF games, wo der Böse Jaguar ja garnicht der framerate killer war die meiste zeit ;)
Daher wurde auch von Devs zu Dictator gesagt, das sie die GPU im den Devkits einfach auf Anschlag lassen, weil eh so viel CPU power diese Gen zur verfügung steht und bei den hohen Auflösungen und RT, wird (wie ich letztes Jahr sagte) die GPU mit nem Zen2 noch eher zum Bottleneck.

Die Karten werden in der Next-Gen neu gemischt.
Wenn nun mehr CPU Power zur Verfügung steht, steht es außer Frage, dass die Entwickler davon auch regen Gebrauch machen.

Mit wem man gerade darüber diskutiert bekommt man auch völlig andere Ansichten.
Du und manch anderer ist der Auffassung, dass die CPU in der Next-Gen ein gemütliches Dasein fristet, während die GPU sich totschuften muss.
Andere sagen "Ja bei Spiel X auf dem PC wird mein super Duper übertakteter 8 Core Prozessor schon an die Grenzen gebracht, bald braucht man da einen 16 Core, damit man noch die neuesten Games vernünftig zocken kann.

Wer hat recht ?
 
Ich kenne den Artikel natürllich
Er ist aber etwas seltsam formuliert und auch nicht ganz richtig

Aber im Grunde genommen steht genau das da drin, was ich sage.
Jede Komponente hat ein maximales Energiebudget aber das Gesamtbudget ist eben niedriger als beide einzelnen zusammen.
There's enough power that both CPU and GPU can potentially run at their limits of 3.5GHz and 2.23GHz, it isn't the case that the developer has to choose to run one of them slower.

Hör doch auf ständig schlechte Mutmaßungen dir auszudenken und zu lügen :)
 
Zurück
Top Bottom