Es gibt sogar extra ein Digital Foundry Interview.
"The CPU and GPU each have a power budget, of course the GPU power budget is the larger of the two," adds Cerny. "If the CPU doesn't use its power budget - for example, if it is capped at 3.5GHz - then the unused portion of the budget goes to the GPU. That's what AMD calls SmartShift. There's enough power that both CPU and GPU can potentially run at their limits of 3.5GHz and 2.23GHz, it isn't the case that the developer has to choose to run one of them slower."
But what if developers aren't going to optimise specifically to PlayStation 5's power ceiling? I wondered whether there were 'worst case scenario' frequencies that developers could work around - an equivalent to the base clocks PC components have. "Developers don't need to optimise in any way; if necessary, the frequency will adjust to whatever actions the CPU and GPU are performing," Mark Cerny counters. "I think you're asking what happens if there is a piece of code intentionally written so that every transistor (or the maximum number of transistors possible) in the CPU and GPU flip on every cycle. That's a pretty abstract question, games aren't anywhere near that amount of power consumption. In fact, if such a piece of code were to run on existing consoles, the power consumption would be well out of the intended operating range and it's even possible that the console would go into thermal shutdown. PS5 would handle such an unrealistic piece of code more gracefully."
On March 18th, Sony finally broke cover with in-depth information on the technical make-up of PlayStation 5. Expanding …
www.eurogamer.net
Ich kenne den Artikel natürllich
Er ist aber etwas seltsam formuliert und auch nicht ganz richtig
Aber im Grunde genommen steht genau das da drin, was ich sage.
Jede Komponente hat ein maximales Energiebudget aber das Gesamtbudget ist eben niedriger als beide einzelnen zusammen.
Das liegt bei der GPU bei dem Wert, der sich einstellt, wenn sie bei Maximaltakt voll ausgelastet ist.
Gleiches bei der CPU
Genau das hat Cerny in der Präsentation gesagt.
Ist ja auch logisch.
Die CPU läuft maximal mit 3,5Ghz, die GPU maximal mit 2,23Ghz.
Und daran ändert sich auch nichts, wenn die eine Komponente zum Gunsten der anderen auf etwas von ihrem Energiebudget verzichtet.
Wenn man den Text so ließt, könnte man nämlich genau das meinen.
"If the CPU doesn't use its power budget - for example, if it is capped at 3.5GHz - then the unused portion of the budget goes to the GPU."
Die GPU erhält zwar mehr von der CPU, überschreitet aber nicht ihr Budget, was sie bei voller Ausnutzung im Höchsttakt benötigt.
Denn dann müsste sie ja logischerweise den Takt erhöhen um noch mehr Leistung zu erzielen.
Tut sie aber nicht. Bei 2.23GHz ist Schluss.
Wenn das alles überhaupt keinen Einfluss auf die Rechenleistung hätte, bräuchte man es doch nicht explizit und so ausführlich zu erwähnnen
Der von dir Fett geschriebenen Ansatz ist ja lediglich eine Rechtfertigung nach dem Motto.
Wird eh nicht vorkommen, dass CPU und GPU voll ausgelastet werden.