@TheProphet
Naja, da muss ich Bond schon recht geben.
Smart Shift ist was anderes als das, was bisher im PC Sektor bei GPUs und CPUs gemacht wird.
Smart Shift ist eine AMD Lösung speziell für APUs.
Das hat mit dem normalen Boost Modus nichts zu tun.
Die GPU alleine kann immer mit dem Maximaltakt fahren, wenn die CPU mit weniger auskommt.
Und die CPU kann eben immer den Maximaltakt fahren, wenn die GPU weniger benötigt.
Es kommt also auf die Kombination an, da eben beide auf dem gleichen Die sitzen.
Bei PC GPUs und CPUs sieht das ganz anders aus.
Jede Einheit sitzt auf ihrem eigenen Die und Chip und wird einzeln gekühlt.
Hier kann einfach der Chip selber nicht ständig auf Hochtouren laufen,
Eine GPU in einer APU aber schon, wenn man eben die Maximalleistung dahingehend berechnet.
Die PS5 APU kann meinetwegen 100 Grad heiß werden. Je nach Außentemperatur wird mal mehr, mal weniger Watt dafür benötigt.
Jetzt nimmt man sich die maximale Außentemperatur, mit der das System noch arbeiten soll und schaut, wie viel Watt die APU verträgt bis sie die 100 Grad erreicht hat bei der angestrebten Kühllösung.
Das ist dann die Maximalstrombelastung, die die APU ziehen darf. Ist somit in den vorgegebenen Grenzen unabhängig von der Außentemperatur.
Jetzt schaut man, wie hoch die GPU takten darf, bis sie ein bestimmtes Budget dieser Stromleistung zieht.
Sagen wir mal sie verbrät bei 2,23GHz 90% dieses Strombudgets Das ist dann der eingestellte höchste Takt für die GPU
Jetzt bleibt für die CPU noch 10% über. Hört sich wenig an, die CPU verbraucht aber auch einiges weniger als die GPU.
Jetzt lässt man die CPU so hoch takten, dass sie anstatt 10% z.B. 20% des Budgets verbraucht und nimmt dann den Takt, der hierbei rauskommt als ihren Maximaltakt. Die GPU muss hier folglich um den gleichen Strombetrag gesenkt werden, damit das Gesamtstrombudget gleich bleibt. Und das ist dann der Takt, der minimal gefahren wird.
Bei der PS5 GPU sind das dann zB 2Ghz (so käme man auf die 9.2 TF als unterste Grenze)
Jetzt kann man auch sagen, wie stark die Einbußen der CPU beim niedrigstmöglichen Takt sind bezogen auf den ermittelten Maximaltakt.
Mann wird in etwas dann einen Wert von z.B. 60% erhalten.
Die CPU läuft also nur mit 60% ihrer Maximalleistung, wenn die GPU die volle Breitseite benötigt.
Wenn also die GPU unter Volllast läuft, darf die CPU nur 60% leisten damit das Powerbudget nicht gesprengt wird.
Braucht die CPU mehr, muss die GPU was abgeben.
Wenn dann die CPU mit 100% läuft, kann die GPU nur noch 9,2Ghz, was 90% ihrer Maximalleistung entspricht, laufen.
Die genauen Werte hängen natürlich davon ab, wie viel Strom nun letztendlich die GPU und die CPU bei gewissen Takten verbrauchen.
Oder anders ausgedrückt, wie das Verhältnis von GPU Strombedarf zu CPU Strombedarf ausfällt.
Aber man kann davon ausgehen, dass die CPU wesentlich weniger an Strom benötigt als die GPU.
Deshalb geht bei ihr die Leistung aber auch eben viel weiter in den Keller wenn die GPU nach Power verlangt als umgekehrt.
Damit also die GPU auf höchstem Takt laufen kann und natürlich den auch für Berechnungen nutzt und nicht vor sich her gammelt, muss die CPU hier ziemlich auf Sparflamme fahren.
Das ist meiner Ansicht nach ein Grund, warum die PS5 GPU bei Spielen, die die CPU auch fordert, eigentlich nie ihren vollen Takt aufahren wird können.
Man kann wohl davon ausgehen, dass in der Next Gen die Games wesentlich CPU lastiger werden.