Der letzte Github leak war mit 2Ghz von Juni 2019 und der davor mit 1.8Ghz von april? oder so und nur weil Sony nach dem Leak aufgehört hat öffentlich zu testen, bedeutet nicht das sie nicht so weit wie es geht nach oben wollten
Der test mit 2.23 wurde einfach nicht mehr gefunden weil nicht mehr öffentlich gemacht.
Denn wäre er es, hätte die PS5 schon die ganze Zeit 10TF
Bei smart shift hat man einfach AMDs neuste Technik für Gaming APUs genommen und sicher nicht um schnell an die Xbox TF zu kommen, denn 100% war es schon bei den 1.8GHz an Bord. Das teil soll einfach so hoch laufen wie es geht und wenn Leistung nicht gebraucht wird, was jeden neuen frame passiert wie wir vom PC wissen und da sich eine GPU langsam auf heizt, kann hat maximale power garantiert werden ohne das die Lüfter ständig am Anschlag sind.
Smart-Shift ist ja jetzt wie du ja auch erwähnst, keine Erfindung von Sony.
Das haben aktuelle AMD APUs ja standardmäßig mit an Bord.
Nur dort ist es eine Technik, um Notebooks opitmal auszureizen.
Der Sinn dahinter ist ja folgender.
Notebooks sind keine feste Hardware wie Konsolen
Deshalb ist es für Programe, die auf ihne laufen, nicht so wichtig, ob nun GPU und CPU im Takt in einem begrenzten Rahmen varieren.
Sie sind ja nicht für ein spezielles Notebook geschrieben
Notebooks werden ja nach Anwendung, Außentemperatur und Standort unterschiedlich warm.
Smartshift ist jetzt dafür da,
1.) die verfügbare elektrische Leisung bei Berücksichtigung der oben genannten Faktoren optimal zu verteilen.
2.) dadurch Akkukapazität zu sparen.
Was man aber daraus auch logisch schlussfolgern kann ist der Fakt, dass hier auf jeden Fall eine Taktreduzierung von einer Komponente im Spiel ist.
Wenn also die GPU mit vollem Takt läuft, muss die CPU mit weniger laufen.
Denn sonst bräuchte man die ganze Technik auch nicht.
Denn auch wenn eine der Komponenten nicht voll ausgelastet ist, verbraucht sie mit dem höheren Takt mehr Strom als wenn sie niedriger getaktet würde und dabei trotzdem die gleiche Rechenleistung abliefert. Denn Takterhöhung, gerade in diesen Grenzbereichen, geht immer mit überproportional hohem Stromverbrauch einher, egal, wie die Auslastung im Einzelnen Fall ist.
Ich gehe jedenfalls davon aus, dass GPU und CPU nie gleichzeitig mit dem höchsten Takt arbeiten.
Und bei der GPU laufen dann natürlich auch die anderen Einheiten jenseits der Shader wie z.B. die RT Einheiten, ROPs usw mit niedrigerem Takt.
Glücklicherweise werden sich diesem Thema ja die üblichen Seiten annehmen und uns davon berichten
Und
@thraker hat es auch noch mal angesprochen.
GPU und CPU haben natürlich einen völlig unterschiedlichen Strombedarf.
Die CPU muss stark runtertakten um der GPU auch nur ein wenig Prozent mehr Power (auf ihren durchschnittlichen Strombedarf bezogen) zur Verfügung zu stellen.
Die GPU natürlich im Umkehrschluss um so weniger.
Aber wie ich schon mal sagte.
So lange man nicht die Werte für die elektrische Leistung von CPU und GPU bei maximaler Auslastung und Takt kennt, sowie das festgesetzte Gesamtbudget der Lesitung beider Komponenten, kann man eh nur wild spekulieren.