Konsolenbaby
L14: Freak
- Seit
- 9 Dez 2010
- Beiträge
- 6.602
Was ich mich zu dem Smart .. oder wie das heißt frage, ist folgendes:
Man hat bekanntlich ein Watt-Target(sagen wir mal 200Watt), jetzt je nach Auslastung wird jeweils die CPU oder die GPU das übrig gebliebene Target(sagen wir z.B 30Watt sind noch übrig(170Watt sind schon entnommen)) an eine oder beide Komponenten verteilt wird. Hier wird geprüft, welche von beiden Komponenten schon ihr Maximum erreicht hat, z.B GPU hat schon 150Watt und die CPU 20Watt, dann weiß das System, ah hier ist die GPU am Limit, gebe ihr das restliche Target. Und so schwangt das halt hin und her, je nachdem wie die Auslastung ist.
Ich frage mich wie viel schluckt eine CPU mit ihren normalen Target(sagen wir 8+8T @ 3,3Ghz) und wie viel Watt kann sie rational gesehen übrig lassen? Wahrscheinlich werden am Anfang dieser Gen nicht alle Kerne gebraucht und bei Takt wird wohl auch nicht auf allen Kernen auf das normale Target geprügelt. Mich interessiert wie viel Watt werden benötigt, um die 2,23GhZ zu packen, wir wissen dass es ab einem gewissen Punkt überproportional schluckt, daher die Frage halt, wie muss das Zusatztarget sein, um das zu packen. Mal gucken, wenn die PS5 getestet wird oder Sony mehr Infos dazu gibt. Wir müssen einfach die Watt-Verteilung wissen
Hatte ich ja schon angesprochen.
Die GPU braucht wesentlich mehr elektrische Leistung als die CPU.
Zudem steigt der Stromverbrauch überproportional mit steigender Frequenz an.
Deshalb wird die PS5 auch nur geringfügig ihren GPU Takt runterfahren müssen, wenn der CPU alles abverlangt wird.
Die Frage bleibt nur, wie hoch ist das Target für die elektrische Leistung angesetzt im Vergleich zu der maximalen Verlustleistung der GPU.
Könnte ja auch sein, was ich aber nicht annehme, dass die maximale Verlustleistung mit der maximalen GPU Verlustleistung zusammen fällt.
Dann kämme man zwar theoretisch auf die maximale TF Zahl von 10.28. Da aber für die CPU ja nix mehr übrig bliebe, wäre das Praktisch also unmöglich