• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Du solltest dir mal GPUs mit taktzahlen ab 2GHz anschauen und was sie Strom verbrauchen/sparen wenn man nur paar % reduziert.

Das ist Navi und geht nicht mal bis 2.23Ghz was locker 200% verbrauch wären gegenüber ihrer 100% bei 1.8Ghz
resultsshjg4.png


Und du willst 230mhz runter wenn man nur 10% von der gesamt power sparen müsste in dem fall? Ok
Und ja sie betreiben diesen aufwand, weil Smart shift möglich macht wovon man davor in konsolen nur geträumt hat beim takt.
Sieht nicht gut für die PS5 aus was den Stromverbrauch angeht mit ihren 2200MHz. Kein Wunder, dass sie so einen großen Turm gebaut haben, das muss auch gekühlt werden.

RDNA2 ist allerdings effizienter, man darf also hoffen, dass der Chip für die Taktraten nicht eine so hohe Spannung benötigt wie der Vorgänger...
 
sie werden auch fast ständig mit vollen takt fahren, denn wie gesagt, schaff erst mal jedes komponent der beiden Parteien mit code so aus zu lasten, das man etwas bei der GPU runter muss und das eben noch in 4K was es bei der GPU viel einfacher macht diese ins bottleneck zu bringen.
Das schaffen vielleicht mal ND oder GG in einigen Abschnitten, aber auch da würde eher schon vielleicht die Bandbreite limitierten.

Sieht nicht gut für die PS5 aus was den Stromverbrauch angeht mit ihren 2200MHz. Kein Wunder, dass sie so einen großen Turm gebaut haben, das muss auch gekühlt werden.

RDNA2 ist allerdings effizienter, man darf also hoffen, dass der Chip für die Taktraten nicht eine so hohe Spannung benötigt wie der Vorgänger...

Klar war RDNA2 auch noch mal nen grund warum man sich sagte, "da geht ja noch mehr bis wir am limit sind" ;)
Netzteil soll aber laut Leadbetter garnicht so viel max power ziehen wie schon manche glaubten.
 
Abwarten.
RDNA 2 hat eine 50 % Steigerung bei Perf/Watt.
Und die PS5 ist sehr effizient in ihrer APU was Auslastung und I/O anbelangt.

Angeblich nimmt sich das OS 2 GB und über 100 GB von der SSD.
14 GB GDDR6 für Games halte ich angemessen.
Die PS5 stellte 5 GB den DEVs zur Verfügung.
 
RDNA2 hat laut der XsX presentation letztens "nur" 25% perf/watt vorteil ;)
Liegt vielleicht dran das AMD nicht wie erst angegeben in 7nm+ fertigt.

Shit danke für den Hinweis. Was ist nur heute los?
Kannst du es erklären ob die PS5 die Taktraten dauerhaft halten kann und wie es mit dem Throtteln gemeint ist aus deiner Sicht erklären. Die PS5 scheint schon dafür gebaut zu sein dauerhaft die 2,23 GHz halten zu können, wenn man die Größe sieht, die Cooling Patente und das nur 25% Perf/Watt für RDNA 2 angegeben ist.

Du scheinst sehr gut zu verstehen wie es funktioniert lass mich an deinem Wissen deiner Sicht teilhaben.
 
Es geht mir um folgendes:
Dass die CPU nur Däumchen drehen darf, damit die GPU voll takten darf, ist natürlich vollkommen überspitzt ausgedrückt
Nur die Aussage, dass die GPU runtertaktet, um Energie zu sparen, wenn sie nicht beschäftigt ist, ist falsch.
CPU und GPU haben ein gemeinsames Power Budget, was sie zusammen nicht übersteigen dürfen. Das impliziert, dass CPU und GPU auf 100% Last dieses Budget übersteigen. Die Konsole ist schlicht und einfach nicht darauf ausgelegt, beides gleichzeitig komplett auszulasten.
Die Frage die sich hier stellt, ist: Warum machen sie das so? Vermutlich, weil sie es nicht gekühlt bekommen. Sonst macht es absolut keinen Sinn, Komponenten zu verbauen, die sich im Worst Case gegenseitig bremsen.

Die Frage die sich zuvor stellt, ist auch: wann ist es so (100% Auslastung aller Komponenten)?

Die Herangehensweise von Sony ist eine neue. Man wird sehen wie sich dies in der Praxis bewährt. Wenn es deterministisch ist, ist es weniger relevant als es den Anschein macht, man entwickelt als Spieleentwickler immerhin nicht auf Basis von Frequenzen.
Als Ergebnis bleibt erstmal: Hätte Sony den klassischen Weg eingeschlagen, hätte die PS5 im Durchschnitt weniger Leistung als aktuell.
 
Zuletzt bearbeitet:
Ist doch alles scheiß egal. Auch eine 9TF RDNA 2 Ps5 ist noch super und genug..Das sind wahrscheinlich so um die 12-13TF GCN Architektur. Also warum diese Vergleiche ? Schlussendlich wollen wir geile Games.Und auch paar Pixel Auflösung und Frames mehr oder weniger scheiß egal...Auf die Games wird es ankommen.
den entwicklern interessieren die kennzahlen schlicht nicht. was zählt sind taten (und hier scheint die ps5 schlitten mit der xsx zu fahren) aber warten wir ab

jemand der sein geld damit verdient

Lady Gaia schrieb:
Peak teraflop numbers are always misleading, which is why you see so many technically astute people write them off as a meaningful standalone metric. If you're looping then not every instruction is an FMAD, by definition. If you're actually processing meaningful inputs then you'll have execution stalls while waiting on data from the cache or RAM. If you're using the results of the operations to perform derivative operations then you're subject to additional small pipeline bubbles. The peak number is, at best, a relative benchmark and not a very good one. Highly optimized code is lucky to hit 30-40% of the theoretical peak, and it's far more important to run real-world code quickly than to win a paper spec war.

Unfortunately, the general public is addicted to overly simplistic measures and so the theoretical peak is what they're going to compare and as a rough measure across two similar architectures it should be in the ballpark. Without hands-on time with a dev kit I certainly can't prove otherwise. I am expecting that we'll see far more impact from other design considerations than the question of how fast straight-line code can run under ideal conditions. That's why I keep advocating waiting for games to come to any conclusions."
ein crytek ingenieur sagte was ähnliches.
 
Als Ergebnis bleibt erstmal: Hätte Sony den klassischen Weg eingeschlagen, hätte die PS5 im Durchschnitt weniger Leistung als aktuell.
Das ja, das streite ich nicht ab. Aber sie hat auch weniger (potenzielle) Leistung, als sie hätte, wenn die Konsole die maximalen Frequenzen einfach dauerhaft halten könnte. Darum geht's mir. Hier wurde behauptet, die APU würde nur bei geringer Auslastung zum Energiesparen heruntertakten. Das ist halt nicht so und ist auch nicht der Sinn von Smartshift. Und ich behaupte weiterhin, dass das damit zu tun hat, dass der maximale Takt der PS5 GPU ursprünglich nicht so hoch geplant war, wie er es jetzt ist. Aber wie gesagt und auch betont, das ist eine Behauptung und mein Gefühl.
 
Die Frage die sich zuvor stellt, ist auch: wann ist es so (100% Auslastung aller Komponenten)?

Die Herangehensweise von Sony ist eine neue. Man wird sehen wie sich dies in der Praxis bewährt. Wenn es deterministisch ist, man entwickelt als Spieleentwickler immerhin nicht auf Basis von Frequenzen.
Als Ergebnis bleibt erstmal: Hätte Sony den klassischen Weg eingeschlagen, hätte die PS5 im Durchschnitt weniger Leistung als aktuell.

Dann ist aber der Einwand von @kerv schon berechtigt.

Warum macht man so ein hickhack, wenn es nur um 2-3% Leistungseinbußen geht?
Umgekehrt ist es ja dann dasselbe.
Wenn ich nur 2-3% den Takt runterschalten muss, um wieder im Lot zu sein, heißt das im Gegenzug, das ich auch maximal 2-3% die GPU Leistung vom Minimalwert aus steigern kann, was nun wirklich den Braten nicht fett macht.

Das Einzige, was durch 3% Steigerung erreicht wird ist, dass die TF Anzahl der PS5 von knapp unter 10 auf knapp über 10TF steigt und man damit eben zweistellig wird, was einen gewissen psychologischen Effekt beim User auslösen kann :)

Aber alles andere ist der Mühe ja dann nicht wert.
 
Die Frage die sich zuvor stellt, ist auch: wann ist es so (100% Auslastung aller Komponenten)?

Die Herangehensweise von Sony ist eine neue. Man wird sehen wie sich dies in der Praxis bewährt. Wenn es deterministisch ist, man entwickelt als Spieleentwickler immerhin nicht auf Basis von Frequenzen.
Als Ergebnis bleibt erstmal: Hätte Sony den klassischen Weg eingeschlagen, hätte die PS5 im Durchschnitt weniger Leistung als aktuell.

Fühlt sich sowieso an wie eine Endlosschleife, nxgamer hat es im PS5 Full Spec Analysis schon vor Monaten auf den Punkt gebracht:

 
@123vorbei

Hab ja @kerv schon etwas erklärt warum es kein problem seien sollte, da eben die GPU eh meist das Bottleneck ist, erst recht bei Konsolen wo die höchst mögliche auflösung angepeilt wird. Das wissen natürlich auch die Sony Techniker und ihre Studios die ja immer mit einbezogen werden wenn sie an neuen Konsolen arbeiten, nach dem PS3 desaster.
Die würden das ja nicht machen und ne größere Konsole in kauf nehmen, wenn die nicht mindestens die selben Ergebnisse sehen würden wie AMD und in einer Konsole wird das noch besser genutzt werden können mit der Zeit imo.
Das CPU runtertakten wird ja bei smart shift bei grafisch aufwendigen games eher als vorteil gesehen aus dem statt als Nachteil, wie es ja viele falsch verstehen und AMD hat ja schon gezeigt was es der framerate in solchen games bringt ;)
Weiterer Anhaltspunkt warum es kein problem seien sollte, ist natürlich das viele Devs DF ja bestätigt haben, dass sie die GPU bei der Entwicklung einfach voll auf anschlag haben und die CPU ständig etwas runter , da sie laut Dictator eh so viel power hat die CPU. Die Devs wissen nätürlich auch da sie 4K anpeilen die GPU eh bremst irgend wann bevor die CPU überhaupt ans limit kommt und sie kennen ja auch den fokus ihrer games ;)
 
Das ist eine endlose Schleife. Genauso ist es endlos jemanden zu erklären, dass Smartshift und die 2,23 GHz 10,3 NICHT erst kurzfristig eingebaut wurden, was jeder Chiparchitekt bestätigt und ummöglich ist, da ein Silicon Jahre entwickelt wird und anschließend geprüft wird.

@123vorbei

Hab ja @kerv schon etwas erklärt warum es kein problem seien sollte, da eben die GPU eh meist das Bottleneck ist, erst recht bei Konsolen wo die höchst mögliche auflösung angepeilt wird. Das wissen natürlich auch die Sony Techniker und ihre Studios die ja immer mit einbezogen werden wenn sie an neuen Konsolen arbeiten, nach dem PS3 desaster.
Die würden das ja nicht machen und ne größere Konsole in kauf nehmen, wenn die nicht mindestens die selben Ergebnisse sehen würden wie AMD und in einer Konsole wird das noch besser genutzt werden können mit der Zeit imo.
Das CPU runtertakten wird ja bei smart shift bei grafisch aufwendigen games eher als vorteil gesehen aus dem statt als Nachteil, wie es ja viele falsch verstehen und AMD hat ja schon gezeigt was es der framerate in solchen games bringt ;)
Weiterer Anhaltspunkt warum es kein problem seien sollte, ist natürlich das viele Devs DF ja bestätigt haben, dass sie die GPU bei der Entwicklung einfach voll auf anschlag haben und die CPU ständig etwas runter , da sie laut Dictator eh so viel power hat die CPU. Die Devs wissen nätürlich auch da sie 4K anpeilen die GPU eh bremst irgend wann bevor die CPU überhaupt ans limit kommt und sie kennen ja auch den fokus ihrer games ;)

Das bringt schon mehr Licht ins dunkle. Also GPU immer auf Anschlag und die CPU etwas gedrosselt.
 
Das ist eine endlose Schleife. Genauso ist es endlos jemanden zu erklären, dass Smartshift und die 2,23 GHz 10,3 NICHT erst kurzfristig eingebaut wurden, was jeder Chiparchitekt bestätigt und ummöglich ist, da ein Silicon Jahre entwickelt wird und anschließend geprüft wird.

Smartshift ist eine Funktion von RDNA und nicht von Sony.
Wird in Laptops verwendet aber aus einem völlig anderem Beweggrund.
 
Das ja, das streite ich nicht ab. Aber sie hat auch weniger (potenzielle) Leistung, als sie hätte, wenn die Konsole die maximalen Frequenzen einfach dauerhaft halten könnte. Darum geht's mir. Hier wurde behauptet, die APU würde nur bei geringer Auslastung zum Energiesparen heruntertakten. Das ist halt nicht so und ist auch nicht der Sinn von Smartshift. Und ich behaupte weiterhin, dass das damit zu tun hat, dass der maximale Takt der PS5 GPU ursprünglich nicht so hoch geplant war, wie er es jetzt ist. Aber wie gesagt und auch betont, das ist eine Behauptung und mein Gefühl.
Bei geringerer Auslastung gibt es allgemein weniger elektrische Leistung und dann kommt Smartshift ins Spiel. Die adaptive Frequenzskalierung sollte unabhändig davon funktionieren und wird auch erst eingesetzt, wenn man hohe Frequenzen überhaupt einplant, weil dort die Energieeinsparung einfach überproportional ist.
Aus AMD's Paper zu Bulldozer (2015)
steamroller-clocking-21.png
 
@123vorbei

Hab ja @kerv schon etwas erklärt warum es kein problem seien sollte, da eben die GPU eh meist das Bottleneck ist, erst recht bei Konsolen wo die höchst mögliche auflösung angepeilt wird. Das wissen natürlich auch die Sony Techniker und ihre Studios die ja immer mit einbezogen werden wenn sie an neuen Konsolen arbeiten, nach dem PS3 desaster.
Die würden das ja nicht machen und ne größere Konsole in kauf nehmen, wenn die nicht mindestens die selben Ergebnisse sehen würden wie AMD und in einer Konsole wird das noch besser genutzt werden können mit der Zeit imo.
Das CPU runtertakten wird ja bei smart shift bei grafisch aufwendigen games eher als vorteil gesehen aus dem statt als Nachteil, wie es ja viele falsch verstehen und AMD hat ja schon gezeigt was es der framerate in solchen games bringt ;)
Weiterer Anhaltspunkt warum es kein problem seien sollte, ist natürlich das viele Devs DF ja bestätigt haben, dass sie die GPU bei der Entwicklung einfach voll auf anschlag haben und die CPU ständig etwas runter , da sie laut Dictator eh so viel power hat die CPU. Die Devs wissen nätürlich auch da sie 4K anpeilen die GPU eh bremst irgend wann bevor die CPU überhaupt ans limit kommt und sie kennen ja auch den fokus ihrer games ;)

Ändert aber ja nichts daran, dass auch mit Smartshift eben bei 10.28TF Ende im Gelände ist.
Bei Laptops gibt AMD bis zu 14% mehr Performance mittels Smartshift an.
Die PS5 erreicht hier ja nur 2-3% mehr, wie man ja hier allerorts aus Schlumphausen hört.
Ist für mich jetzt nicht umbedingt der neue heiße Scheiß
 
Smartshift ist eine Funktion von RDNA und nicht von Sony.
Wird in Laptops verwendet aber aus einem völlig anderem Beweggrund.

Ja ich weiß. Was ich sagen wollte man hat es nicht zwischen Angel und Tür eingebaut und geplant. In Laptops wird es verwendet wegen Akkulaufzeit. In der PS5 um die Leistung der CPU und GPU optimal zu verteilen wie es ein Spiel braucht, sowie die Konsole leise zu halten.
 
@Konsolenbaby
Du hast es nicht verstanden warum man 10% power sparen muss, denn es hat nix damit zu tun da Sony sonst nur 2-3% performance mehr hätte sondern einiges weniger ohne SS.
Hier kannst mal anschauen gerade in der mitte für dich Interessant
Nur 2-3% performence sehe ich da nicht ;) aber du verstehst es ja überhaupt nicht.
Und in Zukunft quote mich nicht wenn du Kindergarten Sprache benutzt, kannst du mit deinen Kumpels machen, ich will mit Erwachsenen diskusionen führen.
 
Zuletzt bearbeitet:
Das ist eine endlose Schleife. Genauso ist es endlos jemanden zu erklären, dass Smartshift und die 2,23 GHz 10,3 NICHT erst kurzfristig eingebaut wurden, was jeder Chiparchitekt bestätigt und ummöglich ist, da ein Silicon Jahre entwickelt wird und anschließend geprüft wird.
Oh, sowas wie Takt oder Taktsteuerung lässt sich schon verhältnismäßig kurzfristig ändern. Spricht absolut nichts dagegen. Die Architektur lässt sich nicht mal eben ändern, der Takt schon. Machen Intel und AMD ja im Desktop Bereich auch bis kurz vor Release
 
Oh, sowas wie Takt oder Taktsteuerung lässt sich schon verhältnismäßig kurzfristig ändern. Spricht absolut nichts dagegen. Die Architektur lässt sich nicht mal eben ändern, der Takt schon. Machen Intel und AMD ja im Desktop Bereich auch bis kurz vor Release
AMDs Lösung braucht extra Einheiten in ihren Dies. Also ja es spricht absolut dagegen.
 
Zurück
Top Bottom