• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Die Frage nach 8k Assets ist nicht so verkehrt. Immerhin verfolgt ja die UE5 den hoch interessanten Ansatz, pro Pixel wirklich nur max. einen Texel und ein Dreieck zu verwenden. Bei 1440p braucht es da nun wirklich keine 8k-Textur im RAM und der GPU.

Und die One zeigt uns sehr gut, wie wenig solche eine Angabe wirklich bedeutet. Kann sie doch sogar Petabytes streamen wie am Cross Gen Spiel Flight Simulator gigantisch und beeindruckend zu sehen ist.
 
Das ist korrekt, manche Vorteile sind allerdings eher esoterischer Natur, wie die Wunder SSD zum Beispiel. Während andere am Boden der Tatsachen bleiben, mit einer stärkeren und größeren APU mit deutlich leistungsfähigerer Grafikeinheit die nicht hochgeboostet werden muss und dennoch bei festem Takt überlegene Performance verspricht.
Die nächste Xbox wird also ständig ~150 Watt weg bratzen?
 
Die Frage nach 8k Assets ist nicht so verkehrt. Immerhin verfolgt ja die UE5 den hoch interessanten Ansatz, pro Pixel wirklich nur max. einen Texel und ein Dreieck zu verwenden. Bei 1440p braucht es da nun wirklich keine 8k-Textur im RAM und der GPU.

Und die One zeigt uns sehr gut, wie wenig solche eine Angabe wirklich bedeutet. Kann sie doch sogar Petabytes streamen wie am Cross Gen Spiel Flight Simulator gigantisch und beeindruckend zu sehen ist.
Die Frage wie MS Petabytes an Daten durch eine 50Mbit/s Datenverbindung quetscht, muss für den Cernymann schweißgebadete 8K Alpträume befeuern :goodwork: :pcat: :nyanwins:
 
opferst du nicht auflösung gegen pixelqualität mit deiner rtx in form von z.b rt?

hab ich auch nicht gesagt. die ursprungsaussage war die besten assets. montaalar bringt irgendetwas durcheinander oder ist in einer abwehrhaltung.

kurz nebenbei: auch zwischen gleich auflösende texturen kann es große diskrepanzen geben. die ps5 kann hier direkt von der ssd die besten texturen für die nächste szene in den speicher streamen. der pc und xsx sind videospeicher begrenzt.
Bei solchem Unsinn soll man also die Füße still halten?

Die nächste Xbox wird also ständig ~150 Watt weg bratzen?

Keine Sorge, die PS5 wird im Durchschnitt mehr verbrauchen, dank unökonomischem Takt.
 
Die nächste Xbox wird also ständig ~150 Watt weg bratzen?
Ich habe keine Ahnung warum du jetzt mit den Stromverbrauch kommst, aber stell dir mal Folgendes vor: Meine CPU zB. taktet permanent auf 4,9GHz auf 6 Kernen / 12 Threads und wenn sie nicht viel zu tun hat, schluckt sie lediglich 20 Watt, nur wenn sie voll ausgelastet wird verbraucht sie bis zu 100 Watt alleine und entwickelt auch dementsprechend Abwärme die es zu kühlen gilt. Hier muss man aber auch bedenken, dass der Takt nur einen Teil des Stromvebrauchs aus macht, wichtiger ist die Kernspannung, je höher diese ist, desto höher auch der Stromverbrauch, das ist bei GPUs nicht anders. -Natürlich würde man noch ein wenig bei der Stromrechnung sparen können, wenn sich der Takt deutlich runter regeln würde, die Ersparnisse halten sich aber zumindest in diesem Beispiel sehr in Grenzen.

Mit meiner Grafikkarte verhält sich das ähnlich, nur dass die erst auf 2GHz hochtaktet, wenn sie eine 3D Anwendung erkennt aber auch hier verbraucht sie deshalb nicht gleich 180 Watt, das tut sie nur bei 100% Auslastung, das ist also sehr spielabhängig.

Und ja, im Spielbetrieb wird die SeX sehr wahrscheinlich 150 Watt bzw. eher mehr schlucken,(und die PS5 wird sicherlich auch nicht unter diesem Wert liegen) zumindest wenn man anspruchsvollere NextGen Spiele in entsprechenden Auflösungen und Framerates spielt. Das hat auch die Xbox One X bereits die hier bei optimierten Spielen rund 170 Watt aus der Leitung zog:

anandtech schrieb:
Clearly gaming on older Xbox One games is not much of a chore for the Xbox One X, since the power draw is only about 50 W over idle. But, when gaming with an Xbox One X Enhanced title, such as Gears of War 4, the power draw jumps significantly to 172 W as the peak observed. This is quite a jump over the original console, and makes the cooling system, which is barely audible even under these loads, even more impressive. Compared to a high-end gaming PC though, the power draw is quite a bit less.

Keine Sorge, die PS5 wird im Durchschnitt mehr verbrauchen, dank unökonomischem Takt.
Sehr wahrscheinlich ja, ist aber schwer zu sagen. Die Frage ist wie effizient RDNA 2 wirklich ist, höherer Takt heißt aber auch immer höhere Spannung und ab nem gewissen Punkt muss man die Voltage soweit erhöhen, dass der Stromverbrauch exponentiell ansteigt -damit auch die Abwärme. Die 1825MHz von MS scheinen ein guter Anhaltspunkt für den Sweetspot der Architektur zu sein, während Cerny sie ans Limit treibt um mit der deutlich geringeren CU Zahl nicht völlig den Anschluss an das SeX Monster zu verlieren :shakehead:
 
Zuletzt bearbeitet:
Ich habe keine Ahnung warum du jetzt mit den Stromverbrauch kommst, aber stell dir mal Folgendes vor: Meine CPU zB. taktet permanent auf 4,9GHz auf 6 Kernen / 12 Threads und wenn sie nicht viel zu tun hat, schluckt sie lediglich 20 Watt, nur wenn sie voll ausgelastet wird verbraucht sie bis zu 100 Watt alleine und entwickelt auch dementsprechend Abwärme die es zu kühlen gilt. Hier muss man aber auch bedenken, dass der Takt nur einen Teil des Stromvebrauchs aus macht, wichtiger ist die Kernspannung, je höher diese ist, desto höher auch der Stromverbrauch, das ist bei GPUs nicht anders. -Natürlich würde man noch ein wenig bei der Stromrechnung sparen können, wenn sich der Takt deutlich runter regeln würde, die Ersparnisse halten sich aber zumindest in diesem Beispiel sehr in Grenzen.

Mit meiner Grafikkarte verhält sich das ähnlich, nur dass die erst auf 2GHz hochtaktet, wenn sie eine 3D Anwendung erkennt aber auch hier verbraucht sie deshalb nicht gleich 180 Watt, das tut sie nur bei 100% Auslastung, das ist also sehr spielabhängig.

Und ja, im Spielbetrieb wird die SeX sehr wahrscheinlich 150 Watt bzw. eher mehr schlucken,(und die PS5 wird sicherlich auch nicht unter diesem Wert liegen) zumindest wenn man anspruchsvollere NextGen Spiele in entsprechenden Auflösungen und Framerates spielt. Das hat auch die Xbox One X bereits die hier bei optimierten Spielen rund 170 Watt aus der Leitung zog:




Sehr wahrscheinlich ja, ist aber schwer zu sagen. Die Frage ist wie effizient RDNA 2 wirklich ist, höherer Takt heißt aber auch immer höhere Spannung und ab nem gewissen Punkt muss man die Voltage soweit erhöhen, dass der Stromverbrauch exponentiell ansteigt -damit auch die Abwärme. Die 1825MHz von MS scheinen ein guter Anhaltspunkt für den Sweetspot der Architektur zu sein, während Cerny sie ans Limit treibt um mit der deutlich geringeren CU Zahl nicht völlig den Anschluss an das SeX Monster zu verlieren :shakehead:
Konsolen haben bisher ihre Leistung über die Spannung geregelt. Die PS5 wird sie jetzt dynamisch über die Frequenz regeln und mit smartshift auch sogar die Spannung, wenn ich die PK noch richtig in Erinnerung habe. Der Vorteil den man sich verspricht ist die CPU/GPU bei manchen Berechnungen wie bspw in Menus mit kleineren Geometrieberechnungen nicht unnötig heiß laufen zu lassen.
Wie man sieht ist die PS5 auch hier true-next gen :nix:
 
Zuletzt bearbeitet:
  • Lob
Reaktionen: Red
Konsolen haben bisher ihre Leistung über die Spannung geregelt. Die PS5 wird sie jetzt dynamisch über die Frequenz regeln und mit smartshift auch sogar die Spannung, wenn ich die PK noch richtig in Erinnerung habe. Der Vorteil den man sich verspricht ist die CPU/GPU bei manchen Berechnungen wie bspw in Menus mit kleineren Geometrieberechnungen nicht unnötig heiß laufen zu lassen.
Wie man sieht ist die PS5 auch hier true-next gen :nix:
Was hier los wäre, wenn dir Hardware umgekehrt wäre und ein Xboxler so einen Unfug geschrieben hätte... undenkbar
 
Konsolen haben bisher ihre Leistung über die Spannung geregelt. Die PS5 wird sie jetzt dynamisch über die Frequenz regeln und mit smartshift auch sogar die Spannung, wenn ich die PK noch richtig in Erinnerung habe. Der Vorteil den man sich verspricht ist die CPU/GPU bei manchen Berechnungen wie bspw in Menus mit kleineren Geometrieberechnungen nicht unnötig heiß laufen zu lassen.
Wie man sieht ist die PS5 auch hier true-next gen :nix:

Konsolen arbeiten mit konstanter Frequenz und konstanter Spannung. Werden weniger Rechenwerke beansprucht, fließt weniger Strom und deshalb wird weniger Watt verbraten. Deshalb drehen die Lüfter bei Games, die die Konsole ausreizen, eben auch schneller, was sich in höhere Lautstärke bemerkbar macht.
Die XSX verfährt genauso. Ihre Kühltechnik ist dafür ausgelegt, mit maximaler Leistung klar zu kommen, wenn GPU und CPU bis aufs letzte ausgereitzt werden.
Und dabei bleibt sie auch noch flüsterleise wie die X.

Bei der PS5 ist das eben nicht der Fall. Ihr Leistungsbudget liegt unter dem, was CPU und GPU benötigen, wenn sie voll aufdrehenr, weshalb eben CPU und GPU nie gleichzeit voll belastet sein dürften bei ihrer maximalen Frequenz. Dafür sorgt dann Smartshift.
Dass das überhaupt nötig ist, liegt eben daran, dass man die 36CU so hoch jubeln muss, um eben die 10TF Marke zu durchbrechen.

Hier wird immer angeführt, dass die PS5 in den meinsten Fällen sowohl bei CPU als auch bei der GPU den vollen Takt halten kann.
Das ist durchaus möglich, bringt nur nix, wenn das nur in den Fällen geht, wenn das System eben nicht richtig belastet wird.
Das ist das gleiche Szenario wie bei jeder anderen Konsole. Wenn da nichts gefordert wird, verbrauchen die Kisten auch wesentlich weniger Strom obwohl alle Komponenten immer mit Maximaltakt laufen.
Läuft also die GPU der PS5 auf Vollast, muss die CPU Einsparungen vornehmen.
Und damit das auch funktioniert, muss folglich der Takt runtergeschraubt werden.
Denn sonst kann man wohl kaum garantieren, dass die CPU nicht doch mehr Leistung verbrät und somit das Gesamtleistungsbudget sprengt..
Gleiches natürlich auch umgekehrt.


Halten wir also fest
Die XSX kann alle ihre Komponenten mit maximaler Performance betreiben, da das System eben hierfür ausgelegt ist.
Die PS5 muss Kompromisse machen wenn eine Komponente maximal performen soll.
Wie genau dieser Kompromiss aussieht, kann man noch nicht genau sagen, da sich Sony hierzu bedeckt hält.

Aber einen Hinweis gibts ja schon und den von Mr Cerny persönlich.
In der Präsi spricht er davon, dass man die GPU nur wenige Prozent runtertakten müsse um 10% an Leistung zu sparen.
Das sagt eigentlich schon alles..
Im Umkehrschluss bedeutet das ja, dass man für ein paar Prozent mehr Takt, gleich 10% mehr elektrische Leistung benötigt und somit ist klar, dass die 2.23GHz der PS5 GPU weit über dem Sweet spot liegen und das Teil vermutlich gar mehr Strom verbraucht als die XSX trotz Smartshift.

Smartshift ist eigentlich auch eine Technik für Laptops und hat einen ganz anderen Zweck als den, den Sony uns da verkaufen will.
 
Konsolen haben bisher ihre Leistung über die Spannung geregelt. Die PS5 wird sie jetzt dynamisch über die Frequenz regeln und mit smartshift auch sogar die Spannung, wenn ich die PK noch richtig in Erinnerung habe. Der Vorteil den man sich verspricht ist die CPU/GPU bei manchen Berechnungen wie bspw in Menus mit kleineren Geometrieberechnungen nicht unnötig heiß laufen zu lassen.
Wie man sieht ist die PS5 auch hier true-next gen :nix:
Smartshift, die Notebook-Lösung, also True-Next-Gen. :kruemel:
 
Smartshift ist eigentlich auch eine Technik für Laptops und hat einen ganz anderen Zweck als den, den Sony uns da verkaufen will.
Ernsthaft. Jetzt wird hier so getan, als gäbe es SS nur zum Energiesparen ?

Ist schlicht und ergreifend eine Notlösung, weil die PS5 sonst in Flammen aufgehen würde. Buchstäblich.
 
Smartshift ist ja auch ne nette Technik, muss man AMD lassen(auch wenn es eher eine Lösung aus der Not heraus ist, versteht sich), bin auf deren Notebook APUs wirklich gespannt, wobei die wahrscheinlich wieder eher mittelmäßige GPU Komponenten spendiert bekommen, man wird am Gaming Laptop also wohl auch weiterhin auf separate GPUs setzen für ein Maximum an Performance.

Blöd ist die Technik allerdings wenn beides stark beansprucht wird: Die CPU und die GPU, zB. in Anwendungen wie Videospielen die man mit 60FPS betreiben möchte, aber gut, das ist ja auch nicht der Fokus der PS5, wie uns schon die 30 FPS UE5 Demo zeigte. Will nicht wissen wie grausig sie mit 60FPS als Target ausgesehen hätte, dann wäre der "Boost" auf 2Ghz oder weniger runter und grafisch hätte man ordentlich Abstriche machen müssen, wahrscheinlich wäre das dann optisch kaum von der PS4PROpeller zu unterscheiden gewesen :lol:

60FPS auf PS5 werden also eher ne Rarität werden, zum einen wird dann die CPU mehr gefordert, was mehr Hitze erzeugt und der GPU Luft zum Boosten nimmt, zum anderen bleiben die selben Probleme wie in der aktuellen Generation bestehen, wo man um jeden Preis Optik vor Gameplay setzt und dafür jede Sekunde 30 Bilder opfert.

Im Umkehrschluss bedeutet das ja, dass man für ein paar Prozent mehr Takt, gleich 10% mehr elektrische Leistung benötigt und somit ist klar, dass die 2.23GHz der PS5 GPU weit über dem Sweet spot liegen und das Teil vermutlich gar mehr Strom verbraucht als die XSX trotz Smartshift.
Wir beide wissen d och warum der Takt gewählt wurde: Damit Cernymann eine zweistellige TF-Zahl anpreisen kann um die PS5 nicht völlig unterlegen dastehen zu lassen, dass die meisten games sich wohl bei 2,1GHZ oder weniger einpendeln um Strom und vor allem Abwärme zu reduzieren kann man dann gekonnt unter den Teppich kehren :goodwork:
 
Zuletzt bearbeitet:
Guten Morgen @Avi!
hab ich auch nicht gesagt. die ursprungsaussage war die besten assets. montaalar bringt irgendetwas durcheinander oder ist in einer abwehrhaltung.

kurz nebenbei: auch zwischen gleich auflösende texturen kann es große diskrepanzen geben. die ps5 kann hier direkt von der ssd die besten texturen für die nächste szene in den speicher streamen. der pc und xsx sind videospeicher begrenzt.
Ich bezog mich aber auf deine nur PS5 kann 8K Aussage....das die PS5 generell im Vorteil beim Laden von Texturen ist bestreitet niemand.
Ich muss auch keine Abwehrhaltung einnehmen....es ist klar kommuniziert das die XSX andere Dinge besser macht, oder nur diese bieten kann....und da kann der PC nachziehen, die PS5 aber nicht.....wie auch das keine der beiden Konsolen bei irgendwas im Endergebnis völlig überlegen ist.
Auch das mögliche Ergebnis auf anderen Plattformen bei der UE5 Demo ist nunmal weiterhin offen ..ok folgendes sieht gut aus, aber ist das PS5 only?
statues4xjp2.png


Und sofern du nicht 8K vs 1K Texturen in den Raum stellen möchtest, stellt sich die Frage ob die Vorteile die eine 8K Textur zu einer 4K(+) Textur noch erreichen kann nicht dadurch wieder flöten gehen wenn dadurch die Auflösung auf unter 1440p runter muss....oder ob es für das Gesamtbild nicht gar besser wäre bei 4K zu bleiben mit einer 4K Auflösung.....das bleibt offen...
Die Frage nach 8k Assets ist nicht so verkehrt. Immerhin verfolgt ja die UE5 den hoch interessanten Ansatz, pro Pixel wirklich nur max. einen Texel und ein Dreieck zu verwenden. Bei 1440p braucht es da nun wirklich keine 8k-Textur im RAM und der GPU.

Und die One zeigt uns sehr gut, wie wenig solche eine Angabe wirklich bedeutet. Kann sie doch sogar Petabytes streamen wie am Cross Gen Spiel Flight Simulator gigantisch und beeindruckend zu sehen ist.
Doch, @randomlrossy kann uns das erklären!
Konsolen haben bisher ihre Leistung über die Spannung geregelt. Die PS5 wird sie jetzt dynamisch über die Frequenz regeln und mit smartshift auch sogar die Spannung, wenn ich die PK noch richtig in Erinnerung habe. Der Vorteil den man sich verspricht ist die CPU/GPU bei manchen Berechnungen wie bspw in Menus mit kleineren Geometrieberechnungen nicht unnötig heiß laufen zu lassen.
Wie man sieht ist die PS5 auch hier true-next gen :nix:
Und im PS5 Bereich wurde @Konsolenbaby noch zurechtgestutzt als er SS bei Konsolen in den Raum gestellt hatte.....ok, war vor dem Reveal.....
 
Smartshift, die Notebook-Lösung, also True-Next-Gen. :kruemel:
SmartShift ist die Funktion die Leistung zwischen CPU und GPU besser zu regeln und selbst wenn SoCs sind die Smartphone Lösungen, die überhaupt heute solche Leistungen in Konsolen ermöglichen. Ob man da boost oder base clocks anfahren kann ist ja dann eher eine veralterte Geschichte. SmartShift wurde, wenn ich mich recht erinerre als Bonus in der Präsentation aufgeführt.

@Konsolenbaby
Ja meinte die Leistung mit Spannung und Strom, deshalb meine Anmerkung ständig die 150W zu heißen. Cernys Bsp war, für bestimmte Anwendungen die GPU die GPU trotzdem heiß laufen lassen, obwohl sie nur im Menu sind. Mit der Frequenz lässt sich das eben beheben.
 
666 :devilish:

Naja, war ja eigentlich zu erwarten. Aber die sollen mal hinmachen, da Nvidia momentan schön abwarten kann.
Bei GPUs warte ich auch weiterhin lieber auf Nvidia. Aber die nächste CPU wird wohl eine von AMD, nicht zuletzt weil Intel viel zu lange braucht (eigentlich wollte ich auch DDR5 RAM abwarten, aber das braucht noch ein paar Jahre)
 
Konsolen arbeiten mit konstanter Frequenz und konstanter Spannung. Werden weniger Rechenwerke beansprucht, fließt weniger Strom und deshalb wird weniger Watt verbraten. Deshalb drehen die Lüfter bei Games, die die Konsole ausreizen, eben auch schneller, was sich in höhere Lautstärke bemerkbar macht.
Die XSX verfährt genauso. Ihre Kühltechnik ist dafür ausgelegt, mit maximaler Leistung klar zu kommen, wenn GPU und CPU bis aufs letzte ausgereitzt werden.
Und dabei bleibt sie auch noch flüsterleise wie die X.

Bei der PS5 ist das eben nicht der Fall. Ihr Leistungsbudget liegt unter dem, was CPU und GPU benötigen, wenn sie voll aufdrehenr, weshalb eben CPU und GPU nie gleichzeit voll belastet sein dürften bei ihrer maximalen Frequenz. Dafür sorgt dann Smartshift.
Dass das überhaupt nötig ist, liegt eben daran, dass man die 36CU so hoch jubeln muss, um eben die 10TF Marke zu durchbrechen.

Hier wird immer angeführt, dass die PS5 in den meinsten Fällen sowohl bei CPU als auch bei der GPU den vollen Takt halten kann.
Das ist durchaus möglich, bringt nur nix, wenn das nur in den Fällen geht, wenn das System eben nicht richtig belastet wird.
Das ist das gleiche Szenario wie bei jeder anderen Konsole. Wenn da nichts gefordert wird, verbrauchen die Kisten auch wesentlich weniger Strom obwohl alle Komponenten immer mit Maximaltakt laufen.
Läuft also die GPU der PS5 auf Vollast, muss die CPU Einsparungen vornehmen.
Und damit das auch funktioniert, muss folglich der Takt runtergeschraubt werden.
Denn sonst kann man wohl kaum garantieren, dass die CPU nicht doch mehr Leistung verbrät und somit das Gesamtleistungsbudget sprengt..
Gleiches natürlich auch umgekehrt.


Halten wir also fest
Die XSX kann alle ihre Komponenten mit maximaler Performance betreiben, da das System eben hierfür ausgelegt ist.
Die PS5 muss Kompromisse machen wenn eine Komponente maximal performen soll.
Wie genau dieser Kompromiss aussieht, kann man noch nicht genau sagen, da sich Sony hierzu bedeckt hält.

Aber einen Hinweis gibts ja schon und den von Mr Cerny persönlich.
In der Präsi spricht er davon, dass man die GPU nur wenige Prozent runtertakten müsse um 10% an Leistung zu sparen.
Das sagt eigentlich schon alles..
Im Umkehrschluss bedeutet das ja, dass man für ein paar Prozent mehr Takt, gleich 10% mehr elektrische Leistung benötigt und somit ist klar, dass die 2.23GHz der PS5 GPU weit über dem Sweet spot liegen und das Teil vermutlich gar mehr Strom verbraucht als die XSX trotz Smartshift.

Smartshift ist eigentlich auch eine Technik für Laptops und hat einen ganz anderen Zweck als den, den Sony uns da verkaufen will.

Nachdem ich heute auf era das hier gelesen habe:

https://www.resetera.com/threads/pl...ve-ot-secret-agent-cerny.175780/post-36022468

variablepowerudkmp.gif


Ich glaube dein PS5 Szenario stimmt nicht ganz.
Das hochdrehen der Lüfter durch Beanspruchung/Berechnungen haben ihre Spikes meist nicht bei den komplexen Szenen in Spielen, sondern in Momenten wie Maps bei AC Odyssey oder Horizon ZD, also "einfacheren" Befehlen die die gesamte CPU/GPU beschäftigen.

Mit den variablen clockspeeds und Monitoring der Prozesse werden diese Leistungsspitzen nach unten korrigiert und man kommt sogar mehr an die theoretische Leistung des Systems in Spieleszenen heran.

Während man bei festen Clockspeeds immer die maximale Leistung zieht, muss man sehr großzügig um den Worst Case herumkonstruieren und bei variablen Clockspeeds kann man höher gehen, den Worst Case damit festsetzen und das Kühlsystem um diesen Worst Case herumbauen. Man hat also die unnötigen Leistungsspitzen im System eliminiert und gleichzeitig den Sweetspot für Spieleszenen näher an das theoretische Maximum gebracht.

Bringt dass nicht sogar Entwicklern wieder etwas, da die PS5 Hardware diese Worst Case Szenarien durch das Monitoring und die Steuerung der variablen Clockspeeds unterbindet sowie mehr Luft nach oben schafft?
 
Zurück
Top Bottom