ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Kann oder wird? Kannst du das konkretisieren?




Gibt noch immer keine drei FLOPS mehr.

kannst du ausschliessen, dass die schnelle xbox ssd keine spielewelten zaubern können wird, die die sony ssd angeblich zu leisten im stande ist?

da wären wir wieder bei meiner anfangsfrage. was macht euch sony anhänger so sicher, dass sony mit der ihrer ssd um soviel besser sein soll, was zukünftige spielewelten angeht, dass die diffrenz von 3tflops nonchalant bei seite geschoben wird!? schliesslich haben beide konsolen eine sauschnelle nonkonventionelle ssd, die sich gravierend von einer hdd unterscheidet und selbst herkömlichen pc ssds überlegen ist und beiden konsolen neue möglichkeiten bieten wird.
 
Cerny hat erklärt, dass ihre GPU drosselt, wenn die Instruktionen zu heftig werden. Er nannte das ganze deterministisch und vorhersehbar. Was soll daran vorhersehbar sein, wenn ein ein CPU-Task (vielleicht noch vom OS) plötzlich mehr Last benötigt? Ich würde ja mal vermuten, dass passiert schon wenn der Dev seine Shader kompiliert. Wie soll das sonst deterministisch sein?

Jep, es ist vorhersehbar wo ein "worst case" auftreten würde und DF hat mit Devs nach erhalten der Specs von Sony gesprochen wie es genau in so nem Fall funktioniert.

Devs will choose whether they want full Power to gpu or full Power to CPU where one or the other underclocks below the listed spec. So a game to game Basis. I imagine most cross gen games will choose to prefer higher clocked gpu Mode as they will be gpu bound even if the Zen cores are underclocked. Zen just runs around the Jag that most cross gen games are not going to worry about CPU time, especially 30 fps games.

That is how it works.

Und warum 5GB/s SSD, weil das nach Gesprächen mit über 2 Dutzend Studios das richtige target für Cerny war, weill alle eine suoer schnelle SSD wollten. Aber sagt er doch in der Keynote.
 
kinder, was ich nicht verstehe ist, dass ihr so tut, als ob sony die 3tflops differenz gegenüber der xbox mit ihrer wunder ssd ausgelichen können wird? wenn ja, gilt das ja auch gleichzeitig wieder für die xbox series x, die dann aus ihren 12tflop auch mehr herausholen könnte. denn schliesslich wird ja auch die xbox von ihrer ssd stark profitieren, wenn es darum geht spiele "ressourcenschonender" zu designen, um so mehr leistung rauszuholen.

beide hersteller sind den flaschenhals einer hdd los und beide verwenden nonkoventionelle ssds. dass die der ps5 schneller ist, wird den kohl nicht fett machen, weil beide die voraussetzungen für neue spieledeigns mit ihren custom ssds gelegt haben . die ssd der sony konsole wird die spiele im besten fall höchstens ein 1-2 sekunden schneller laden. dass so ein terz daraus gemacht wird, verwundert mich und immer so getan wird, als hätte die xbox sx keine ssd.

die jubelartikel von irgendwelchen devs müsst ihr im mal kontext lesen. die sagen nicht, dass die konsole besser als die xbox werden wird, sondern, dass man sich sich nicht von den wenigen sony tflops täuschen lassen sollte. gilt dann aber auch für die xbox, die auch mehr aus ihren 12tflops herausholen könnten.
 
kannst du ausschliessen, dass die schnelle xbox ssd keine spielewelten zaubern können wird, die die sony ssd angeblich zu leisten im stande ist?

da wären wir wieder bei meiner anfangsfrage. was macht euch sony anhänger so sicher, dass sony mit der ihrer ssd um soviel besser sein soll, was zukünftige spielewelten angeht, dass die diffrenz von 3tflops nonchalant bei seite geschoben wird!? schliesslich haben beide konsolen eine sauschnelle nonkonventionelle ssd, die sich gravierend von einer hdd unterscheidet und selbst herkömlichen pc ssds überlegen ist und beiden konsolen neue möglichkeiten bieten wird.

Woher nimmst du 3 TF Unterschied (10.3 zu 12.1 sind 1,8)?
Wie sehr nun die schnellere SSD Unterschiede machen wird, werden wir sehen. 3rds werden generell auf den kleinsten gemeinsamen Nenner entwickeln, 1st Party werden zeigen was auf beiden Geräten geht.
Nib95 von resetera hat vor Tagen einen guten, langen Post Vergleich current gen und next gen. In kurz, es ist der geringste technische Abstand, den wir je gesehen haben.

That's not how things work lol. It's the percentage difference that matters, not the Tflop number between them, as performance scales with resolution.

Whilst the difference between the XSX and PS5 may be a PS4's worth in Tflops, the reality is that 17% difference might lead to very small graphical or resolution differences that are most likely going to be fairly negligible, as there is such a thing as diminishing returns the further up the resolution scale you go. That is if devs choose resolution to take the hit over frame rate, which I'd imagine they would (similar to this gen with the PS4 Pro).

To clarify on why the differences are so much less this gen.

Performance:

The PS4 has 40% more computational power than the Xbox One (1.84 Tflops vs 1.31 Tflops).

The Series X has 17% more computational power than the PS5 (12 Tflops vs 10.28 Tflops)

In other words, the performance delta was far greater this gen than it will be next gen.

Clockspeed:

The Xbox One's GPU clocks were 6.6% faster than the PS4's (853 MHz vs 800 MHz).

The PS5's GPU clocks are 22% faster than the Series X's (2.23Ghz vs 1.825GHz).

The benefits of a higher clockspeed that some have discussed were less apparent at the start of this gen than they are with the PS5/XSX.

Storage:

Both the Xbox One and PS4 came with a standard 5400rpm HDD.

The PS5 has an 825GB SSD at 5.5 GB/s, whilst the XSX has a 1TB SSD at 2.4 GB/s, so the PS5's storage is around 129% faster.

So here the PS5 actually has a clear advantage, unlike with the Xbox One and PS4 that were a wash.

Memory:

The Xbox One has 8GB of DDR3 at 68.26 GB/s and just 32MB of eSRAM at 204 GB/s. The PS4 has 8GB of GDDR5 at 176.0 GB/s. In other words the PS4's 8GB's of ram was 158% faster than the XO's.

The Series X has 16GB of GDDR6, 10GB of which is at 560GB/s and 6GB of which is at 335GB/s, whilst the PS5 also has 16GB of GDDR6 the entirety of which is at 448GB/s. So the PS5's ram is 34% faster than 6GB's of the Series X's, whilst 10GB of the Series X's ram is 25% faster than the PS5's.

In other words, there isn't anywhere near the gulf in memory performance between the PS4/XO as there is with the PS5/XSX.


Ultimately, the performance gulf between the Xbox One and PS4 was much bigger, and unlike with the Xbox One which essentially had no performance advantages over the PS4 (hence people resorted to secret sauces like Cloud, dGPU etc that didn't actually have provable or scientific benefits), the PS5 actually has a couple of real and tangible advantages over the Xbox Series X, or areas where they're near enough matched.

Link
 
Jep, es ist vorhersehbar wo ein "worst case" auftreten würde und DF hat mit Devs nach erhalten der Specs von Sony gesprochen wie es genau in so nem Fall funktioniert

Das habe ich schon im PS5 Thread vermutet, das die Devs sich aussuchen müssen auf welche Komponente sie mehr setzten wollen. Das wäre imo ein gewisser Nachteil.

Bei Next Gen Games welche dann verstärkt auf die CPU setzen müsste die PS5 GPU gedrosselt werden.

Denn Devs im ERA schreiben immer was von knapp 20% differenz bei der GPU und in offiziell gibts die Zahl auch nicht.

Wie auch wenn der eine mit "Up to" ankommt ... kann somit auch höher werden wenn die GPU runter takten muss.
 
Cerny hat erklärt, dass ihre GPU drosselt, wenn die Instruktionen zu heftig werden. Er nannte das ganze deterministisch und vorhersehbar. Was soll daran vorhersehbar sein, wenn ein ein CPU-Task (vielleicht noch vom OS) plötzlich mehr Last benötigt? Ich würde ja mal vermuten, dass passiert schon wenn der Dev seine Shader kompiliert. Wie soll das sonst deterministisch sein?

So wie ich es in Erinnerung habe bezog er den Determinismus darauf, dass alle Konsolen gleich reagieren
Fährt also Konsole A in Sekunde X den Takt (CPU oder GPU) runter, dann auch Konsole B, C usw.
Bei gleichem Szenarium natürlich
Das soll dann auch unabhängig von der Umgebungstemperatur so sein.
Der Entwickler kann aber, dass sehe ich wie du, das gar nicht genau abschätzen, wann die Konsole eben so reagiert, wie sie reagiert.
 
Glaub mir, ich wäre froh wenn selbst Sony Studios mal exclusive games machen die 100% die Zen2 CPU nutzen würden und mich würde dann überhaupt nicht jucken ob paar Mhz GPU takt runter geht, weil dann die CPU der Flaschenhals wäre. Aber ich bezweifle das wir das oft sehen werden, da die GPU meist wieder zu Flaschenhals wird.

@Konsolenbaby

Den post hab ich leider nicht gespeichert, aber laut Dictator kann man alles über Monitoring tools exakt sehen damit man weiter hin 100% to the Metal coden kann. Aber ist auch klar, wenn man schonmal so tools zur Optimierung gesehen hat, was man da alles sieht für jede ms.
Und ja jede Konsole wird exakt 1:1 gleich laufen und takten.
 
kannst du ausschliessen, dass die schnelle xbox ssd keine spielewelten zaubern können wird, die die sony ssd angeblich zu leisten im stande ist?

da wären wir wieder bei meiner anfangsfrage. was macht euch sony anhänger so sicher, dass sony mit der ihrer ssd um soviel besser sein soll, was zukünftige spielewelten angeht, dass die diffrenz von 3tflops nonchalant bei seite geschoben wird!? schliesslich haben beide konsolen eine sauschnelle nonkonventionelle ssd, die sich gravierend von einer hdd unterscheidet und selbst herkömlichen pc ssds überlegen ist und beiden konsolen neue möglichkeiten bieten wird.


Ich weiß nicht was du immer mit "euch" willst und du weiterhin zum dritten Male konsequent ignorierst, dass es keine 3TFLOPS Differenz gibt.

Warum eigentlich ignorierst du Leistungsvorteile der PS5?
 
Zuletzt bearbeitet:
Jep, es ist vorhersehbar wo ein "worst case" auftreten würde und DF hat mit Devs nach erhalten der Specs von Sony gesprochen wie es genau in so nem Fall funktioniert.
Keine Ahnung was DF da von Power labert. Power ist immer die gleiche, die Taktung wird aber bei Instruktionen, die zu viel Energie benötigen, reduziert.

Und warum 5GB/s SSD, weil das nach Gesprächen mit über 2 Dutzend Studios das richtige target für Cerny war, weill alle eine suoer schnelle SSD wollten. Aber sagt er doch in der Keynote.
In seinem 'deep dive' hat Cerny kein Szenario genannt, was ein Zwanzigstel einer Spieleinstallation in einer einzigen Sekunde benötigt. Er hat gezeigt, dass es gut ist einen schnellen Datenträger zu haben, wenn man sich halt in einem Spiel um die eigene Achse drehen muss. Das bezweifelt ja auch niemand. Warum das aber entpackt 9GB sein sollen, hat er nicht aufgezeigt.
 
20% weniger Leistung bedeutet - Bei identischer Grafik Qualität:

Bei einem 30 Frames game halt 24 Frames
Bei einem 60 Frames Game 48 Frames

Und das wohl inkl noch weniger Ray Tracing Effekten...

Da wie sie aber auch sagen die PS5 GPU durch den takt in einigen bereichen schneller laüft kann man es noch schwer abschätze. Aber wenn nicht mehr als 10GB Ram benötigt werden passt es wieder durch die Bandwidth imo.
Und das ist ohne Dynamische Auflösung ;) games werden natürlich gleiches Framerate target haben.
 
Ganz schön schwach.


Wobei das von mir natürlich eher ironisch gemeint war

Denn ich glaube dass die Unterschiede in der nächsten Genration für den Konsumenten quasi nicht sichtbar sein werden.


Tools wie DLLS (also hochskaliertem 4k mittels Machine Learning) und Dynamic Resolution sorgen jetzt schon am PC, dass selbst mit deutlich langsamerer Hardware nahezu identische "image quality" erreicht wird, wie mit deutlich bessere Hardware mit nativen 4k.

Bei Wolfenstein und Control sehen selbst die Experten von Digital Foundry mit Analysetools (riesiger Vergrößerung und Standbildern) praktisch keine Unterschiede. Ob da ein Spiel in 4k läuft oder nur in Full HD mit DLLS ist für Menschen mit freiem Auge beim Zocken selbst sowieso nicht unterscheidbar.

Sprich: Bei der PS5 wird wohl einfach die native Auflösung bei Spielen reduziert werden, damit man die gleichen FPS erreicht wie auf der XSX erhält, und dank DLLS und anderer neuer Software Tricks der Next Gen, wird man praktisch keinen Unterschied sehen....
 
Zuletzt bearbeitet:
@Nullpointer
Und eben da kann man auch nur die CPU laut Devs um paar Mhz reduzieren um das Power limit was im extrem fall 10% zu viel seine könnte wieder auf 100% zu senken. Und laut Cerny soll das selten der fall sein.
Da würde ich mir keine sorgen machen, wenn selbst der kleine Jaguar gebremst wurde, erst recht von der zwischen gen in höheren Auflösungen.
Am PC immer schön zu beobachten wie die CPU Auslastung stinkt, je höher man die settings und Auflösung stellt. Aber ich bin zuversichtlich das wir die Zen2 viel besser ausgelastet bekommen endlich in den Konsolen :goodwork:
Ichnwill auch auf dem Ryzen 4000 ende des Jahres was davon haben ;)
 
Wobei das von mir natürlich eher ironisch gemeint war

Denn ich glaube dass die Unterschiede in der nächsten Genration für den Konsumenten quasi nicht sichtbar sein werden.


Tools wie DLLS (also hochskaliertem 4k mittels Machine Learning) und Dynamic Resolution sorgen jetzt schon am PC, dass selbst mit deutlich langsamerer Hardware nahezu identische "image quality" erreicht wird, wie mit deutlich bessere Hardware mit nativen 4k.

Bei Wolfenstein und Control sehen selbst die Experten von Digital Foundry mit Analysetools (riesiger Vergrößerung und Standbildern) praktisch keine Unterschiede. Ob da ein Spiel in 4k läuft oder nur in Full HD mit DLLS ist für Menschen mit freiem Auge beim Zocken selbst sowieso nicht unterscheidbar.

Sprich: Bei der PS5 wird wohl einfach die native Auflösung bei Spielen reduziert werden, damit man die gleichen FPS erreicht wie auf der XSX erhält, und dank DLLS und anderer neuer Software Tricks der Next Gen, wird man praktisch keinen Unterschied sehen....

DLSS können die AMD GPUs nicht
Sie können aber ab Navi1 Sharpening, was ebenfalls nix kostet, da es über die Machine Lerning Einheiten läuft und sogar besser ist als DLSS
Z.B. müssen die Spiele nicht wie bei DLSS, dieses Feature von sich aus unterstützen.
Es kann somit bei jedem Spiel aktiviert werden

Hier mal ganz gut erklärt.

https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/

Im Artikel steht, dass ab man ab 70-80% der 4K Auflösung faktisch keinen Unterschied dazu sieht.
Demnach wird ein Entwickler das auch auf alle Konsolen anwenden.
Wäre ja blödsinnig, dass auf Konsole A anzuwenden und auf B nicht, nur weil B mehr Leistung hat.
Da steckt man doch bei Konsole B lieber die freien Ressourcen in noch bessere Optik oder anderes.
Es sei denn, man nutzt die Mechine Learning Einheiten für noch andere Dinge in dem Spiel

Z.B für Ray Tracing.
Dann würde Konsole A mit niedrigerer Auflösung und Sharpening daher kommen
Konsole B mit voller 4K Auflösung ohne Sharpening aber besserem Ray Traycing
Nur als Beispiel.
 
NV hat ja seit dem vorletzten Treiber auch ihr eigenes sharpening ins rennen geschickt ;) Und DLSS 2.0 ist schon krass, muss man zu geben und nicht mehr vergleichbar mit der 1.0 Version die zum launch kam und damals getestet wurd gegen Sharpening von AMD.
Sharpening von AMD wir sicher zusätzlich noch genutzt werden bei nicht 4K titeln auf den Konsolen oder 4K titeln mit TAA.
 
NV hat ja seit dem vorletzten Treiber auch ihr eigenes sharpening ins rennen geschickt ;) Und DLSS 2.0 ist schon krass, muss man zu geben und nicht mehr vergleichbar mit der 1.0 Version die zum launch kam und damals getestet wurd gegen Sharpening von AMD.
Sharpening von AMD wir sicher zusätzlich noch genutzt werden bei nicht 4K titeln auf den Konsolen oder 4K titeln mit TAA.

Ok, da scheint sich bei DLSS ja doch etwas getan zu haben.
Nviida GPU haben ja je nach Karte auch die doppelte bis über vierfache TOPS Leistung hierfür zur Verfügung. als die Next-Gen Konsolen
 
@Nullpointer
Und eben da kann man auch nur die CPU laut Devs um paar Mhz reduzieren um das Power limit was im extrem fall 10% zu viel seine könnte wieder auf 100% zu senken. Und laut Cerny soll das selten der fall sein.
Da würde ich mir keine sorgen machen, wenn selbst der kleine Jaguar gebremst wurde, erst recht von der zwischen gen in höheren Auflösungen.
Am PC immer schön zu beobachten wie die CPU Auslastung stinkt, je höher man die settings und Auflösung stellt. Aber ich bin zuversichtlich das wir die Zen2 viel besser ausgelastet bekommen endlich in den Konsolen :goodwork:
Ichnwill auch auf dem Ryzen 4000 ende des Jahres was davon haben ;)
Wer sagt das ich mir Sorgen mache? Ich bin hochgradig amüsiert.
Sony sind diejenigen, die 10.28 Billionen floating point Operationen pro Sekunde als Specs veröffentlicht haben. Sollen sie das halt mal nachweisen. Ihre bisherigen Aussagen zum Frequenz-Design ihrer GPU werfen jedenfalls berechtigte Zweifel auf. Und was soll das mit der CPU zu tun haben? Ich denke das soll alles so deterministisch sein? Wenn der eine Dev abends einen neuen Codestand seines CPU-Algorithmus auf Github pusht, kann der GPU-Algorithmus des anderen Devs dann plötzlich nicht mehr mit der vollen Frequens laufen? Welch vorhersehbarer Schrott xD

Aber kommen wir zu etwas zukunftsträchtigerem für die next gen als Throttling der GPU. NVidia hat gestern ihren Code für Dynamic Diffuse Global Illumination per DirectX12 Raytracing als open source veröffentlicht :goodwork:

Einen guten Vortrag dazu gibt es unter https://gdcvault.com/play/1026182
 
Zuletzt bearbeitet:
Zurück
Top Bottom