ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

VRS Tier 1 und 2 sind Hardware-Features.
An sich auch egal, da mit Compute Shadern in der Theorie komplett ersetzbar, falls es die PS5 in der Hardware (dafür gibt es keine Quelle) nicht hat. Wenn die Hardware dafür abgestimmte Einheiten hat, könnte es sein, dass ich natürlich nochmal Leistung gewinne.

Da wir die API und die Hardware von der PS5 nicht kennen, können wir darüber auch keine Aussage machen, wie es nun ist. Die Technik an sich ist aber selbstverständlich auf jeder modernen GPU möglich, wenn man es will und braucht und den Aufwand betreiben will. Dafür hat man ja jahrelang an der Flexibilität der GPU (Stichwort GPGPU) gearbeitet. Mesh Shader sind diesbezüglich auch nichts anderes - eventuell wird das für Variable Rate Shading gebraucht, was die Hardware-Anforderung erklärt, aber eben auch nur für diese eine spezifische Lösung. Das bedeutet nicht, dass die Berechnungen bzw. der Ansatz auf anderer Hardware unmöglich ist. Warum auch?

Generell sollte man weg von dem Gedanken gehen, dass etwas nur auf dieser einen Hardware geht. Beide Konsolen können die selben Berechnungen durchführen. Der eine schneller, der eine langsamer. Wir haben für die eine Konsole aber keine Information, weswegen uns für eine Aussage etwas fehlt. "Unmöglich" ist etwas aber noch lange nicht - auch wenn sogar Hardware-Einheiten fehlen sollten (auch das wissen wir aber nicht).
 
@Thumbsucker
Man wird immer unterschiede sehen können mit zoom xD und für einige wird das halt ein gefundenes Fressen sein, egal wie klein der unterschied ist ;)

Laut Coalition sind die Verluste im Detailgrad bei Tier 2 kaum mehr sichtbar, dafür 15 Prozent bessere Performance. Ziemlich krass. Deswegen die Frage, ob die PS5 davon auch profitiert - könnte ja gleich einen ordentlichen Performance-Boost geben. Beim DF-Video vom Mai zu VRS waren da gern mal 15-20 Frames mehr drin - aber halt mit Einfluss auf den Detailgrad.
 
@Ark
Es war für DF auch ne Überraschung :nix: hätten ja auch die ganzen Jahre mal andere nutzen können.

@Thumbsucker
Man wird immer unterschiede sehen können mit zoom xD und für einige wird das halt ein gefundenes Fressen sein, egal wie klein der unterschied ist ;)

Du siehst ja angeblich auch gleich 5 pixel weniger oder 0,01fps :banderas:
Thumbsucker sieht halt immer das was er sehen will. Das die PS5 bei AC5 bis zu 30% höhere Auflösung oder bei CoD bis zu 30FPS in der Spitze mehr schafft bei zusätzlich besseren RT, sieht er halt nicht 🙄 Die Unterschiede werden mit echten NextGen Games sogar noch größer. MS hat einfach nur PC Hardwarekomponenten zusammengeschraubt hingegen die Sony sogar CPU und GPU angepasst hat. Das fällt MS jetzt auf die Füße.
 
An sich auch egal, da mit Compute Shadern in der Theorie komplett ersetzbar, falls es die PS5 in der Hardware (dafür gibt es keine Quelle) nicht hat. Wenn die Hardware dafür abgestimmte Einheiten hat, könnte es sein, dass ich natürlich nochmal Leistung gewinne.

Da wir die API und die Hardware von der PS5 nicht kennen, können wir darüber auch keine Aussage machen, wie es nun ist. Die Technik an sich ist aber selbstverständlich auf jeder modernen GPU möglich, wenn man es will und braucht und den Aufwand betreiben will. Dafür hat man ja jahrelang an der Flexibilität der GPU (Stichwort GPGPU) gearbeitet. Mesh Shader sind diesbezüglich auch nichts anderes - eventuell wird das für Variable Rate Shading gebraucht, was die Hardware-Anforderung erklärt, aber eben auch nur für diese eine spezifische Lösung. Das bedeutet nicht, dass die Berechnungen bzw. der Ansatz auf anderer Hardware unmöglich ist. Warum auch?

Generell sollte man weg von dem Gedanken gehen, dass etwas nur auf dieser einen Hardware geht. Beide Konsolen können die selben Berechnungen durchführen. Der eine schneller, der eine langsamer. Wir haben für die eine Konsole aber keine Information, weswegen uns für eine Aussage etwas fehlt. "Unmöglich" ist etwas aber noch lange nicht - auch wenn sogar Hardware-Einheiten fehlen sollten (auch das wissen wir aber nicht).
Es ist ganz bestimmt nicht egal, ob irgendwas in Hardware oder Software implementiert ist. Und Mesh Shader sind ganz bestimmt was komplett anderes, liegen sie doch viel weiter vorne in der GPU-Pipeline und sind Teil der Geometrie-Pipeline und nicht der Pixel-Pipeline.
 
Es ist ganz bestimmt nicht egal, ob irgendwas in Hardware oder Software implementiert ist.

Marketing-Begriffe. Mittlerweile entwickelt man immerhin auf der GPU auch "Software" (GPGPU). Generell soll es nur aufzeigen, dass man nicht sagen kann, dass "etwas nicht geht". Streng genommen läuft die Haarsimulation von EA "in Software".

liegen sie doch viel weiter vorne in der GPU-Pipeline
Das ist richtig, ja. War nur primär auch ein Beispiel dafür, wie der Ansatz von Compute Shadern fortgeführt wird für mehr Flexibilität in der gesamten Pipeline. Es gibt an sich nichts, was der Compute Shader nicht machen könnte, was die einzelnen Einheiten der fixen Pipeline machen.
 
Marketing-Begriffe. Mittlerweile entwickelt man immerhin auf der GPU auch "Software" (GPGPU). Generell soll es nur aufzeigen, dass man nicht sagen kann, dass "etwas nicht geht". Streng genommen läuft die Haarsimulation von EA "in Software".


Das ist richtig, ja. War nur primär auch ein Beispiel dafür, wie der Ansatz von Compute Shadern fortgeführt wird für mehr Flexibilität in der gesamten Pipeline. Es gibt an sich nichts, was der Compute Shader nicht machen könnte, was die einzelnen Einheiten der fixen Pipeline machen.
Ob etwas per Hardware in der GPU implementiert ist, ist ganz bestimmt kein Marketing-Begriff. Was soll das?

Das mit Compute Shadern alles berechnet werden kann ist irgendwie auch eine Trivial-Aussage. Was soll uns das bringen? Klar kannst du z.B. DLSS auch per Compute Shader ohne Hardwarebschleunigung der Tensor-Cores auf deiner RTX3080 berechnen. Und nun? Das Spiel läuft jetzt in Zeitlupe. Applaus :goodwork:
 
Ob etwas per Hardware in der GPU implementiert ist, ist ganz bestimmt kein Marketing-Begriff. Was soll das?
Ob etwas "in Hardware oder in Software" programmiert ist, ist durchaus ein Marketing-Kniff. Mesh-Shader sind auch flexibler geworden und gehen aus Marketing-Sicht Richtung "in Software", weil Flexibilität steigt - darum geht es bei dem Begriff ja primär.

Was soll uns das bringen? Klar kannst du z.B. DLSS auch per Compute Shader ohne Hardwarebschleunigung der Tensor-Cores auf deiner RTX3080 berechnen. Und nun? Das Spiel läuft jetzt in Zeitlupe. Applaus :goodwork:

Das ist zu pauschal und ein seltsames Beispiel zugleich.
GPUs sind schon an sich gut geeignet für Berechnungen im KI-Umfeld, wo die FMA-Operation dominiert. Nur sind Tensor-Kerne von Nvidia nochmals spezialisierter für KI-Berechnungen, weil sie bspw. die Variablen kleiner halten können und auf Matrizenmultiplikation ausgelegt sind. Dafür versagen die Tensor-Kerne bei "gewöhnlichen Berechnungen" komplett. Generell hat DLSS auch gar nichts mit Rendering an sich zu tun, sondern ist eher im Bereich KI angesiedelt, weswegen der Vergleich absurd ist, wenn es um VRS geht. Wortwörtlich opfert man Leistung für KI-spezifische Berechnung.

Das mit Compute Shadern alles berechnet werden kann ist irgendwie auch eine Trivial-Aussage. W
Nein, weil Compute Shader keine zusätzlichen Kerne sind, die für was komplett anderes gedacht sind (weswegen dein Tensor-Beispiel völlig absurd ist, hier her NVIDIA zusätzliche Kerne rein, weil es was ganz anderes ist). Compute Shader laufen auf der gleichen Hardware wie auch die Rendering-Pipeline selbst und ist auch exakt für die selben Berechnungen ausgelegt (und genau das ist essentiell). Es wäre etwas anderes, wenn es "Compute-Kerne" gäbe, die für andere Berechnungen ausgelegt sind, und diese losgelöst sind von den "Rendering-Kernen", die wiederum andere Berechnungen durchführen. Aber nein, Compute Shader laufen auf den selben Kernen wie die anderen Shader (haben nur eine Sonderstellung wegen der Flexibilität).
 
Ob etwas per Hardware in der GPU implementiert ist, ist ganz bestimmt kein Marketing-Begriff. Was soll das?

Das mit Compute Shadern alles berechnet werden kann ist irgendwie auch eine Trivial-Aussage. Was soll uns das bringen? Klar kannst du z.B. DLSS auch per Compute Shader ohne Hardwarebschleunigung der Tensor-Cores auf deiner RTX3080 berechnen. Und nun? Das Spiel läuft jetzt in Zeitlupe. Applaus :goodwork:
Quasi gleiche Techniken unterschiedlich zu nennen ist Microsofts gesamte Philosophie.
Dein letztes Beispiel ist genau der selber dumme Vergleich den du Monatelang mit Flightsimulator für Xbone gemacht hast.
 
Ob etwas "in Hardware oder in Software" programmiert ist, ist durchaus ein Marketing-Kniff. Mesh-Shader sind auch flexibler geworden und gehen aus Marketing-Sicht Richtung "in Software", weil Flexibilität steigt - darum geht es bei dem Begriff ja primär.
Es ist doch keine Marketing-Kniff, ob etwas in der GPU in Hardware implementiert ist. Das ist ein Fakt. Kann man per API sogar abfragen. Und die API-Funktionen heissen auch nicht CheckMarketingKniffeSupport.

Das ist zu pauschal und ein seltsames Beispiel zugleich.
GPUs sind schon an sich gut geeignet für Berechnungen im KI-Umfeld, wo die FMA-Operation dominiert. Nur sind Tensor-Kerne von Nvidia nochmals spezialisierter für KI-Berechnungen, weil sie bspw. die Variablen kleiner halten können und auf Matrizenmultiplikation ausgelegt sind. Dafür versagen die Tensor-Kerne bei "gewöhnlichen Berechnungen" komplett. Generell hat DLSS auch gar nichts mit Rendering an sich zu tun, sondern ist eher im Bereich KI angesiedelt, weswegen der Vergleich absurd ist, wenn es um VRS geht. Wortwörtlich opfert man Leistung für KI-spezifische Berechnung.
Das ist kein seltsames Beispiel sondern demonstriert eindrucksvoll wie compute shader dafür nicht taugen weil zu langsam. Das gleiche bei Textur-Samplern usw. usf.

Nein, weil Compute Shader keine zusätzlichen Kerne sind, die für was komplett anderes gedacht sind (weswegen dein Tensor-Beispiel völlig absurd ist, hier her NVIDIA zusätzliche Kerne rein, weil es was ganz anderes ist). Compute Shader laufen auf der gleichen Hardware wie auch die Rendering-Pipeline selbst und ist auch exakt für die selben Berechnungen ausgelegt (und genau das ist essentiell). Es wäre etwas anderes, wenn es "Compute-Kerne" gäbe, die für andere Berechnungen ausgelegt sind, und diese losgelöst sind von den "Rendering-Kernen", die wiederum andere Berechnungen durchführen. Aber nein, Compute Shader laufen auf den selben Kernen wie die anderen Shader (haben nur eine Sonderstellung wegen der Flexibilität).
Aber compute shader sind bei diversen Funktionen viel ineffizienter als fixed function. Deshalb entscheiden sich auch alle GPU-Hersteller je nach Feature für weniger GPU-Cores und mehr fixed function Blöcke. Und die wissen alle was sie tun.

Quasi gleiche Techniken unterschiedlich zu nennen ist Microsofts gesamte Philosophie.
Dein letztes Beispiel ist genau der selber dumme Vergleich den du Monatelang mit Flightsimulator für Xbone gemacht hast.
Und schon gehen die persönlichen Angriffe wieder los :shakehead: Das es hier wirklich nie bei Technik bleiben kann, tsk tsk.
 
@Thumbsucker
Füe DF war CR gegenüber nativem 4K auch kaum mehr sichtbar, ging doch aber anscheinend mal garnicht trotz viel größeren performance boost:kruemel:
Merkst jetzt mal ;)

Nullpointer und Ark diskutieren hier durchaus auf spannendem Niveau, klären auch für Laien einiges. Bei dir zeigt sich leider, dass du nicht viel Ahnung hast. Du gehst technisch auf gar nichts ein, bringst irgendwelche Aussagen zu Tier 1 VRS, gehst aber nicht darauf ein, dass Tier 2 genau diese Schwächen ausbügelt.

Und jetzt kommt irgendwas zu 4K und CR, das damit gar nichts zu tun hat. Und dann immer mal wieder Digital Foundry einstreuen, auch wenns ebenfalls nichts mit dem Thema zu tun hat. Enttäuschend.

Als Laie finde ich den 15 Prozent Performance-Gewinn recht krass. Und weiss immer noch nicht, wie hier die PS5 arbeitet.
 
Aber compute shader sind bei diversen Funktionen viel ineffizienter als fixed function.
Im Allgemeinen kann ein Compute Shader eine Hardware-Einheit ersetzen. Durch die Flexibilität des Compute Shaders bzw. granulare Verwendung von Leistung (Work Groups), meist auch besser in der der Performance, da andere Shader-Einheiten fix sind. Du bist bspw. an irgendwelche Auflösungen gebunden bzw. an das, was eben der Hardware-Hersteller vorgibt.

Generell ist aber ein Compute Shader genauso schnell wie alle anderen Shader. Bzw. sagen wir es so: Jeder Shader ist gleich schnell. Im Umkehrschluss heißt das, dass keine Shader-Einheit in der Pipeline schneller ist als der Compute Shader. Es läuft immerhin auf der selben Hardware, in den selben Kernen. Und genau das trifft auf Tensor-Kerne nicht zu, das sind völlig andere Kerne für einen völlig anderen Einsatzzweck.

Das ist kein seltsames Beispiel sondern demonstriert eindrucksvoll wie compute shader dafür nicht taugen weil zu langsam.

Erstmal bräuchte man dafür tatsächlich ein Benchmark, inwiefern die 'gewöhnlichen Kerne' mit Matrizenmultiplikation nicht klar kommen. Zweitens hat das gar nichts mit Compute Shadern und VRS oder sonst was zu tun. Oder gibt es nun "VRS-Kerne", die völlig andere Berechnungen durchführen? Nein, das ist ein Feature, der in der selben Hardware "berechnet" wird wie alle anderen Shader. Anders gesagt: Alles, was in den Kernen läuft, kann der Compute Shader voll und ganz effizient "nachrechnen", denn da läuft ja der Compute Shader selbst. Tensor-Kerne, DSPs, weitere Koprozessoren sind ganz andere Recheneinheiten, die mathematisch ganz andere Anforderungen haben und nicht darunter zählen.

Aber wenn du mir sagst, dass es für VRS einen Koprozessor gibt oder eine separate Recheneinheit, die für andere Berechnungen ausgelegt ist, dann könnte es tatsächlich schwer werden für einen Compute Shader. Aber habe ich in dem Fall nicht angenommen.
 
Erstmal bräuchte man dafür tatsächlich ein Benchmark, inwiefern die 'gewöhnlichen Kerne' mit Matrizenmultiplikation nicht klar kommen. Zweitens hat das gar nichts mit Compute Shadern und VRS oder sonst was zu tun. Oder gibt es nun "VRS-Kerne", die völlig andere Berechnungen durchführen? Nein, das ist ein Feature, der in der selben Hardware "berechnet" wird wie alles andere in der Rendering-Pipeline.
Man braucht kein Benchmark.
Wir wissen durch MS‘ Hotchip Präsentationen, dass der große Unterschied zwischen RDNA 1 und 2 die zusätzlichen Ray Accelerators pro CU da und der Infinity Cache, den beide Konsolen nicht haben. Ersteres besitzt wie wir wissen die PS5 genauso.
Der Rest ist MS Buzzword Propaganda wie immer, aber das hatten wir vor Release gerade mit dir auch schon.
 
Der Rest ist MS Buzzword Propaganda wie immer, aber das hatten wir vor Release gerade mit dir auch schon.

Also den Blogpost des Coalition-Devs fand ich jetzt eigentlich keine Anhäufung von PR-Buzzwords. Das las sich eher wie ein Arbeitsprotokoll und war an andere Devs adressiert. Er macht ja auch alle Arbeitsschritte transparent. Das als Marketing abtun, nur weil die XSX nichts drauf haben darf, ist ziemlich fanboyish.
 
@Thumbsucker
Lol als ob du diskutieren willst xD
Nochmal, wo warst du damals? Meinst du ich fall auf so ne troll masche rein.
Wir wissen alle was du nur willst. Hättest deine chance damals gehabt.

Und rat mal was, ich hab nicht mal mehr als 3 Sätze gelesen über was die beiden sich streiten xD Mir doch völlig latte :D
 
Zuletzt bearbeitet:
Im Allgemeinen kann ein Compute Shader eine Hardware-Einheit ersetzen. Durch die Flexibilität des Compute Shaders bzw. granulare Verwendung von Leistung (Work Groups), meist auch besser in der der Performance, da andere Shader-Einheiten fix sind. Du bist bspw. an irgendwelche Auflösungen gebunden bzw. an das, was eben der Hardware-Hersteller vorgibt.

Generell ist aber ein Compute Shader genauso schnell wie alle anderen Shader. Bzw. sagen wir es so: Jeder Shader ist gleich schnell. Im Umkehrschluss heißt das, dass keine Shader-Einheit in der Pipeline schneller ist als der Compute Shader. Es läuft immerhin auf der selben Hardware, in den selben Kernen. Und genau das trifft auf Tensor-Kerne nicht zu, das sind völlig andere Kerne für einen völlig anderen Einsatzzweck.
Ein compute shader erledigt Aufgaben wie Rasterisierung, Textur-Sampling und Scheduling der VRS-Aufgaben ganz bestimmt nicht so schnell wie die dafür extra vorgesehenen fixed function Einheiten. Und es läuft nicht auf den selben Kernen, es sind extra Transistoren. Halt bloss nicht sehr viele. GPU-Hersteller müssen einen Kompromiss finden zwischen Features, Performance und Chipfläche. Klar könnten die auch nur ALUs reinstecken. Aber selbst Intel war bei Larrabee nicht so wahnsinnig und hat extra fixed function Hardware für einige Features vorgesehen.

Erstmal bräuchte man dafür tatsächlich ein Benchmark, inwiefern die 'gewöhnlichen Kerne' mit Matrizenmultiplikation nicht klar kommen. Zweitens hat das gar nichts mit Compute Shadern und VRS oder sonst was zu tun. Oder gibt es nun "VRS-Kerne", die völlig andere Berechnungen durchführen? Nein, das ist ein Feature, der in der selben Hardware "berechnet" wird wie alle anderen Shader. Anders gesagt: Alles, was in den Kernen läuft, kann der Compute Shader voll und ganz effizient "nachrechnen", denn da läuft ja der Compute Shader selbst. Tensor-Kerne, DSPs, weitere Koprozessoren sind ganz andere Recheneinheiten, die mathematisch ganz andere Anforderungen haben und nicht darunter zählen.

Aber wenn du mir sagst, dass es für VRS einen Koprozessor gibt oder eine separate Recheneinheit, die für andere Berechnungen ausgelegt ist, dann könnte es tatsächlich schwer werden für einen Compute Shader. Aber habe ich in dem Fall nicht angenommen.
Es gibt extra Transistoren für das VRS-Feature, ja. Diese sorgen dafür, dass Geometrie- und Pixelshading-Rate getrennt sind im Rasterisierer. Wie soll das sonst funktionieren. Und je nach GPU gibt es unterschiedlich viel Unterstützung für dieses Feature seitens der Hardware. Intel GPUs besitzen z.B. nur Hardware um pro draw call die VRS-Rate festzulegen und nicht pro Pixelblock. Wenn das alles per Software so einfach ginge, wieso unterstützen dann Intel-GPUs der 11. Gen nur Tier 1 und nicht auch VRS Tier 2? Sollte ja kein Thema sein.
 
@Thumbsucker
Lol als ob du diskutieren willst xD
Nochmal, wo warst du damals? Meinst du ich fall auf so ne troll masche rein.
Wir wissen alle was du nur willst. Hättest deine chance damals gehabt.

Und rat mal was, ich hab nicht mal mehr als 3 Sätze gelesen über was die beiden sich streiten xD Mir doch völlig latte :D

Genau das find ich enttäuschend. Da kommt ein wirklich interessantes technisches Thema auf und der Typ, der anderen ständig vorwirft, sie hätten im Thread nichts zu suchen und generell keine Ahnung, sagt: "Ist mir doch völlig latte". Und erzählt irgendwas davon, wo man früher mal war.

Trag doch einfach was zur Diskussion bei. Die Frage, wie Sony und MS ihre Hardware konzipiert haben, um künftig Dinge wie Tier 2 VRS stemmen zu können, ist sehr spannend. Das ist neben Ray Tracing eine der meistgenannten Next-Gen-Technologien - und MS vermeldet hier einen grossen Durchbruch.

Ist dem selbsternannten Techguru von CW latte, und das lässt tief blicken. Aber kannst ja dann wieder deine 400 Prozent Lupe auspacken, scheint eher in deinem Kompetenzbereich zu liegen.
 
Statt über andere User herzuziehen, könnt ihr lieber das hier lesen und euch zur Abwechslung einmal weiterbilden :goodwork:


Sehr gute Erklärung zur Nutzung von VRS und die Vorteile durch Tier 2 VRS.

In Anbetracht, dass Tier VRS effektiver bei dynamischen Auflösungen angewendet werden und sogar eine aggressive Skalierung nach unten verhindern kann, macht die ganze Sache sehr interessant gerade für zukünftige Projekte welche immer mehr Performance abverlangen und man ja weiterhin hohe Frameraten anbieten möchte.

Das geht definitiv in die richtige Richtung :goodwork:

Das Hardwareseitig extra Transistoren dafür sorgen, das dieses Feature nicht rein Softwaretechnisch erledigt wird, macht gerade Sinn bei einem Feature, welche die GPU in erster Linie ja entlasten sollen..... da wäre eine hohe Beanspruchung ja im worst case Fall absolut kontraproduktiv.
 
Zurück
Top Bottom