ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Mit anderen Worten, die Xbox hat einen zu geringen Takt.

Nein zu geringer Takt wäre auch eine fasche Aussage ... richtig wäre aber, dass ein noch höherer Takt natürlich für die Entwickler etwas leichter wäre was aber wiederum nicht heißt, dass dadurch automatisch alles immer optimal ausgelastet wäre. Ist ja nicht so, dass man bei der PS5 nichts optimieren kann oder muss einzig wegen dem hohen GPU Takt.
Hätte die XSX GPU eine noch höheren Taktrate, würden ja auch die Gleitkommaberechnungen steigen, ergo noch mehr TF Leistung die 52 aktiven Compute Units sind ja schließlich immer noch vorhanden.

@Con$olef@natic
Bei der Xbox One kam eher der DDR3 RAM DDR4 und der 32MB embedded SRAM statt einfach DDR4 wie bei der PS4 zum Tragen, was es bei der One schwieriger machte und nicht weil die PS4 einfach nur mehr CUs hatte!

Bei der One X gab es ja dann auch nur DDR4 ohne embedded SRAM und mehr CUs bedueten unweigerlich einen größeren Speicherbandandbreitenbedarf.
Die One X hatte ja nicht nur eine größere GPU ggü. der PS4 sondern eben auch eine höhere GPU Taktrate, größere Bandbreite, mehr RAM und eine etwas schnellere CPU, das alles wird ihr sicherlich für RDR2 @ nativ 4K in die Karten gespielt haben. Eine höhere Bandbreite allein sogt ja nicht für eine höhere Gleitkommaberechnung. Allein der GPU Gap betrug ja nun mal 1,8TF zur PS4 Pro.

Aber auch bei der One X hathat man trotz ihrer Überlegenheit ggü. der PS4 Pro gesehen, das diese auch nicht immer gleich automatisch in ein besseres Ergebnis mündete, ganz tolles Beispiel war da imo Ace Combat (6?) da lief gar die Pro Version besser obwohl selbe Auflösung (Grafiksettings) ect.

BTW ist der RAM der XSX nicht geteilt. Das ist schlichtweg eine falsche Aussage die immer wieder genannt wird.
Der Zugriff auf den einzelnen Ram-modulen erfolgt über einen Pool mit die selbe Geschwindigkeit !
Der Unterschied beruht einzig auf der unterschiedlichen Größe der einzelnen RAM -Module und auf welchen die GPU zugreift, nämlich immer auf erste 1GB der vorhanden 10 Ram Module.

Gäbe es hier ein Problem, hätten wir das schon lange mitbekommen gerade bei GPU hungrigen Games. :)
 
Zuletzt bearbeitet:
Ich bin der letzte den du das sagen musst :kruemel:

Na anscheinend ja schon sonst würde du ja auch kaum Beispiele nehmen, die man so direkt gar nicht vergleichen kann :nix:

PS4 und Xbox One waren wie bereits gesagt unterschiedlicher aufgestellt in ihrer gesamten Architektur als es jetzt der Fall ist.
Die GPU Takfrequenzen war zudem minimal unterschiedlich mit den gerademal 53Mhz^^

Als ob mehr CU mehr Arbeit machen :schwindlig:

Natürlich kann es das, gerade wenn es um es um eine optimale Auslastung der CUs geht und genau darum ging es ja.
Bedenke dass es hier immer um die Relation PS5 vs XSX geht und nicht darum, das mehr Compute Units generell schlecht angesprochen werden können oder Dinge gar nicht laufen oder nur Probleme machen würden ect. ;)

Das hatten auch schon so einige Devs genannt und ist nun wirklich kein Hirngespinst^^

Benoit Jacquier, technical director on WRC Generations, the PS5’s faster clockspeed (2.23 GHz as compared to the Xbox Series X’s 1.825 GHz) actually gives it a bit of an advantage, allowing developers more direct and simpler performance advantages.

“Due to faster clockspeed, PS5 gives us direct, simpler performance advantages from previous generation,”
“Although the Xbox Series X’s GPU raw performance is better, it’s harder to exploit- it requires a better parallelism to exploits the 52 CUs. But I suppose devs could, in the long term, obtain better performance on the Xbox Series X.”
 
Natürlich kann man es vergleichen, hätte je den anderen Konsolen dann nicht die Performance geben können die sie auf dem Papier besser hätten, nach der logik. Aber auch PS4 hat teils mehr abstand gehabt, wie nur GPu Performance, gerade wegen den anderen Dingen noch.

Und den Quote kenne ich (habt ihr glaub ich schon 10x vom ERA gepostet damals :awesome:), und dah haben andere wie der Dice dev damals gemeint, das wäre BS :nix: warum auch? Die Konsolen hersteller bringen treiber damit man so einfachen zugriff wie möglich hat, genau so wie GPU hersteller Treiber liefern um die GPU besser aus zu lasten in Games.
MS hat zwar imo schlechte Entschuldigungen getroffen bei der SX (den großen Chip mit wenig takt die größte) aber wäre ja dann Laut euch noch schlechter wenn sie auch noch nicht hinbekommen, das Devs leichte Arbeit haben und hätten sich ja dann erst recht dagegen entscheiden müssen.
Edit:
Und wie ich schon damals meinte, höherer takt pusht halt jeden bereich der GPU ;)
John hat ja damals zurück genommen, das er in nem Video meinte SX hätte 40% mehr Ray Tracing Performance, aber das hat er falsch gerechnet, da dir takt der PS5 auch die RT Performance steigert und es daher gleich bleibt bei ~20%

Edit:


For several years now, Nvidia has been working on a new gaming processor codenamed T239. Derived from a Tegra chip designed for the automotive and robotics industry, T239 combines an eight-core ARM CPU cluster with an Nvidia Ampere-class GPU with 1536 CUDA cores, advanced machine learning and RT capabilities - plus a file decompression engine for fast loading. Rich assesses the leaks and disclosures on T239, ties it to the next Switch project and fires up an ultra-low spec Ampere GPU to get some idea of what this processor can achieve.
 
Zuletzt bearbeitet:
Die anderen Konsolen hatten doch schon allein einen weit höheren Rohleisungsgab als es jetzt der Fall ist ;)
Du scheinst die Aussage "in Relation" auch einfach nicht zu verstehen oder verstehen zu wollen.

In der letzten Konsolen Gen gab es zuzüglich der unterschiedlichen Architektur eben den Umstand signifikant mehr CUs mit weniger Takt vs signifikant mehr GPU-Takt mit weniger CUs einfach nicht^^
Und auch damals wurde natürlich mit der Zeit eine immer bessere Parallelisierung der CUs möglich.

Interessant ist auch die Tatsache, daß du zuerst behauptet hast, dass Du so eine Aussage von Devs gar nicht kennen würdest und jetzt auf einmal, hast du sie selbst 10x gepostet und behauptest einfach, dass andere Devs diese Aussage als Bullshit definiert haben sollen, wo ich ganz genau weiß, daß ein Studio dies so niemals ggü einem anderen Studio Aussagen würde,
gerade weil allein deren Engines völlig unterschiedlich sind ;)

Optimierung & Parallelisierung war und ist immer ein Thema bei den Entwicklern und Treiber & Dev-Tools werden nicht umsonst ständig aktualisiert. Treiber sind btw. eh kein Freifahrtschein ganz nach dem Motto, dann passiert alles von allein .... sonst hätten wir ja auch nicht unterschiedliche Games mit eben unterschiedlichen Performance und Auslastungs-Ergebnissen.
 
Zuletzt bearbeitet:
Ne, bleibt BS sorry, die ganzen Beispiele zeigen es ja. Wer damit überfordert ist sollte aufhören xD
Uns Sorry das ich mich nicht gleich an den einen Quote erinnert habe :awesome: (ich weiß ich bin gut, aber nicht Perfekt ;) ) , da der schon damals belächelt wurde und wie gesagt, noch nie sonst sowas gehört.
Man sollte immer soviel mit dem Takt rausholen wie es geht um an sein Ziel zu kommen, als mehr CU zu nehmen für sein Ziel, einfach aus Kosten gründen und späteren Einsparungen bei besseren verfahren. Und lustig ist ja, das ich das schon vor den Konsolen Präsentationen gesagt habe ;)
Aber das ihr MS so wenig wissen zutraut, ist schon Lustig und da muss ich die ja schon echt ein wenig verteidigen :D
Das mit dem Takt und großem Chip, klar, war ein Fail. Aber das sie dann auch noch nicht gemerkt haben das sie mehr Arbeit machen mit mehr CU, ist ja dann voll Katastrophe wie man hier im Thread sagen würde :coolface:
 
Deine Beispiele zeigen es doch eben nicht, da die GPU Taktraten damals bei PS4 und Xone quasi identisch waren und die Differenz der Compute Units bei gerade mal 6 und bei One X und Pro gar nur noch 4 bei lag...wie oft denn noch^^
Hätte die Xbox One damals siginfikant mehr GPU Takt gehabt, wäre der Gap zwischen den beiden Konsolen auch geringer gewesen und trotzdem wäre durch die immer bessere Parallelisierung der Compute Units bei einem System mit mehr CUs wie bei der PS4 GPU auf dauer mehr möglich gewesen.
Das kann man einzig mit höheren Taktraten nicht ausgleichen schon gar nicht bei einem unterschiedlichen Leistungsziel ;)

Der Unterschied der heutigen Anzahl der CUs liegt bei
16 das ist ne ganz andere Komplexität hinsichtlich Parallelisierung und wir reden hier schließlich der optimalen Auslastung.
 
50% mehr Cu sind 50% mehr CU :nix: und warum einfach die anderen Beispiele vergessen ? ;)
Wie konnte Sony nur die CU verdoppeln bei der Pro und hoffentlich stimmen die 60CU dann nicht bei der neuen :coolface:
Bei GPUs sind es teils noch viel mehr CU und trotzdem spricht man bei Test, das man das Ergebnis so erwartet hat, auf Grund der 25 oder 50% mehr Computer Units. NV hat noch viel mehr CUDAs und auch da das selbe.
Aber schön zu sehen was ihr von MS ihrer Wahl hält plötzlich :D
Ich bleib bei meiner Meinung, keiner hat damit Probleme das einer mehr CU hat, ganz andere Faktoren bremsen hier.
 
Zuletzt bearbeitet:
50% mehr Cu sind 50% mehr CU :nix: und warum einfach die anderen Beispiele vergessen ? ;)
Wie konnte Sony nur die CU verdoppeln bei der Pro und hoffentlich stimmen die 60CU dann nicht bei der neuen :coolface:
Bei GPUs sind es teils noch viel mehr CU und trotzdem spricht man bei Test, das man das Ergebnis so erwartet hat, auf Grund der 25 oder 50% mehr Computer Units. NV hat noch viel mehr CUDAs und auch da das selbe.
Aber schön zu sehen was ihr von MS ihrer Wahl hält plötzlich :D
Ich bleib bei meiner Meinung, keiner hat damit Probleme das einer mehr CU hat, ganz andere Faktoren bremsen hier.

Na offensichtlich bremst da nicht viel wenn man es richtig anstellt wie unter anderem jetzt bei AW2 da muss man sich eher fragen was da die PS5 ausbremst wenn man sich teils die Frametimes anschaut ;)
 
Was ich ja immer gesagt habe, wozu die SX immer versuchen von der Auflösung zu hoch zu pushen und schlechtere Performance in kauf nehmen.
Siehe da, dann kann sie auch besser performen :nix:

Demnach müsste bei Performance Problemen bei PS5 Version gleich die Auflösung runter gestellt werden^^ .... ich denke das ist dann auch zu einfach daher gesagt. Es gab ja auch genug Games die einfach mehr Zeit gebraucht haben hinsichtlich Optimierung :nix:
 
Was wäre das Problem? Bisher ja kaum da gewesen bei der PS5, zumindest nie erwähnt, das erledigen doch zu 99% schon Dynamische Auflösungen :nix:
DF selber meinen ja ab und zu, dass bei der SX die Auflösung etwas zu hoch angesetzt war und hier schlauer gewesen wäre sie etwas runter zu setzen, wenn sie manchmal fast 30% höher ist und die PS5 dann stabieler läuft. Hab ich anderst rum noch nicht gehört, du?
Es gibt optisch ein minimum was Devs wegen FSR wollen um ne einiger maßen gute IQ zu liefern und da liegt PS5t eigentlich immer gut. Remedy will ja die PS5 Performance auch noch patchen und bei der SX sollten sie eh kein Problem haben bei selber Auflösung.
 
Ich seh jetzt keinen Grund warum die PS5 Version von AW2 nicht besser laufen sollte!
Bei den gezeigten Szenen sollte das eigentlich kein Problem sein.
Da fehlt einfach etwas Optimierung.
 
Ich seh jetzt keinen Grund warum die PS5 Version von AW2 nicht besser laufen sollte!
Bei den gezeigten Szenen sollte das eigentlich kein Problem sein.
Da fehlt einfach etwas Optimierung.
Und wenn in einem Spiel dann die PS5 Version besser abschneidet liegt es wieder an der angeblich besseren Architektur und Zauber SSD?
 
From zero to hero: Xbox Series S helps Larian find more performance in Baldur's Gate 3
Larian Studio say they have found over 30 per cent VRAM optimisation while developing Series S port. This could improve performance across all platforms
Optimization efforts found a 34% improvement in VRAM usage which could boost performance across all platforms
The developers said memory issues have been addressed and the Xbox release is very close
 
Zurück
Top Bottom