ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Der Verbrauch skaliert überproportional mit dem Takt mehr und mit der Aktivitität annähernd linear. Die Xbox schöpft pro Zyklus in den meisten Fällen nicht nicht die volle Aktivität und kann auch die die Taktrate nicht kompensieren um die niedrige Schöpfrate zu kompensieren. Was deine Tests nur ausgesagt haben ist, dass Studios den SoC voll ausschöpfen können außer sie geben sich wie nach Initiatives Worten sehr große Mühen. Der Prozessor liegt also einfach brach und welch Wunder ist das genau was Cerny für jeden klar veranschaulicht hatte.
Damit Smartshift funktioniert müssen Komponenten unabhängig ansprechbar sein und das in Millisekunden. Also ich meine wirklich ernst, dass du einfach wieder verschwinden solltest. Du wusstest, dass du nachdem Release überall falsch lagst und tust es weiterhin.

Der Prozessor liegt bisher "brach", weil bisherige Games eben GPU limiterend waren. Eben den schwaren CPUs der Old-Gen geschuldet.
Aber klar, sowohl Sony und MS bauen hochpotente CPUs in die Next-Gen ein, damit die weiterhin dahin dümpeln.
Nicht nur, dass sie zigmal performanter sind als ihre Vorgänger, sie werden sogar noch massiv entlastet was das I/O System und die Soundbearbeitung betrifft.
Und du glaubst im Ernst, dass das auch in Zukunft so bleiben wird :D


Deine Smartshift-Träumerein ändern da auch nichts dran.
Wenn ein Game mal ordentlich die CPU braucht, dann nutzen auch keine Änderungen im Millisekundebereich. Der maximale Wattverbrauch der PS5 scheint ja jetzt schon bei diversen Games erreicht zu sein. Was nutzt es da, wenn die CPU theoretisch von der GPU Leistung abbekommen könnte, wenn das Budget bereits erreicht ist. Wo nix mehr zu vergeben ist, kann auch nix mehr dazu gewonnen werden.
Und nur weil du das nicht zu verstehen verstehst und weiterhin deine Lügen bzgl. meiner getätigten Aussagen verbreitest - ist wohl das Trumpsyndrom- , werde ich sicherlich nicht auf deinen Vorschlag eingehen.:goodwork:
 
Der Prozessor liegt bisher "brach", weil bisherige Games eben GPU limiterend waren. Eben den schwaren CPUs der Old-Gen geschuldet.
Aber klar, sowohl Sony und MS bauen hochpotente CPUs in die Next-Gen ein, damit die weiterhin dahin dümpeln.
Nicht nur, dass sie zigmal performanter sind als ihre Vorgänger, sie werden sogar noch massiv entlastet was das I/O System und die Soundbearbeitung betrifft.
Und du glaubst im Ernst, dass das auch in Zukunft so bleiben wird :D


Deine Smartshift-Träumerein ändern da auch nichts dran.
Wenn ein Game mal ordentlich die CPU braucht, dann nutzen auch keine Änderungen im Millisekundebereich. Der maximale Wattverbrauch der PS5 scheint ja jetzt schon bei diversen Games erreicht zu sein. Was nutzt es da, wenn die CPU theoretisch von der GPU Leistung abbekommen könnte, wenn das Budget bereits erreicht ist. Wo nix mehr zu vergeben ist, kann auch nix mehr dazu gewonnen werden.
Und nur weil du das nicht zu verstehen verstehst und weiterhin deine Lügen bzgl. meiner getätigten Aussagen verbreitest - ist wohl das Trumpsyndrom- , werde ich sicherlich nicht auf deinen Vorschlag eingehen.:goodwork:
Na dann sollen die Series X games doch einfach in 4K und 60 fps rendern, anstatt wie so oft schlechter als die PS5 zu sein. Das Problem löst sich so ja einfach 🤡

Smartshift ist der Grund warum die PS5 nicht immer in ihrem maximalen TDP läuft, sondern ganz einfach Energie spart.
 
Eigentlich haben die XSX Games die höhere Auflösung. Letzte Gen für Sonys noch wichtiger und diese Gen völlig egal, so lange man an manchen Stellen mal mehr FPS hat. :coolface:
 
Na dann sollen die Series X games doch einfach in 4K und 60 fps rendern, anstatt wie so oft schlechter als die PS5 zu sein. Das Problem löst sich so ja einfach 🤡

Smartshift ist der Grund warum die PS5 nicht immer in ihrem maximalen TDP läuft, sondern ganz einfach Energie spart.

Welches Problem löst sich?
Die PS5 hat ein festes Powerbudget was niedriger ist als die Addition der jeweils maximalen Werte ergeben würde.
Das wird wohl niemand bestreiten und wenn doch, sollte er sich noch mal Cernys Präsi anschauen.
Da derzeitige Games aber die CPU und damit auch deren Powerbudget in keiner Weise ausreizen , kann die PS5 GPU ihre maximale Leistung erbringen, da sie nix abgeben muss.
Wird sich wie gesagt ändern, wenn auch die CPU mal gefordert wird.
Das hat auch nix damit zu tun, dass Smartshift in ms Bereich reagieren kann.
Im übrigen entspricht eine ms zwei Millionen Taktzyklen bei der GPU und 3,5 Millionen bei der CPU.
Also eine Ewigkeit in diesen Dimensionen.

Was das jetzt mit der XSX zu tun hat, muss man wohl nicht verstehen.
 
Welches Problem löst sich?
Die PS5 hat ein festes Powerbudget was niedriger ist als die Addition der jeweils maximalen Werte ergeben würde.
Das wird wohl niemand bestreiten und wenn doch, sollte er sich noch mal Cernys Präsi anschauen.
Da derzeitige Games aber die CPU und damit auch deren Powerbudget in keiner Weise ausreizen , kann die PS5 GPU ihre maximale Leistung erbringen, da sie nix abgeben muss.
Wird sich wie gesagt ändern, wenn auch die CPU mal gefordert wird.
Das hat auch nix damit zu tun, dass Smartshift in ms Bereich reagieren kann.
Im übrigen entspricht eine ms zwei Millionen Taktzyklen bei der GPU und 3,5 Millionen bei der CPU.
Also eine Ewigkeit in diesen Dimensionen.

Was das jetzt mit der XSX zu tun hat, muss man wohl nicht verstehen.
Dass die PS5 in immernoch in zu vielen Games die Auflösung höher hält oder eine stabilere Bildwiederholrate hält, obwohl die SX theoretisch gerade für Auflösungen besser gestellt ist, spricht für die bessere Auslastung bei der PS5 oder auch die Series X liegt einfach brach im Vergleich. Keine Ahnung wie du das einfach weiter ignorieren willst.
Beide Systeme haben einen festen Powerbudget, der ungefähr bei 200 Watt liegt. Die PS5 erreicht diese durch den Takt sehr schnell. Falls die Aktivität kritisch wird kann der Takt adaptiv geregelt werden. Die Latenz dafür beträgt 2 Zyklen und die Drosselungen von max einigen hundert MHz dauert wenige hundert Nanosekunden. Effektiv verliert man nach verschiedenen Benchmarks bis zu 4 Zyklen pro Sekunde pro Kern. Dazu habe ich dir auch die Paper rausgesucht. SmartShift greift nur an, wenn es die Möglichkeit gibt Energie zu sparen und ist nicht essentiell für die Prozessoren wie die adaptive Taktrate. Ich habe beide Systeme dir mehrmals sogar noch ausführlicher dargelegt und nach deiner freiwilligen Pause der Schande hast du es immer noch nicht verstanden.
 
Wie denn in 4K? Wie soll die CPU da die GPU bremsen? Glaub frag ich dich aber schon zum 10x xD

Und ich antworte dir zum wiederholten Male, dass das zwei völlig getrennte Baustellen sind.
Dass die SX bei den Launchgames im Moment noch nicht ihre GPU Überlegenheit ausspielt, hat doch überhaupt nichts mit der CPU zu tun. Habe ich auch nie behauptet.
Umgekehrt wird ein Schuh daraus.
Die XSX wird mit der Zeit eben ihre GPU besser ausnutzen können. Woran das liegt habe ich auch schon mehrfach erwähnt
Die PS5 GPU wird aber weniger Leistung als jetzt zur Verfügung haben, wenn die Games mal CPU anspruchsvoller werden.

Und das maximale Power-Budget der XSX liegt definitv über 200Watt.
Wenn allein GOW schon knapp über 200 Watt liegt, was fast keine CPU Leistung benötigt, ist das wohl mehr als logisch.

Dass die PS5 in immernoch in zu vielen Games die Auflösung höher hält oder eine stabilere Bildwiederholrate hält, obwohl die SX theoretisch gerade für Auflösungen besser gestellt ist, spricht für die bessere Auslastung bei der PS5 oder auch die Series X liegt einfach brach im Vergleich. Keine Ahnung wie du das einfach weiter ignorieren willst.
Beide Systeme haben einen festen Powerbudget, der ungefähr bei 200 Watt liegt. Die PS5 erreicht diese durch den Takt sehr schnell. Falls die Aktivität kritisch wird kann der Takt adaptiv geregelt werden. Die Latenz dafür beträgt 2 Zyklen und die Drosselungen von max einigen hundert MHz dauert wenige hundert Nanosekunden. Effektiv verliert man nach verschiedenen Benchmarks bis zu 4 Zyklen pro Sekunde pro Kern. Dazu habe ich dir auch die Paper rausgesucht. SmartShift greift nur an, wenn es die Möglichkeit gibt Energie zu sparen und ist nicht essentiell für die Prozessoren wie die adaptive Taktrate. Ich habe beide Systeme dir mehrmals sogar noch ausführlicher dargelegt und nach deiner freiwilligen Pause der Schande hast du es immer noch nicht verstanden.

Ist sinnlos mit dir zu diskutieren, Du verstehts ja nicht mals, was du postest.
Da wird munter alles durcheinander gewürfelt.
Wir werden ja sehen, wer recht behält.
Im Moment bringt das echt nichts mehr bei so viel belehrungsresistenz.
 
Zuletzt bearbeitet:
Was du mit der XSX gerade willst verstehe ich nicht :ugly:
Und warum die PS5 weniger GPU Leistung haben soll später wegen der CPU wenn die GPU in 4K und noch auf wendigeren Games das Bottleneck wird, hast du jetzt ja wieder nicht erklärt. Immer bringst du nur den selben Satz das Games CPU anspruchsvoller werden. Aber warum soll das ein Problem werden? Da ist so viel Luft nach oben gegenüber Jaguar das sie wie gesagt locker ~4x so viel stemmen kann bis die GPU sie bremst.
Das selbe hieß es auch immer bei den BF Games das Jaguar bremst und dabei war es auch die GPU :nix:
120fps und 1080p, wird die CPU wie gesagt eher puschen und für framedrops sorgen wo die Grafik noch runtergeschraubt wird.
 
Er bezieht sich darauf, das die CPU Auslastung in der Zukunft steigen wird und diese somit mehr vom Powerbudget abgreift wie es jetzt der Fall ist, was wiederum der GPU fehlen könnte. Das Ganze hat auch direkt nix mit 4K oder GPU Bottleneck zu tun .... sondern bezieht sich rein auf das jeweiligen Auslastungs-Szenario bezogen auf das vorhandene begrenzte Powerbudget.
 
Und ich antworte dir zum wiederholten Male, dass das zwei völlig getrennte Baustellen sind.
Dass die SX bei den Launchgames im Moment noch nicht ihre GPU Überlegenheit ausspielt, hat doch überhaupt nichts mit der CPU zu tun. Habe ich auch nie behauptet.
Umgekehrt wird ein Schuh daraus.
Die XSX wird mit der Zeit eben ihre GPU besser ausnutzen können. Woran das liegt habe ich auch schon mehrfach erwähnt
Die PS5 GPU wird aber weniger Leistung als jetzt zur Verfügung haben, wenn die Games mal CPU anspruchsvoller werden.

Und das maximale Power-Budget der XSX liegt definitv über 200Watt.
Wenn allein GOW schon knapp über 200 Watt liegt, was fast keine CPU Leistung benötigt, ist das wohl mehr als logisch.



Ist sinnlos mit dir zu diskutieren, Du verstehts ja nicht mals, was du postest.
Da wird munter alles durcheinander gewürfelt.
Wir werden ja sehen, wer recht behält.
Im Moment bringt das echt nichts mehr bei so viel belehrungsresistenz.
Wenn die TDP der Series X doch defintiv über 200 Watt ist, dann macht es ja die ganze Geschichte schlimmer, weil diese Konsole derzeit gerade mal maximal mit der PS5 gleichzieht. Was für dumme Studios da jahrelang rumwerkeln um dennoch freiwillig zu viele drops zum Target zu haben, sei es durch Auflösung, Framerate oder sonst was. Ich habe dir ganze Paper erklärt und du kommst nach der Pause der Schande immer noch ohne fundierter Aussagen an. Ich weiß nicht wie du dir einredest, dass ich nicht vernünftig diskutieren will, wenn gerade ich fundiert argumentiere und die wiedermal auf eine Zukunft verweist und wieder bis dahin verschwindest um nochmal auf die Nase zu fallen.
 
Hier übrigens ein interessanter Artikel von Anandtech über die XSX bei der ISSCC (International Solid State Circuits Conference)
Vieles ist schon bei der HotChip erläutert worden, manches ist aber neu.
https://www.anandtech.com/show/16489/xbox-series-x-soc-power-thermal-and-yield-tradeoffs

Dass z.B. die CPU hier die Wattschleuder darstellt anstelle der GPU liegt nicht nur am niedrigen Takt der GPU, sondern wohl auch an den 256bit FPU Einheiten. Genau die, die ja aufgrund der DIE-Shots der PS5 APU fehlen sollen. Das wäre also schon mal eine Erklärung dafür.

Dann auch sehr interessant, wie sich Takt und Stromverbrauch bei der GPU verhält.
Die derzeitige Konstellation der XSX mit ihren 52 aktiven CUs verbraucht 20% mehr Leistung, als wenn man die gleiche TF Anzahl mit den 56 verbauten CUs (dann natürlich niedriger getaktet) erreicht hätte.
Man hat sich natürlich gegen den Vollausbau entschieden aufgrund der wesentlich schlechteren Yieldrate.

Aber hier kann man schon ableiten, wie hoch der Stromverbrauch der PS5 GPU ist, wenn bereits bei einer Takterhöhung von lediglich 9% (1675 auf 1825) 20% mehr Leistung verbraten wird und das wie gesagt, bei entsprechend weniger CUs, damit man auf den gleichen TF Wert kommt.

Die PS5 GPU taktet 22% höher als die XSX bei 15% niedrigerer Rechenleistung bei Volltakt.
Auf die obige Rechnung bezogen und rein linearer Betrachtung (was noch geschönt sein dürfte) kommt man hier schon zu dem Ergebnis, dass die PS5 GPU bei 2,23GHz Takt bereits 40% mehr Strom verbraucht als die XSX bei voller Auslastung trotz niedrigerer Rechenleistung

(22% / 9%) x20% / 12.155 x 10,28

Das dazu
Und genau das habe ich im Vorfeld behauptet.

Es macht die Sache schlimmer, weil die XSX ohne optimale Auslastung die gleichen Ergebnisse erziehlt wie die PS5 .... erzähle mal mehr ^^

Schlimm wäre es eher im umgekehrten Fall ;)
Danke, ich wusste, dass er das nicht versteht.
 
Zuletzt bearbeitet:
Er bezieht sich darauf, das die CPU Auslastung in der Zukunft steigen wird und diese somit mehr vom Powerbudget abgreift wie es jetzt der Fall ist, was wiederum der GPU fehlen könnte. Das Ganze hat auch direkt nix mit 4K oder GPU Bottleneck zu tun .... sondern bezieht sich rein auf das jeweiligen Auslastungs-Szenario bezogen auf das vorhandene begrenzte Powerbudget.

Hat das nicht Mark Cerny schon im letzten April im Interview mit Digital Foundry geklärt?!?

https://www.eurogamer.net/articles/digitalfoundry-2020-playstation-5-the-mark-cerny-tech-deep-dive

In short, the idea is that developers may learn to optimise in a different way, by achieving identical results from the GPU but doing it faster via increased clocks delivered by optimising for power consumption. "The CPU and GPU each have a power budget, of course the GPU power budget is the larger of the two," adds Cerny. "If the CPU doesn't use its power budget - for example, if it is capped at 3.5GHz - then the unused portion of the budget goes to the GPU. That's what AMD calls SmartShift. There's enough power that both CPU and GPU can potentially run at their limits of 3.5GHz and 2.23GHz, it isn't the case that the developer has to choose to run one of them slower."

"There's another phenomenon here, which is called 'race to idle'. Let's imagine we are running at 30Hz, and we're using 28 milliseconds out of our 33 millisecond budget, so the GPU is idle for five milliseconds. The power control logic will detect that low power is being consumed - after all, the GPU is not doing much for that five milliseconds - and conclude that the frequency should be increased. But that's a pointless bump in frequency," explains Mark Cerny.

At this point, the clocks may be faster, but the GPU has no work to do. Any frequency bump is totally pointless. "The net result is that the GPU doesn't do any more work, instead it processes its assigned work more quickly and then is idle for longer, just waiting for v-sync or the like. We use 'race to idle' to describe this pointless increase in a GPU's frequency," explains Cerny. "If you construct a variable frequency system, what you're going to see based on this phenomenon (and there's an equivalent on the CPU side) is that the frequencies are usually just pegged at the maximum! That's not meaningful, though; in order to make a meaningful statement about the GPU frequency, we need to find a location in the game where the GPU is fully utilised for 33.3 milliseconds out of a 33.3 millisecond frame.

"So, when I made the statement that the GPU will spend most of its time at or near its top frequency, that is with 'race to idle' taken out of the equation - we were looking at PlayStation 5 games in situations where the whole frame was being used productively. The same is true for the CPU, based on examination of situations where it has high utilisation throughout the frame, we have concluded that the CPU will spend most of its time at its peak frequency."

Put simply, with race to idle out of the equation and both CPU and GPU fully used, the boost clock system should still see both components running near to or at peak frequency most of the time. Cerny also stresses that power consumption and clock speeds don't have a linear relationship. Dropping frequency by 10 per cent reduces power consumption by around 27 per cent. "In general, a 10 per cent power reduction is just a few per cent reduction in frequency," Cerny emphasises.

It's an innovative approach, and while the engineering effort that went into it is likely significant, Mark Cerny sums it up succinctly: "One of our breakthroughs was finding a set of frequencies where the hotspot - meaning the thermal density of the CPU and the GPU - is the same. And that's what we've done. They're equivalently easy to cool or difficult to cool - whatever you want to call it."
 
Hat das nicht Mark Cerny schon im letzten April im Interview mit Digital Foundry geklärt?!?

https://www.eurogamer.net/articles/digitalfoundry-2020-playstation-5-the-mark-cerny-tech-deep-dive

Nein nicht wirklich, achte auf seine Wortwahl zb. hier...
"There's enough power that both CPU and GPU can potentially run at their limits of 3.5GHz and 2.23GHz, it isn't the case that the developer has to choose to run one of them slower."

Ich denke die offiziellen Angaben mit "up to" haben auch eine Bedeutung.
 
Es macht die Sache schlimmer, weil die XSX ohne optimale Auslastung die gleichen Ergebnisse erziehlt wie die PS5 .... erzähle mal mehr ^^

Schlimm wäre es eher im umgekehrten Fall ;)
Es gehört wohl irgendwie starke Einbildungskraft dazu angeblich unoptimierten Code gut zu reden um so die Differenz der geringerem Auflösungen und/oder instabilere Bildwiederholratenchön zu reden.
Hier übrigens ein interessanter Artikel von Anandtech über die XSX bei der ISSCC (International Solid State Circuits Conference)
Vieles ist schon bei der HotChip erläutert worden, manches ist aber neu.
https://www.anandtech.com/show/16489/xbox-series-x-soc-power-thermal-and-yield-tradeoffs

Dass z.B. die CPU hier die Wattschleuder darstellt anstelle der GPU liegt nicht nur am niedrigen Takt der GPU, sondern wohl auch an den 256bit FPU Einheiten. Genau die, die ja aufgrund der DIE-Shots der PS5 APU fehlen sollen. Das wäre also schon mal eine Erklärung dafür.

Dann auch sehr interessant, wie sich Takt und Stromverbrauch bei der GPU verhält.
Die derzeitige Konstellation der XSX mit ihren 52 aktiven CUs verbraucht 20% mehr Leistung, als wenn man die gleiche TF Anzahl mit den 56 verbauten CUs (dann natürlich niedriger getaktet) erreicht hätte.
Man hat sich natürlich gegen den Vollausbau entschieden aufgrund der wesentlich schlechteren Yieldrate.

Aber hier kann man schon ableiten, wie hoch der Stromverbrauch der PS5 GPU ist, wenn bereits bei einer Takterhöhung von lediglich 9% (1675 auf 1825) 20% mehr Leistung verbraten wird und das wie gesagt, bei entsprechend weniger CUs, damit man auf den gleichen TF Wert kommt.

Die PS5 GPU taktet 22% höher als die XSX bei 15% niedrigerer Rechenleistung bei Volltakt.
Auf die obige Rechnung bezogen und rein linearer Betrachtung (was noch geschönt sein dürfte) kommt man hier schon zu dem Ergebnis, dass die PS5 GPU bei 2,23GHz Takt bereits 40% mehr Strom verbraucht als die XSX bei voller Auslastung trotz niedrigerer Rechenleistung

(22% / 9%) x20% / 12.155 x 10,28

Das dazu
Und genau das habe ich im Vorfeld behauptet.


Danke, ich wusste, dass er das nicht versteht.
Toll, es ändert alles weiterhin nichts daran, dass die TDP bei 200 Watt liegt und adaptive Systeme bei hohen Takten einen signifikanten Ersparniss bringen, den ich dir merhmals aus wissenschaftlichen Papern gezeigt und erläutert habe und du weiterhin aus eigener Faust Gleichungen aufstellst und es sich immer noch nichts an der finale Aussage ändern können wird.


Nein nicht wirklich, achte auf seine Wortwahl zb. hier...
"There's enough power that both CPU and GPU can potentially run at their limits of 3.5GHz and 2.23GHz, it isn't the case that the developer has to choose to run one of them slower."

Ich denke die offiziellen Angaben mit "up to" haben auch eine Bedeutung.
Cerny reiht zwei Hauptsätze einander und der zweite Hauptsatz ist nicht im konjunktiv.
 
Er bezieht sich darauf, das die CPU Auslastung in der Zukunft steigen wird und diese somit mehr vom Powerbudget abgreift wie es jetzt der Fall ist, was wiederum der GPU fehlen könnte. Das Ganze hat auch direkt nix mit 4K oder GPU Bottleneck zu tun .... sondern bezieht sich rein auf das jeweiligen Auslastungs-Szenario bezogen auf das vorhandene begrenzte Powerbudget.

Wäre ja schlimm wenn die CPU nicht besser ausgelastet wird und wieso sollte es ein Problem geben? Wie ich schon mal sagte wäre es ja ein Traum das ein Exclusiv Studio das schafft dauerhaft die CPU trotz 4K und voller GPU auslastung auch noch die CPU 100% aus zu Lasten und selbst da bezweifle ich das man so ein Szenario oft sieht und bei Multis schon garnicht. In Real Time Cut Scenes wo der Entwickler immer und immer wieder versuchen wird die selbe Scene zu optimieren, da sie sich nicht verändert, schafft er es vielleicht so gut zu optimieren.
DICE sind Top Entwickler und sicher haben sie bei BFV die Konsolen so gut im Griff gehabt wie kaum ein anderer Multi und konnten trotzdem nicht verhindern das die GPU die Jaguar bremst und diese sonst noch mehr Reserven gehabt hätte.
Denn nur in den Scenen mit viel Action am Schirm ging es unter 60fps, sonst könnte das Game sicher hier und da auf 70-80fps laufen ohne cap.
 
Es gehört wohl irgendwie starke Einbildungskraft dazu angeblich unoptimierten Code gut zu reden um so die Differenz der geringerem Auflösungen und/oder instabilere Bildwiederholratenchön zu reden.

Nein, es ging doch nicht vorrangig um das Resultat, sondern um das vorhandene offene Potential.
Von daher war deine Behauptung ziemlich merkwürdig^^

Den größten Gap was die Auflösung betrifft gibt es trotzdem bei Hitman3 :nix:

Cerny reiht zwei Hauptsätze einander und der zweite Hauptsatz ist nicht im konjunktiv.
Richtig aber der erste und der beziehtsich explizit auf das Powerbudget, im zweiten Satz kommt wohl zu tragen, dass Entwickler zunächst mit festen Taktraten arbeiten können um es ihnen zu erleichtern.

Wenn die Kiste in jeder Situation immer volles Powerbudget für CPU und GPU zur Verfügung stellen könnte, müsste man nicht so rumdrucksen und von "up to" reden. Diese Interpretation lässt genügend Spielraum für eben solche Fälle.

Das die Zen 2 CPU der PS5 im Gegensatz zur XSX Zen 2 CPU bzgl. der FPU Einheiten federn lassen musste ist doch ein weiterer Indiz, das man hier genau schauen musste um Powerbudget einzusparen.
 
Zuletzt bearbeitet:
Arbeite mal ne weile mit nem Editor wie UE oder CE und erstelle ne Map die 80% nur Landschaft ist und eine wo 80% nur gebaude usw. Wo du assets ohne ende erstelken musst die immer anderst aussehen sollen. Dann weißt du warum R☆ so ne große Welt machen kann aber im detail halt nicht ganz an andere games ran kommt von der Asset qualität.
Wie R☆ selber sagte auf ner GDC Keynote, das meiste an der optik ist das Lighting das extra so unreal und Künstlich wie Gemälde gewählt wurde um es spektakulärer zu machen, was mit normalem Real Time Lighting nicht so möglich wäre.
Wird das ein "Städte sind anspruchsvoller als Natur", oder "Schläuche sind anspruchsvoller als offene Welten"?
Und warum kann R bei vergleichbarer Manpower deswegen eine so große Welt in schlechter machen als andere die bei einer viel kleineren Welt generell mehr Aufwand mit den Assets haben?
 
Laut R☆ selber haben sie über 1600 Leute ohne outsorcing (mit waren es im credit 3000+) laut nem ERA thread damals.Sie selber sprachen noch von größten gaming projekt was ein Studio gestemmt hat.
Ich glaube nicht das ND mit ihren 400 Leuten + outsorcing da rann kommt.
Und nicht mal mit der Man Power könnte R☆ eine so große Welt mit der Qualität durchgehend wie ND schaffe was ja noch meist vertikal aufgebaut ist im Leveldesign.
Never!!!

Aber wie gesagt probiers mal aus in nem Editor ;)
 
An TLoU2 haben insgesamt weit mehr als 2000 Leute daran gearbeitet. Das bedeutet ND hat bezogen auf die eigene Manpower ungleich viel mehr geoutsourced..... das darf man bei der ganzen Berechnung nicht vergessen.

Ob für R* das machbar wäre, würde ich jetzt nicht komplett verneinen wollen..... die OW müsste ja auch nicht so zwanghaft riesig sein wie in RDR2 welches ja auch die Weiten des Wilden Westens wiederspiegeln sollte.

Btw. nerven mich diese immer größeren OW eh ein bisschen, da sollte man wirklich mal etwas von ab kommen.
Ist natürlich auch etwas "leichter" mehr Fläche anzubieten und mit dieser das Gam zu bewerben.

Naja, aber ich denke das nächste R* Game wird schon umhauen, da bin ich sehr gespannt, was R* mit der CPU Mehrower alles anstellen wird :lick:
 
Zuletzt bearbeitet:
Zurück
Top Bottom