ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Bei all der Aufregung hier, läuft Hogwarts Legacy endlich mal auf der Series X so stabil wie auf der PS5? PS5 auch dort dank Zauber-SSD und fähigen Entwicklern mit deutlich besseren Ladezeiten.


Was ist den nda mit den TFlops nur los? Müssten die nicht schlechte Programmierung Bruteforcen?

:zweifel:
 
Bei all der Aufregung hier, läuft Hogwarts Legacy endlich mal auf der Series X so stabil wie auf der PS5? PS5 auch dort dank Zauber-SSD und fähigen Entwicklern mit deutlich besseren Ladezeiten.


Was ist den nda mit den TFlops nur los?

:zweifel:

Wie man sieht, wäre die Frage wohl eher, was mit den Entwicklern los ist :ol:
Ansonsten wäre es mal schön, wenn du hier etwas weniger getriggert auftreten würdest ;)
 
Der feiner Herr bezeichnet Leute mit mehr als doppelter Spielzeit in Spielen die er selbst spielt als Non-Gamer....ich denke mal hier ist Name Programm.
Bei all der Aufregung hier, läuft Hogwarts Legacy endlich mal auf der Series X so stabil wie auf der PS5? PS5 auch dort dank Zauber-SSD und fähigen Entwicklern mit deutlich besseren Ladezeiten.


Was ist den nda mit den TFlops nur los? Müssten die nicht schlechte Programmierung Bruteforcen?

:zweifel:
Ladezeit ab Dashboard identisch, Fast Travel PS5>SX, QR/AC SX>PS5......Also eher Gleichstand bei den Ladezeiten.....was ist nur los mit der Zauber-SSD wenn sie trotz fähiger Entwickler nicht in die pushen kommt?
 
Ansonsten wäre es mal schön, wenn du hier etwas weniger getriggert auftreten würdest ;)

Bin einfach nur amüsiert wenn User zu den gezeigten Beispielen Monatelang auf Malle sind, und bei einem Sieg, der der XSX gegönnt sei (bei Alan Wake 2) auf einmal wieder ihren Dauerurlaub storniert haben. Einfach amüsant.

Von den 12TFs der Series X bekommt man einfach kaum etwas mit und ich mach mich halt einfach noch immer lustig über diverse Aussagen die 2020 getätigt wurden. Anscheinend ist der hohe Takt doch ziemlich sinnvoll wie von Cerny angekündigt hat und TF's alleine betrachtet gar nicht wichtig.

Dennoch werde ich die TFs feiern, sollte eine Pro Konsole auf den Markt kommen :coolface:
 
Die Aussagen zur GPU stimmen iregndwie häufiger als die Aussagen zur SSD.....vor allem der Teil das die mehr TF durch mehr CU gerade zu Beginn etwas mehr Arbeit machen werden. XBros hatten wohl recht die ganze Zeit.
Und ja die Pionier-Arbeit die MS angestoßen hat wird auch der Pro helfen, welche noch mehr CU haben dürfte.
Wer war Monatelang auf Malle?
 
Bei all der Aufregung hier, läuft Hogwarts Legacy endlich mal auf der Series X so stabil wie auf der PS5? PS5 auch dort dank Zauber-SSD und fähigen Entwicklern mit deutlich besseren Ladezeiten.


Was ist den nda mit den TFlops nur los? Müssten die nicht schlechte Programmierung Bruteforcen?

:zweifel:
So getriggert durch die „Aufregung“?

Um es nach Fabian Döhla zu sagen:

„Schade“
 
Bin einfach nur amüsiert wenn User zu den gezeigten Beispielen Monatelang auf Malle sind, und bei einem Sieg, der der XSX gegönnt sei (bei Alan Wake 2) auf einmal wieder ihren Dauerurlaub storniert haben. Einfach amüsant.

Von den 12TFs der Series X bekommt man einfach kaum etwas mit und ich mach mich halt einfach noch immer lustig über diverse Aussagen die 2020 getätigt wurden. Anscheinend ist der hohe Takt doch ziemlich sinnvoll wie von Cerny angekündigt hat und TF's alleine betrachtet gar nicht wichtig.

Dennoch werde ich die TFs feiern, sollte eine Pro Konsole auf den Markt kommen :coolface:

2019/2020 wurden so einige Sachen gepostet.... 100% Texturen an der GPU vorbei, UE5 only possible on PS5, völlig neue Leveldesigns dank PS5 SSD ect. pp, da brauchst Du nicht ständig nur mit TF ankommen nur solange es dir in den Kram passt ;)
Btw. wurde der höhere Takt der PS5 GPU auch nie in Frage gestellt oder das dieser keine Auswirkungen hätte, dass wurde schon zu One X Zeiten gesagt ;)

Jeder weiß, das die PS5 ne schnellere SSD und die XSX ne stärkere GPU und mehr Banbreite hat, was die Entwickler letztendlich daraus machen, sind nun mal die Ergebnisse, die wir hier posten und darüber reden und das hat verschiedene Ursachen.

Das geht aber auch weitaus weniger getriggert und du musst auch niemanden irgendetwas gönnen, da es nicht der erste Fall ist.^^

Wenn man sich hier etwas normaler unterhalten würde, könnte man ja auch mal ein paar interessante Hintergründe zu dem Weshalb & Warum und wie wird die Zukunft aussehen ect. diskutieren.
 
Was ist jetzt mit den 20% mehr Power?
20% mehr Leistung für zwei Szenen? Heftig. :angst: müsste das nicht durchgehend durch die Bank bei jedem Spiel so sein?
Hab doch schon letztens erklärt, dass solange die SX in gleichen Szenen in den fps-cap läuft, man garnicht weiß wieviel %-Unterschied im Durchschnitt gegeben sind. Hier im Screenshot sind es knapp 28%, unlocked vielleicht sogar über 9000%! Da DRS nicht implementiert ist und sich Remedy auf Parity in Bezug auf Auflösung entschieden hat, kann man es mit dem bisherigem Material nicht so gut sagen. Vielleicht kommen noch andere Analysen.
IOykTJ8.png
________________
Bei all der Aufregung hier, läuft Hogwarts Legacy endlich mal auf der Series X so stabil wie auf der PS5? PS5 auch dort dank Zauber-SSD und fähigen Entwicklern mit deutlich besseren Ladezeiten.


Was ist den nda mit den TFlops nur los? Müssten die nicht schlechte Programmierung Bruteforcen?

:zweifel:
Keine Ahnung wieso du jetzt mit alten Kamellen kommst, die hier schon zum Release diskutiert wurden und auch über das Performanceprofil des Spiels habe ich z.B. hier und hier geschrieben. Zitat von mir für diejenigen die nicht draufgehen wollen:
- Hogwarts Legacy: Die Meinung der Blauen darüber, dass die PS5 Version die einzig wahre ist, kommt nur daher, dass DF 90% des Videos ausgerechnet über 2 von 5 Modes redet, die besser auf der PS5 sind (RT und Performance). Im Video von ElAnalistaDeBits werden die anderen drei, die auf der SX besser laufen, auch gezeigt (Quality, Balanced, Performance HFR). Er sagt zwar, dass alle Modes bis auf den RT Mode auf SX besser laufen,
"- PS5 shows better performance in Ray-Tracing mode, but Xbox Series X framerate is higher in all other modes."
ich würde der PS5 auch da den besseren Performance Mode attestieren, obwohl sie fast gleich performen. Das Video von ihm ist aber viel älter und zum Launch erschienen und hatte nicht den Patch drin, der die FPS im Performance Mode auf der PS5 verbessert, den DF drauf hatte. Und selbst der schlechte RT Mode auf SX läuft besser außerhalb Hogwarts wie es aussieht. Kann gerne jeder selbst überprüfen indem er die beiden Videos anschaut. Hier das Video von ElAnalistaDeBits. 3 von 5 Modes sind Stand jetzt besser auf SX.
________________
Von den 12TFs der Series X bekommt man einfach kaum etwas mit und ich mach mich halt einfach noch immer lustig über diverse Aussagen die 2020 getätigt wurden. Anscheinend ist der hohe Takt doch ziemlich sinnvoll wie von Cerny angekündigt hat und TF's alleine betrachtet gar nicht wichtig.
1. Du bekommst nichts mit, weil die Male in der die SX die Mehrpower ausspielt, in deiner Bubble halt nunmal keine Erwähnung finden. So ehrlich darfst du mit dir selbst sein. Ich habe sie ja oft hier erwähnt, wie zuletzt eine Zusammenfassung der letzten Ergebnisse geschrieben, aber scheint bei den Blauen vorbeizugehen oder sie wollen nicht wahrhaben. Zugegeben wird die Mehrpower manchmal garnicht abgerufen oder sie endet in ein wenig höherer Auflösung. Erwartest du einen Generationssprung mit +2TF oder jedes einzige Mal einen Sieg der SX? Inzwischen müsste klar sein, wie der Hase läuft bezüglich Takt-Vorteil der PS5 oder CU-Vorteil der SX. Stichwort Optimierung, alte Engines etc. Mit Mesh Shader ändert sich ein wenig was und von Sampler Feedback Streaming hat man leider auch noch nicht viel gehört. Und Machine Learning, falls das je Verwendung findet...
2. Wie Hazuki sagt, von den Blauen hat man vorher und zu Beginn der Gen ganz andere Dinge gelesen, als manch Grüner, die sich immer einen SX Sieg erhofften (Was aber weit weg von unrealistisch war. Man hat die Fähigkeit der Entwickler überschätzt).
Zu Beginn der Gen als PS5 mehr Vorteile ausspielte so Dinge wie "AC Valhalla läuft auf PS5 besser, in Zukunft werden die Unterschiede noch viel größer!" Genau das Gegenteil von dem was Sinn macht.
Vor Beginn der Gen Dinge wie "Geometry Engine hat nur die PS5, RDNA3 Tech, Cache Scrubbers, RAM der PS5 füllt in 1-2 Sekunden und alle 1st-Party Games werden diese Ladezeiten haben, Quark wie das hier wurde gepostet und geglaubt + Comment darunter" und mein Favorit - ich glaube es ist Zeit, wurde ja schon widerlegt durch Lords of the Fallen und Aveum:
glncIRq.png

Ursprung war, dass die Lumen PS5 Demo laut Epic in 1440p@30fps lief und laut ihm Epic schon 60fps erreicht oder knapp dran ist, konnte aber nie einen Beweis für die Aussage bringen. Wir sprechen hier natürlich von interner Auflösung vor reconstruction mit UE5 Super Resolution. In diesem Comment ist er noch auf 1440p runtergegangen von vormals erhofften 4k@60fps in Zukunft auf PS5.
________________
Capcoms neue REX Engine wird auch auf Mesh Shader setzen. Hier ein wenig Info dazu:
CAPCOM said in-development games will render backgrounds using Mesh Shaders to reduce VRAM usage by compressing and decompressing data through meshlets. Users with GPUs that do not support Mesh Shaders won't be left behind, anyway; CAPCOM has prepared code that mimics their functionality while running in vertex shaders.
Bei Alan Wake 2 kann der Unterschied von GTX 1080 Ti zur RTX 2080 bis 2,7x sein laut DF, z.B. 23fps vs 63fps weil der Hardware Support für Mesh Shader fehlt. Normalerweise sind die Karten quasi gleich schnell. 5700XT vs 2080 nicht ganz so hohe 2x. PS5 hat aber immerhin Primitive Shaders, also wird der Unterschied nicht so hoch sein. Mal schauen wie hoch. Glaube die PC Version nutzt garnicht den Primitive Shader Path den die PS5 hat, für Grakas die PS haben. Lohnte sich vielleicht nicht. So ist Mesh Shader vs Primitive Shader Benchmarking aktuell schwer. Vielleicht nutzt die 5700 XT sie ihn aber, da der Unterschied geringer ist obwohl die RTX 2080/1080Ti normalerweise 20% schneller sind. Würde tatsächlich Sinn machen.

Mal sehen wer diesmal darüber heult, dass ich soviel schreibe :coolface:
 
Ich hab dir schon ein paar mal gesagt, dass ma ElAnalistaDeBits vergessen kann,du hast ja selbst gesagt,dass seine Framerate Analysen falsch sind, da selbst FM bei ihm, und nur bei ihm Framerate Probleme hatte.
Wenn sämtliche Youtuber sagen,dass Hogwarts Legacy auf der PS5 besser läuft, außer bei ElAnalistaDeBits sollte das zu denken geben. xD Er ist ja nicht mal in der Lage, 1zu1 die selben Situationen zu testen,während alle anderen Youtuber genau das machen,was ja auch Sinn macht. ;)
 
Ich hab dir schon ein paar mal gesagt, dass ma ElAnalistaDeBits vergessen kann
Und jedes mal hielt ich es für Mumpitz :coolface:
,du hast ja selbst gesagt,dass seine Framerate Analysen falsch sind, da selbst FM bei ihm, und nur bei ihm Framerate Probleme hatte.
Wenn sämtliche Youtuber sagen,dass Hogwarts Legacy auf der PS5 besser läuft, außer bei ElAnalistaDeBits sollte das zu denken geben. xD Er ist ja nicht mal in der Lage, 1zu1 die selben Situationen zu testen,während alle anderen Youtuber genau das machen,was ja auch Sinn macht. ;)
Da ist ziemlich viel Aluthut von dir mit bei. Die framespikes in seinen Analysen sind ein kleiner Fehler und im Großen und Ganzen nicht so wichtig, wenn es nicht gerade drauf ankommt und es lässt sich auch erklären, wie diese zustandekommen. Habe ich ja auch erklärt und auch nur erwähnt, falls der Verdacht aufkam, dass AW2 auf SX in diesen Szenen überhaupt fps dropt. Das war wichtig, weil die SX in den fps-cap läuft und der %-Unterschied nicht berechnet werden kann. Frame-perfekt ist seine Analyse aktuell aufgrund minimalster Abweichung seines Captures oder Setups nicht, aber sie reicht locker um die Performance sehr genau zu zeigen.
Außer natürlich du wirfst ihm vor, dass er seine Analysen faked. In welcher Weise macht er das deiner Meinung nach? Er löscht frames aus dem Captures? Sein FPS-counter zeigt Zahlen an die nicht sein können? Oder er sucht sich nur Szenen aus die Xbox bevorteilen (vielleicht nehmen andere ja oft Szenen die PS5 bevorteilen)? All das lässt sich entweder leicht beweisen oder es wäre inzwischen bei der Größe seines Channels schon längst aufgefallen. Da du nicht sagen kannst, was es ist, kann ich deiner Meinung nicht viel Wert beimessen.

Die meisten Analyse-Channel benutzen übrigens Tools, die sie nicht selber geschrieben haben. Zum Beispiel TrDrop das Bugs haben kann. DF und NXGamer haben ihre laut eigener Aussage selbst geschrieben. Bei den anderen weiß ich es nicht. Je nachdem wie genau die Tools fps-Änderungen oder Tearing innerhalb der Captures erkennen können, kann es bei allen Analysen zu Abweichungen kommen. Wenn du also sagst, dass "alle" (wer sind alle?) sagen Hogwarts läuft auf PS5 besser, dann liegt es vielleicht an Dingen die ich im Zitat angesprochen habe. Kaum einer hat alle 5 Modi getestet außer ihm und bei ihm waren 2 davon (die meist genutzten), wie bei den anderen, auch auf PS5 besser und das noch vor dem PS5 Performance Patch, den alle nutzten außer ihm. Seine Analyse für das Spiel kam ziemlich früh. Hast du andere Beispiele? Er hat Cyberpunk 2.0 Update und Layers of Fear mit PS5 Sieg getestet wie ich schon sagte. Beim Pixelzählen würde ich auch zuerst anderen den Vorzug geben, aber wenn nichts anderes da ist, nehmt man was da ist. Wo ist also dein genaues Problem?
 
Ich hab dir schon ein paar mal gesagt, dass ma ElAnalistaDeBits vergessen kann,du hast ja selbst gesagt,dass seine Framerate Analysen falsch sind, da selbst FM bei ihm, und nur bei ihm Framerate Probleme hatte.
Wenn sämtliche Youtuber sagen,dass Hogwarts Legacy auf der PS5 besser läuft, außer bei ElAnalistaDeBits sollte das zu denken geben. xD Er ist ja nicht mal in der Lage, 1zu1 die selben Situationen zu testen,während alle anderen Youtuber genau das machen,was ja auch Sinn macht. ;)
El analdingsbums wurde auch schon so oft exposed. auch bei GT7... :zweifel:

 
El analdingsbums wurde auch schon so oft exposed. auch bei GT7... :zweifel:

Jo ,ElAnalistaDeBits war auch schon im Neogaf Forum Thema.
xD
 
Ja du denkst, das etwas mehr CU den Entwicklern Probleme machen, verstehe ich das richtig? :D
Die PS4 hatte 50% mehr CU, One X ~40% mehr CU und jede neue GPU hat mehr CU, teils das Doppelte je nach neuem Modell und da gibt es und gab es auch keine Probleme :nix: warum auch?
 
Ja du denkst, das etwas mehr CU den Entwicklern Probleme machen, verstehe ich das richtig? :D
Die PS4 hatte 50% mehr CU, One X ~40% mehr CU und jede neue GPU hat mehr CU, teils das Doppelte je nach neuem Modell und da gibt es und gab es auch keine Probleme :nix: warum auch?

Er sprach von mehr Arbeit und nicht gleich von Problemen.
Mehr Compute Units bedeutet i.d.R immer auch mehr Arbeit hinsichtlich der Parallelisierung und die daraus entstehende optimalen Auslastung jeder einzelnen Units.
Ganz besonders wenn der native Renderer eher unterhalb des max. 4K Targets liegt.
Das sah man ganz deutlich gerade in den ersten Jahren bei vielen Games, wo man schon anhand der TPD Werte gesehen hat, das hier die Konsole nicht wirklich komplett ausgelastet wurde und nach weiteren Patches nicht nur eine bessere Optimierung und somit Ergebnis sondern und auch i.d.R den jeweiligen TPD Werte bei den Titeln gestiegen sind.

Da macht den Devs eine GPU mit weniger CUs aber dafür mit höhter Taktrate es natürlich etwas leichter, hier diese besser/schneller auslasten zu können.
 
@Hazuki
Das wäre ja laut ihm ein <problem für devs, das sie mehr arbeit hätten wegen mehr CU. Aber sowas hab ich noch nie gehört, sonst hätten ja Devs schon bei der PS4 und meinen anderen beispielen Probleme gehabt und dabei wurde die PS4 von Entwicklern gelobt, wie leicht man auf ihr, im gegensatz zur One, gerade am anfang programmieren kann :nix:
Ne 7900XTX hat 96CU und bringt das ja auch wie erwartet auf die Straße.

Wie ich schon mal sagte, ist eher der sehr niedrige Takt ne sache wo die SX teils nicht ganz so gut performt wie sie könnte und manche Engines mehr oder weniger. Bestes beispiel RDR2 wo DF nach nem gespräch mir Den devsmeinten, die Engine ist extrem Bandbreiten hungrig und das ist das Problem warum die Pro nicht wie in anderen Games näher dran ist von der Auflösung und die One X 4K konnte. Sah man auch gut an ihren tests am PC, wo GPUs mit mehr Bandbreiten , in RDR2 viel besser performt haben mit höherer Auflösung.
Gab auch viele Devs im ERA wo meinten der geteilte Ram ist auch nicht Ideal und sie kann nicht immer volle Bandbreite abrufen, könnt ihr euch ja sicher dran erinnern an die Posts.
 
Zurück
Top Bottom