Das ist korrekt und von mir unglücklich formuliert. Ich hätte es so formulieren sollen:
Anhand des Benchmarks ist ersichtlich, dass die PS5 93,01 % der Frames in 1800p ausreichend schnell rendern kann um potentiell 60 fps zu realisieren.
Was ist das denn für eine Aussage? Und sich über meinen "Nonsens" köstlich amüsieren...
Nein, die PS5 kann keine 93,01% der Frames in 1800p ausreichend schnell rendern. Auch nicht potentiell. Wenn es dafür DRS braucht, dann sind die Frames nicht mehr 1800p.
Dein Problem ist folgendes: Du versteifst dich zu sehr auf v-synced frametimes. Du gehst davon aus, dass DRS die v-synced frametimes nutzt um zu analysieren ob es aktiviert werden muss oder nicht. Das heißt es würde die v-synced frametimes nutzen, die von der GPU ausgegeben werden und an den TV/Monitor gesendet werden. Bei 45fps wären das nur 2 unterschiedliche frametimes auf die DRS reagiert, 16,67ms und 33,33ms. Deiner Meinung nach würden nur die frames mit 33,33ms DRS erfahren. Mit Garantie wird das so nicht gemacht.
Es werden die frametimes der frames direkt nach dem rendern/der Fertigstellung des frames analysiert und nicht noch erst gewartet bis sie in die render queue/buffer übergeben werden um dann v-synced geoutputted zu werden. Hätte ich besser schon letztes mal so gesagt.
Die wahren rendertimes sind nämlich die ohne v-sync, die die Engine kennt und keine Benchmarktabelle eines v-synced Spiels. Wenn du dich bei einem Spiel an eine Stelle begibst, wo nichts dynamisches passiert und konstant 40fps sind, (Beispiel 1 von vorhin war falsch mit 45fps, es müssen eig. 40fps/400frames/je 200frames je 16,67ms und 33,33ms sein, am Argument ändert es aber null) dann sind die rendertimes je frame = 25ms, die Renderlast ist je frame dieselbe (vereinfacht für dieses Beispiel). Anhand dieser Information wird DRS für alle frames aktiviert bis sie unter 16ms sind, weil sie alle die selbe Last haben.
Wäre es wie du es sagst, dann wäre die tatsächliche Renderlast immer abwechselnd 16ms, wo es kein DRS braucht und dann 33ms, wo es DRS braucht. Nur jedes zweite frame würde sich die Auflösung reduzieren. Und so kann man für dieses Beispiel behaupten nur 50% der frames brauchen DRS anstatt alle. Das aber wäre viel zu träge, ungenau und unflexibel um einen Durchschnitt der letzten Frametimes zu bilden, das DRS in diversen Implementationen braucht und zu sehen ob der Threshold überschritten wird. Falls das überhaupt möglich ist. Es wären einfach nicht die wahren rendertimes.
Entsprechend kann man hier die Brücke zu den 93,01% schlagen. Die v-synced 16,67ms deiner Tabelle (nativ 1800p) werden häufig ja nur erreicht, weil die frametimes (die realen) zwischen 16,67ms und 33,33ms dann gerade ins 16,67ms v-sync window passen. Und nicht weil der frame tatsächlich unter 16,67ms renderzeit hat. Informiere dich bitte wie triple buffered V-sync funktioniert. Wäre es double buffered würde die nativ 1800p Version häufiger als nicht auf 30fps gecapped (obwohl das Spiel in-engine die gleiche Renderlast hat) und das würdest du dementsprechend in deiner Tabelle sehen.
Anhand der Tabelle kann man die wahre Renderlast aber auch nicht mit der SX Version vergleichen, da DRS window (PS5 darf unter 1440p) und DRS Threshold scheinbar auch nicht dieselben sind.
Die "Beweise" Fackelraum und Eis-Boss kann man aber durchaus so sehen, da man Parameter für die direkte Vergleichbarkeit hat, in diesen Szenen. Du selbst gibst zu, dass die SX dort besser performt da die PS5 dort einen Bottleneck hat. Andere Szenen sind nicht so leicht direkt zu vergleichen, man kann aber sehr gut Schlüsse ziehen, die man mithilfe der Tabelle (lang und weit erklärt) nicht kann. Das mache ich hier nicht nochmal.
Der Sinn und Zweck von DRS ist die Frametimes konstant zu halten. Würden alle Frames mit 16,67 ms gerendert werden, würde es auch kein von dir in unteren Beispielen beschriebenes Problem mit VSync geben. Das beweist auch der neue DRS-Patch. Das hast du wohl ausgeblendet.
Ich glaube mein Text oben ist Antwort genug darauf.
Auch zum wiederholten Mal vergisst du bei deiner Argumentation, dass die XsX-Version neben DRS noch adaptives VSync hat und Frametime-Spikes mit Tearing kaschiert. Würde es hier analog zur PS5 konstanten VSync geben, gäbe es entweder mehr fps-Drops oder aber die DRS müsste aggressiver greifen, was zur Reduzierung der durchschnittlichen Auflösung führen würde. Und da wären wir wieder bei meiner Aussage:
Wäre die SX Version fully v-synced, dann würde sich der Performanceverlust kaum bemerkbar machen. Selbst wenn du die teared frames dann zu den 33.33ms frametimes zählst, würde sich die durschschnittliche FPS um 0,0x% bis 0,1x% reduzieren. 49 torn frames sind es von 22452 frames. Patches von Spielen in der Vergangenheit haben sogar gezeigt, dass nichtmal ein Performanceverlust zu befürchten ist, evtl sogar verbessert nachdem ein Patch gegen tearing kam, da die Entwickler Zeit hatten zu optimieren. Du scheinst wohl von massig framedrops auszugehen.
Auch wenn das hier keine Rolle spielt, habe ich mich bei diesem mathematischen Nonsens wirklich köstlich amüsiert. Danke dafür!
Wenn man keine Argumente hat... Dann erkläre uns doch was der "Median Frame Rate" Wert von 58fps (wir sprechen vom nativ 1800p Video) bedeutet Herr Lehrer. Bin gespannt.
ps: das ist keine persönliche Fehde gegen dich, bin mir aber ziemlich sicher über das was ich hier schreibe, und vielleicht interessiert es den ein oder anderen vom Thema her, sage aber auch nicht, dass ich keine Fehler mache. Wenn du dann mit Sprüchen wie "mathematischer Nonsens" kommst ohne es zu berichtigen, sagt es viel über dich aus.