PS4/XOne/PC Red Dead Redemption II

Ich habe eine normale gtx 1080 und einen 1440p 16:9 Bildschirm. Wie gut würde das Spiel bei mir laufen? Hat jemand Erfahrung mit einem vergleichbaren System?

Hier hast du einen gewissen Überblick
2019-11-06-image-2.png


oder hier
 
Zuletzt bearbeitet:
Ich zocke auf einem Hoch/Ultra Mix. Das meiste hab ich auf Ultra stehen. Es gibt ziemlich viele Einstellungsmöglichkeiten. Ganz genau kann ich es Dir jetzt nicht sagen. Bin nicht zu Hause.
Mein System besteht aus einem i7 8700k@4,8 GHz, 16 GB RAM und ner ASUS Strix RTX 2080.


Aha, danke.

Spannend was du das so erzählst, den in den Benchmarks zu RDR2 werden die 60fps @4k noch nicht mal angekratzt, ganz zu schweigen von stabil.
Und das bei einer weit besseren Aussattung, als der die du hast. Bei dir scheint es sich eher um "gefühlte" 60 fps zu handeln ....

Asus RTX 2080 Ti Strix OC/11G ~1.900 MHz, 14 GT/s


Intel Core i9-9900K (8C/16T) @ 5,0 GHz (Uncore: 4,8 GHz), MSI Z390 Meg Ace, 32 GiByte Corsair DDR4-3866
43 fps average / 40 fps minimum



B9XaGHhC4rtaBY2Fepylel1MNJ7BsFqAi5rEshWsQQETtcNis3Dy4mWs4pbwyMXg2NDwJYY1sj8Tbqmcj6AIgHJ0Ay9unJqEWEtt1JQjxsWbBh0Yv8OYyHm0LYLoHt9koHRwSR1D

 
Zuletzt bearbeitet:
Benchmarks kann man nie vertrauen, hatte damals bei Crysis 3 120 FPS mit InGame Ultra settings was mit damaligen SLI GTX680 nicht hätte möglich sein dürfen wenn man sich die Benchs von damals ansieht und doch waren es durchgehend 120.
Seitdem gebe ich nichts mehr auf Benchs, sind für mich nur als Richtwert zu gebrauchen welche GraKa die andere übertrifft aber für exakte FPS InGame Werte taugens nichts vor allem unterscheiden sich die Ergebnisse oft drastisch je nach Internetseite.
 
Zuletzt bearbeitet:
Aha, danke.

Spannend was du das so erzählst, den in den Benchmarks zu RDR2 werden die 60fps @4k noch nicht mal angekratzt, ganz zu schweigen von stabil.
Und das bei einer weit besseren Aussattung, als der die du hast. Bei dir scheint es sich eher um "gefühlte" 60 fps zu handeln ....

Asus RTX 2080 Ti Strix OC/11G ~1.900 MHz, 14 GT/s


Intel Core i9-9900K (8C/16T) @ 5,0 GHz (Uncore: 4,8 GHz), MSI Z390 Meg Ace, 32 GiByte Corsair DDR4-3866
43 fps average / 40 fps minimum




B9XaGHhC4rtaBY2Fepylel1MNJ7BsFqAi5rEshWsQQETtcNis3Dy4mWs4pbwyMXg2NDwJYY1sj8Tbqmcj6AIgHJ0Ay9unJqEWEtt1JQjxsWbBh0Yv8OYyHm0LYLoHt9koHRwSR1D

Du hast aber schon mitbekommen, dass ich in einer Auflösung von 3440x1440 spiele. Die 4K Auflösung ist ja noch mal n Stück weit höher.
 
interessant, wie es seit tagen nur um die grafik oder physik des spiels geht :coolface:
Naja, das Spiel ist jetzt nicht neu, die einzige Änderung auf dem PC ist die potentiell bessere Grafik, klar dass man sich dann in erster Linie auf die Technik stürzt.

Ich glaube aber auch dass die meisten PC-"Gamer" das Spiel lediglich als Techdemo nutzen um ihre teuer erstandene Peripherie zu testen, was schade wäre.
 
Zuletzt bearbeitet:
Darauf kannst du dich auch freuen. Das Game wird dir die Sprache verschlagen. Ich habe jetzt in den 35 Jahren, die ich jetzt zocke schon einiges gesehen, aber die PC Version von Red Dead2 ist schon echt ne Hausnummer. Ich hatte teilweise richtig Gänsehaut ?
Das ist Next Gen Grafik schon heute???
Sprache verschlagen weiß ich noch nicht, da ich ja auch von der Star Citizen Alpha sehr verwöhnt bin. Aber ich freue mich sehr die Rockstar Welt in 21:9 in 1440p zu erleben. Denn Welten haben die in der Regel drauf und das obwohl die sich da auch noch nach jedem Spiel immer wieder steigern und selbst übertreffen :D
(okay, mit Ausnahme von GTA4 aber da lag es an der Stadt :coolface: )
 

aba, aba... :yeah:

Unsere 'Experten' sollten sich bei der Gamestar bewerben ^^




rofl, die Fragestellung war bereits gestern so verdächtig.
Schön, dass du sektor als Lügner darstellen wolltest...

Naja, du hast zumindest zuverlässig gefailed xD

Auch wens nicht sinnvoll ist, auf diesen "shitie" post einzugehen, so will ich doch mal aufklären worum es eigentlich ging für andere leute die die Situation nicht verfolgt haben.

Es ging um das Vergleichsvideo der GS zwischen der X1 und der PC Version welches auf 4K in 30fps basierte. Daraufhin hat Setzer das komentiert und daruaf hingewiesen, das er das nicht nachvollziehen da er einen klaren Unterschied sieht und allein seine stabilen 60fps ein deutlicher buff sind.
Das hat mich dann irritiert, weil 4K@60fps am PC nicht drinn sind. Daher hab ich bei ihm nachgefragt, wie er das meint. Erst danach hat sich ja rausgestellt, das er nicht 4k meint sondern 1440p.

Da musst du jetzt kein Drama draus machen, wo kein Drama war.
 
Ich dachte ich war deutlich genug dass Benchmarks nicht auf die Goldwage zu legen sind. Muss ich ein altes Video herauskramen um Erinnerungen aufzufrischen?
Erstens, ich zweifle hart daran dass 4k@60 nicht möglich sein sollten und zweitens, WQHD@100/120/144FPS sind besser als 4k60. 4k60 ist fast schon ein Buzzword, denn was dahinter steckt ist schlussendlich weniger beeindruckend als WQHD@120+.
Drittens finde ich Battlefront in Kombination mit der Real Life Mod bis heute als das optisch beeindruckendste Spiel und das lief bei mir sogar in WQHD@144FPS (auf 140FPS gelockt für noch knackigere Inputreaktionszeit) oder eben im mainstreamheiligen 4k60. Diese Leistung war sogar noch mit einer alten CPU, ich sollte einmal wieder das Spiel besuchen und geupdatete Screenshots machen. ;)
 
Zuletzt bearbeitet:
Bei Ubisoft z.b. laufen Benchmarks so gut wie immer besser als dann im Spiel ;)
Bei den letzten beiden AC games hatte man meist ~10 fps weniger als im Benchmark. Bei Wildland wurde auch im ERA,CB usw. Über die Benchmark ergebnise geflucht und daher haben PC Tests jetzt meist eigene Benchmark scenen in einem game (CB,PGGH usw.) da es eben meist abschnitte gibt die noch mehr Performance brauchen als die Benchmark szenen.
Also ja Benchmarks sagen nicht immer viel aus.
 
Bei Ubisoft z.b. laufen Benchmarks so gut wie immer besser als dann im Spiel ;)
Bei den letzten beiden AC games hatte man meist ~10 fps weniger als im Benchmark. Bei Wildland wurde auch im ERA,CB usw. Über die Benchmark ergebnise geflucht und daher haben PC Tests jetzt meist eigene Benchmark scenen in einem game (CB,PGGH usw.) da es eben meist abschnitte gibt die noch mehr Performance brauchen als die Benchmark szenen.
Also ja Benchmarks sagen nicht immer viel aus.
Und ich habe oft das Gegenteilige erlebt wie eben schon geschrieben bei Crysis 3 wo ich mit 2 GTX680s konstante 120FPS mit InGame Ultra settings hatte was die Benchmarks damals abstritten.
 
C3 kann ich mich nicht mehr erinnern wie es da war, ich weiß nur das glaub ne 2080Ti laut DF immer noch unter 60fps fallen kann in 4K@Ultra.
Damals zu Crysis 3 Release waren die Benchs im 1080p Target und ich sah in keinem Bench die repräsentative durchschnittliche Framerate die ich mit GTX680 SLI erreichte. Waren alle darunter. Hab damals extra ein Video gemacht um PCGameshardware (glaube ich) zu zeigen dass meine Ergebnisse deutlich darüber waren.
 
Damals zu Crysis 3 Release waren die Benchs im 1080p Target und ich sah in keinem Bench die repräsentative durchschnittliche Framerate die ich mit GTX680 SLI erreichte. Waren alle darunter. Hab damals extra ein Video gemacht um PCGameshardware (glaube ich) zu zeigen dass meine Ergebnisse deutlich darüber waren.
Jepp, ist auch meine Erfahrung! Bei RDR 2 etwa habe ich sicher über 80% der Einstellungen auf hoch/ultra, sowie in 2160p und es läuft stabil bei 60 FPS (locked). Außerdem geht zusätzlich immer noch gut was, wenn man im vernünftigen Rahmen overclocking betreibt.

@ChoosenOne
Du solltest nicht allzusehr für bahre Münze nehmen, was Gamestar verzapft... wie du siehst haben sie sich auch mit dem Vergleich PC vs. Konsole bei RDR 2 jüngst ordentlich in die Nesseln gesetzt und...äh ziemlich exklusiv im Gegensatz zu allen anderen eine seltsame Schlussfolgerung getroffen, die DF im übrigen klar und deutlich belegbar widerlegt hat!
 
Zurück
Top Bottom