PlatformWAR WAR - Der Thread (Konsolen, PC, Mobile)

Status
Nicht offen für weitere Antworten.
Anders als in der letzten Konsolen Gen, gibt es diesmal eine Mid Gen.... logischerweise minimiert sich der grafische Unterschied zum PC dadurch.
Man nehme mal die Base Konsolen Version von RDR2 und der Unteschied ist schon größer.

Besonders die One X Version wurde technisch nicht umsonst so hoch gelobt mit den nativen 4K samt stabiler Framerate und gilt nicht unbegründet als einer der best ausehenden Games Konsolenübergreifend.
Da hat R* halt verdammt gute Arbeit geleistet ;)
 
Anders als in der letzten Konsolen Gen, gibt es diesmal eine Mid Gen.... logischerweise minimiert sich der grafische Unterschied zum PC dadurch.
Man nehme mal die Base Konsolen Version von RDR2 und der Unteschied ist schon größer.

Besonders die One X Version wurde technisch nicht umsonst so hoch gelobt mit den nativen 4K samt stabiler Framerate und gilt nicht unbegründet als einer der best ausehenden Games Konsolenübergreifend.
Da hat R* halt verdammt gute Arbeit geleistet ;)

wenn man sich aber anschaut, wie die PC-Version im Vergleich zur Xbox X abschneidet und man sich vor Augen führt, was man dafür für Hardware benötigt, spricht RDR 2 nicht wirklich für den PC.

Für mich hört sich das Video an, dass die PC-Version optisch kaum wahrnehmbar besser aussieht als die X-Version, man aber deutlich mehr Geld investieren muss, um auf dasselbe Ergebnis zu kommen.

Wenn man dann noch berücksichtigt, dass man auf die PC-Version ein Jahr länger warten musste, hat sich die PC-Version wohl kaum gelohnt.
 
Wie soll denn Stadia 4k/60fps (wahrscheinlich noch in Ultra xD) liefern in RDR2 mit ner Vega-GPU? Hab Benchmarks gesehen, wo eine Vega56 in 1080p@Medium zwischen 70-80fps schwankt.
 
wenn man sich aber anschaut, wie die PC-Version im Vergleich zur Xbox X abschneidet und man sich vor Augen führt, was man dafür für Hardware benötigt, spricht RDR 2 nicht wirklich für den PC.

Für mich hört sich das Video an, dass die PC-Version optisch kaum wahrnehmbar besser aussieht als die X-Version, man aber deutlich mehr Geld investieren muss, um auf dasselbe Ergebnis zu kommen.

Wenn man dann noch berücksichtigt, dass man auf die PC-Version ein Jahr länger warten musste, hat sich die PC-Version wohl kaum gelohnt.
Die max settings bei rdr2 sind ja auch eher für die zukunft gedacht, von den settings kann die xbox one nur träumen. (Zumal die eh nur auf 30fps läuft, die hardwareanforderungen sind für das doppelte)

Und doch, die pc version hat sich sehr gelohnt im vergleich: bessere grafik, bessere auflösung, bessere frames, bessere aa optionen, modsupport etc.
 
wenn man sich aber anschaut, wie die PC-Version im Vergleich zur Xbox X abschneidet und man sich vor Augen führt, was man dafür für Hardware benötigt, spricht RDR 2 nicht wirklich für den PC.

Für mich hört sich das Video an, dass die PC-Version optisch kaum wahrnehmbar besser aussieht als die X-Version, man aber deutlich mehr Geld investieren muss, um auf dasselbe Ergebnis zu kommen.

Wenn man dann noch berücksichtigt, dass man auf die PC-Version ein Jahr länger warten musste, hat sich die PC-Version wohl kaum gelohnt.
Gelohnt hat es sich. Aber es ist typisch rockstar schlecht optimiert. Rockstar will dran arbeiten. Wenn man sich gta 4+5 auf pc ansieht. War es genau dieselbe Leier am Anfang.
 
Wie soll denn Stadia 4k/60fps (wahrscheinlich noch in Ultra xD) liefern in RDR2 mit ner Vega-GPU? Hab Benchmarks gesehen, wo eine Vega56 in 1080p@Medium zwischen 70-80fps schwankt.

Alleine das du Stadia auf eine Vega-GPU festnagelst zeigt das du das Konzeot von Stadia und Cloud Instanzen nicht verstanden hast.

Du solltest vieleicht nicht alles glauben was du im Inet findest.
 
Alleine das du Stadia auf eine Vega-GPU festnagelst zeigt das du das Konzeot von Stadia und Cloud Instanzen nicht verstanden hast.

Du solltest vieleicht nicht alles glauben was du im Inet findest.
Im Inet steht, dass Stadia auf einer Vega56 läuft.

https://stadia.dev/about schrieb:
Hardware Stack:
Custom AMD GPU with HBM2 memory and 56 compute units capable of 10.7 teraflops

Ich glaub Google jetzt mal mehr als dir.
 
Im Inet steht, dass Stadia auf einer Vega56 läuft.



Ich glaub Google jetzt mal mehr als dir.

Ja, und wie du dort entnehmen kannst, wird sich nur ganz allgemein zur GPU Power geäußert und orientiert sich am "default Stadia Client".
Stadia ist aber keine herkömliche Konsole in der fix GPU HW verbaut wird, es ist eine virtuelle Instanz.
Und wen die Leistung des "default Stadia Clients" nicht ausreicht, wird dieser hochskaliert und erhält mehr GPU Power um zB RDR2 in 4k/60Fps darzustellen.

Das ist technisch ohne weiteres möglich und google MUß dies tun, schlieslich werben die ja damit diesen Titel in 4K@60Fps darzustellen.
 
Ja, und wie du dort entnehmen kannst, wird sich nur ganz allgemein zur GPU Power geäußert und orientiert sich am "default Stadia Client".
Stadia ist aber keine herkömliche Konsole in der fix GPU HW verbaut wird, es ist eine virtuelle Instanz.
Und wen die Leistung des "default Stadia Clients" nicht ausreicht, wird dieser hochskaliert und erhält mehr GPU Power um zB RDR2 in 4k/60Fps darzustellen.

Das ist technisch ohne weiteres möglich und google MUß dies tun, schlieslich werben die ja damit diesen Titel in 4K@60Fps darzustellen.
Diese Hochskaliermagic von Spielen auf mehrere Instanzen hast du hier schon mehrfach erwähnt, aber nie erklärt, wie das bei einem Spiel funktionieren soll. Ich warte immer noch.

Eine Quelle zu "technisch ohne weiteres möglich" wäre auch nicht schlecht.
 
Die max settings bei rdr2 sind ja auch eher für die zukunft gedacht, von den settings kann die xbox one nur träumen. (Zumal die eh nur auf 30fps läuft, die hardwareanforderungen sind für das doppelte)

Und doch, die pc version hat sich sehr gelohnt im vergleich: bessere grafik, bessere auflösung, bessere frames, bessere aa optionen, modsupport etc.

Liest sich aus dem Video anders. Grafik kaum spürbar besser, Unterschiede muss man mit der Lupe suchen und die benötigte Hardware ist um ein Vielfaches teurer als die Xbox One X. Dazu wartet man ein Jahr länger und hat zu allem Überfluss noch große Probleme, das Spiel überhaupt zum Laufen zu kriegen.

Ich hab ja selber einen i7 8700k und eine GTX 1080 Ti und werde mir RDR 2 wohl auch irgendwann Anfang 2020 zulegen aber offensichtlich wird das Spiel bei mir mit stabilen 30 Bildern wohl kaum besser aussehen als auf der X und wenn ich mir dann anschaue, was ich für meinen PC gezahlt habe und was eine X kostet, scheine ich da als PCler deutlich schlechter wegzukommen.
 
Liest sich aus dem Video anders. Grafik kaum spürbar besser, Unterschiede muss man mit der Lupe suchen und die benötigte Hardware ist um ein Vielfaches teurer als die Xbox One X. Dazu wartet man ein Jahr länger und hat zu allem Überfluss noch große Probleme, das Spiel überhaupt zum Laufen zu kriegen.

Ich hab ja selber einen i7 8700k und eine GTX 1080 Ti und werde mir RDR 2 wohl auch irgendwann Anfang 2020 zulegen aber offensichtlich wird das Spiel bei mir mit stabilen 30 Bildern wohl kaum besser aussehen als auf der X und wenn ich mir dann anschaue, was ich für meinen PC gezahlt habe und was eine X kostet, scheine ich da als PCler deutlich schlechter wegzukommen.
Miti der 1080ti wirst du bei 30fps die Xbox one X Einstellungen locker toppen. Ob das sinnvoll und so viel Mehrwert bringt sei mal dahin gestellt. Ich denke, dass es besser wäre die Konsoleneinstellungen zu imitieren und mehr Frames rauszuholen. Vielleicht hier und da noch nach Geschmack etwas höher drehen.
 
wenn man sich aber anschaut, wie die PC-Version im Vergleich zur Xbox X abschneidet und man sich vor Augen führt, was man dafür für Hardware benötigt, spricht RDR 2 nicht wirklich für den PC.

Für mich hört sich das Video an, dass die PC-Version optisch kaum wahrnehmbar besser aussieht als die X-Version, man aber deutlich mehr Geld investieren muss, um auf dasselbe Ergebnis zu kommen.

Wenn man dann noch berücksichtigt, dass man auf die PC-Version ein Jahr länger warten musste, hat sich die PC-Version wohl kaum gelohnt.

In welcher Relation kaum gelohnt?
Die PC Version mit entsprechender HW hat doch schon eine (weit) höhere Framerate samt besseren Settings auch wenn diese nicht immer deutlich erkennbar sind aber auch das ist jetzt nix neues!

Wie gesagt, gäbe es keine One X und würde man nur die Base Xbox One als Vergleich herranziehen, würde diese Diskussion gar nicht geführt werden ;)

Die One X ist halt auch eben auch keine schwache Maschiene für eine Konsole, das darf man dabei auch nicht vergessen.
 
Diese Hochskaliermagic von Spielen auf mehrere Instanzen hast du hier schon mehrfach erwähnt, aber nie erklärt, wie das bei einem Spiel funktionieren soll. Ich warte immer noch.

Eine Quelle zu "technisch ohne weiteres möglich" wäre auch nicht schlecht.

Da hast du was falsch verstanden, es werden nicht mehrere Stadia Instanzen zusammengeschaltet. Das habe ich aber so auch nie behauptet. Parallesierung bringt bei Spielen selten was, sofern diese nicht extra dafür konzipiert sind.

Die eine Stadia Instanz selbst wird hochskaliert, so das sie nicht mehr 10 Tflops hat sondern 12Tflops oder halt noch mehr.

Was und wie unter dem Supervisor auf der Physik passiert um das zu realisieren kannst du gerne google fragen, sie werden es dir aber wahrscheinlich nicht sagen weil das bei allen cloud Anbietern geheim ist.

Vermutlich werden sie aber dieser Stadia Instanz mehr GPU kerne zuteilen
 
Da hast du was falsch verstanden, es werden nicht mehrere Stadia Instanzen zusammengeschaltet. Das habe ich aber so auch nie behauptet. Parallesierung bringt bei Spielen selten was, sofern diese nicht extra dafür konzipiert sind.

Die eine Stadia Instanz selbst wird hochskaliert, so das sie nicht mehr 10 Tflops hat sondern 12Tflops oder halt noch mehr.

Was und wie unter dem Supervisor auf der Physik passiert um das zu realisieren kannst du gerne google fragen, sie werden es dir aber wahrscheinlich nicht sagen weil das bei allen cloud Anbietern geheim ist.

Vermutlich werden sie aber dieser Stadia Instanz mehr GPU kerne zuteilen
Also verheimlicht Google auf ihren Seiten beim Hardware-Stack die wahre Performanz? Ich glaub dir kein Wort. Mal davon abgesehen macht eine Vega64 aus einer Vega56 in 1080p@medium nicht urplötzlich 4k.
 
Also verheimlicht Google auf ihren Seiten beim Hardware-Stack die wahre Performanz? Ich glaub dir kein Wort. Mal davon abgesehen macht eine Vega64 aus einer Vega56 in 1080p@medium nicht urplötzlich 4k.

Selbstverständlich mach jeder Cloudanbieter ein geheimnis draus, wie er die Sachen auf seiner Physik umsetzt und was in den DataCentern abgeht.
Bei AWS weißt du noch nicht mal, wo diese genau stehen und es gibt auch keine Adressen. Die AWS Region ist Frankfurt aber ob die Datacenter dort sind und wo genau ist top secret genau wie die angaben wie deren physikalische Serverstruktur dort aussieht.

Dass kannst du mir glauben oder nicht. Ist mir völlig wayne.
Ist aber auch nicht so wichtig. Sollte Stadia RDR2 NICHT in 4K@60Fps packen wird der shitstorm sie hart treffen.

Und noch mal, lös dich von deinem altmodischen Hardware Denken, wie viele oder welche "Vegas" das jetzt entspricjht. Wir reden von virtuellen Instanzen
Ist ja fast so anstrengend mit dir, wie mit jemanden über geografie Fragen zu diskutieren, der jede größenangabe in Fussbalfeldern umgerechnet haben will ....
 
Zuletzt bearbeitet:
In welcher Relation kaum gelohnt?
Die PC Version mit entsprechender HW hat doch schon eine (weit) höhere Framerate samt besseren Settings auch wenn diese nicht immer deutlich erkennbar sind aber auch das ist jetzt nix neues!

Wie gesagt, gäbe es keine One X und würde man nur die Base Xbox One als Vergleich herranziehen, würde diese Diskussion gar nicht geführt werden ;)

Die One X ist halt auch eben auch keine schwache Maschiene für eine Konsole, das darf man dabei auch nicht vergessen.

Ich hab das Video dahingehend verstanden, dass man die Einstellung extrem hochschrauben muss, um einen kaum vorhanden Vorsprung gegenüber der X zu bekommen, was massiv zulasten der Bildrate geht. Dreht man die Einstellung so weit runter, dass man konstante 60 Bilder hat, hat man keine bessere Bildqualität als die Box, die mit 30 Bildern läuft.

D.h., gleiche Bildqualität, besser Bildrate, deutlich mehr Geld nötig. So habe ich das Video zumindest verstanden.
 
Selbstverständlich mach jeder Cloudanbieter ein geheimnis draus, wie er die Sachen auf seiner Physik umsetzt und was in den DataCentern abgeht.
Bei AWS weißt du noch nicht mal, wo diese genau stehen und es gibt auch keine Adressen. Die AWS Region ist Frankfurt aber ob die Datacenter dort sind und wo genau ist top secret genau wie die angaben wie deren physikalische Serverstruktur dort aussieht.

Dass kannst du mir glauben oder nicht. Ist mir völlig wayne.
Ist aber auch nicht so wichtig. Sollte Stadia RDR2 NICHT in 4K@60Fps packen wird der shitstorm sie hart treffen.

Und noch mal, lös dich von deinem altmodischen Hardware Denken, wie viele oder welche "Vegas" das jetzt entspricjht. Wir reden von virtuellen Instanzen
Ist ja fast so anstrengend mit dir, wie mit jemanden über geografie Fragen zu diskutieren, der jede größenangabe in Fussbalfeldern umgerechnet haben will ....
Virtuelle Instanzen müssen auch auf konkreter Hardware laufen. Und die ist im Falle von Google eine Vega56. Die machen da ja gar kein Geheimnis draus, steht doch auf deren Dev-Seiten und die werben damit :nix:

Anstrengend ist nur, dass du die Fakten nicht akzeptierst. Und was an meinem Hardware-Denken ist altmodisch?
 
Ich frage mich, wie google bei den spielen vorgeht, die gar nicht erst 60fps schaffen. Sei es wegen framelock oder schlechter optimierung. Wird google diese Titel dann gar nicht in ihren premium dienst erst aufnehmen? Oder wird denen das egal sein?
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom