PlatformWAR PC vs. Konsole - Teil 2

Status
Nicht offen für weitere Antworten.
Mit Szenenkomposition meine ich den Aufbau der Endszene über die verschiedenen Buffer. Wenn ich bei einem Deferred Renderer 16 Buffer habe die ich am Ende zusammensetze, dann habe ich einen höheren Bandbreitenbedarf als wenn ich die Szene mit 2 Buffern in einem Forwardrenderer mit 4xMSAA "abhandle" (wie gesagt: milchmädchenhaft gerechnet).

Soweit ich mich erinnere habe ich nur gelesen, dass er gesagt hat ein Deferred Renderer hätte idR einen höheren Bandbreitenbedarf als ein Forward Renderer mit MSAA und das hier der Hauptflaschenhals ist wenn man PS4 und XO vergleicht. Und damit hat er nicht Unrecht. Was natürlich nicht stimmt ist, dass die generell schwächere GPU der XO nicht auch zu den Qualitätsunterschieden beiträgt. So einfach wie 40% weniger GPU Leistung => 40% weniger Pixel ist es aber halt auch nicht.
wenn du mehrere (hundert) lichtquellen hast, wird der bandbreitenbedarf durch mehrere passes bei einem klassischen forward renderer dich killen. was ja der grund ist, warum man in dem fall einen dr nimmt, oder halt die lichter vorsortiert (fordward+).


statistisch gesehen liegen zwischen den auflösungen von ps4 und x1 über alle multititel hinweg gesehen ziemlich genau die unterschiede wie man sie nach der rohleistung erwarten kann. das sollte ein guter hinweis sein.
 
wenn du mehrere (hundert) lichtquellen hast, wird der bandbreitenbedarf durch mehrere passes bei einem klassischen forward renderer dich killen. was ja der grund ist, warum man in dem fall einen dr nimmt, oder halt die lichter vorsortiert (fordward+).


statistisch gesehen liegen zwischen den auflösungen von ps4 und x1 über alle multititel hinweg gesehen ziemlich genau die unterschiede wie man sie nach der rohleistung erwarten kann. das sollte ein guter hinweis sein.
Das stimmt schon, ich wollte nur darauf hinaus, dass seine Aussage nicht per se falsch ist :-) Für mich las es sich so, als würdet ihr beide aneinander vorbei argumentieren.

Was die Unterschiede laut Statistik angeht würde ich die genau als Statistik betrachten und sonst als nix. Schon alleine weil es ganz schwierig ist den realen Unterschied bei kombinierter CPU GPU Rohleistung einzuschätzen. Ich persönlich denke, dass bei visuell zu komplexen Spielen der EDRAM der XO die einzige Option für Multiplattform Spiele ist und hier die Bandbreite durch die Größe des EDRAM der limitierende Faktor ist. Selbst wenn die Kräfteverhältnisse in der Rohleistung der GPU umgedreht wären, hätte man imho trotzdem noch das Problem wie man alle Renderpasses in FullHD in den EDRAM quetschen soll.
 
nVidias GP100-Chip der Pascal-Generation hat angeblich seinen Tape-Out absolviert
http://www.3dcenter.org/news/nvidia...tion-hat-angeblich-seinen-tape-out-absolviert
Entdeckt in unserem Forum, kommt aus dem Beyond3D-Forum die (derzeit natürlich unverifizierbare) Kunde über den wohl erfolgreichen Tape-Out von nVidias GP100-Chip, dem größten Chip der im nächsten Jahr anstehenden Pascal-Generation. Gänzlich verwunderlich ist eine solche Meldung nicht, nach den letzten Gerüchten wollte nVidia diesesmal wieder zur üblichen Release-Abfolge zurückkehren, wonach das Portfolio vom größten Chip abwärts aufgebaut wird. Zudem hat nVidia beim GM200-Chip der Maxwell-Generation durch den Verzicht auf (sinnvolle) DoublePrecision-Fähigkeiten nichts für professionelle Bedürfnisse liefern können, jene werden weiterhin durch GK110- und GK210-Lösungen bedient. Daher bietet es sich für nVidia besonders an, zuerst den GP100-Chip herauszubringen – mit allerdings dem Pferdefuß, das jener durchaus erst einmal lange Monate auch nur für das professionelle Segment verfügbar sein könnte. Es kann also durchaus passieren, daß trotz eines prinzipiell verfügbaren GP100-Chips nVidia für das Gamer-Segment doch wieder zuerst den GP104-Chip bringt. [...]

In dem Punkt der Fertigungstechnologie wird im übrigen durch die Beyond3D-Meldung nunmehr TSMCs 16nm-Fertigung bestätigt – allerdings nicht genau festgelegt, ob es TSMCs gewöhnliches 16FF-Verfahren oder das verbesserte Verfahren "16FF+" sein soll (letzteres wäre allerdings anzunehmen). Andererseits ist die Wahl von TSMC als Chipfertiger nicht überraschend, nVidia hatte zuletzt klar betont, daß man bei TSMC als Hauptauftragnehmer bleiben will. Der Umstieg auf andere Fertiger ist auch keine Sache, die man bei solchen Chipprojekten mal innerhalb von ein paar Monaten erledigt – meistens steht sogar Jahre im voraus fest, mit welchem Chipfertiger zusammen ein Chipdesign zur Serienreife gebracht wird. Daß Samsungs 14nm-Fertigung nunmehr so gut läuft, ist aber eine Entwicklung eher der jüngeren Vergangenheit, ergo konnte nVidia darauf bezüglich der Pascal-Generation einfach nicht mehr rechtzeitig reagieren.

Danach hören die neuen Informationen aber leider schon wieder auf, so daß man zum GP100-Chip nur die bekannten Allgemeinplätze aufzählen kann, daß jener mit HBM2-Speicher daherkommen und die hochbandbreitige und damit für professionelle Zwecke interessante Anschlußart "NVLink" unterstützen wird. Der Rest ist derzeit gute Spekulation basierend auf einem früheren Artikel von dieser Stelle: Bei der Chipfläche wird nVidia wohl wegen der hohen Kosten des neuen Fertigungsverfahrens nicht ganz an die Limits der 28nm-Generation gehen, es dürften eher nur 500-550mm² werden. Darein sind vermutlich 4500-6000 Shader-Einheiten quetschbar, welche vermutlich an einem 4096 Bit DDR HBM2-Interface angeschlossen werden. Mittels HBM2 wird nicht nur der Speichertakt (und damit die Speicherbandbreite) angehoben, sondern sind auch Speicherkonfigurationen von 16 oder 32 GB möglich, die Limitierungen von HBM1 entfallen hierbei. Die 32 GB Speicher beim GP100 hat nVidia im übrigen eigentlich schon bestätigt, bei der Gamer-Ausführung werden es allerdings sicherlich nur 16 GB sein.
 
16GB RAM sollten reichen, mehr als 8 braucht eigentlich auch Niemand. Solange Konsolen den PC zurückhalten, wird der Speicher absolut keinen Mehrwert bringen, nichtmal in 4K Auflösungen.
 
Das stimmt schon, ich wollte nur darauf hinaus, dass seine Aussage nicht per se falsch ist :-) Für mich las es sich so, als würdet ihr beide aneinander vorbei argumentieren.

Was die Unterschiede laut Statistik angeht würde ich die genau als Statistik betrachten und sonst als nix. Schon alleine weil es ganz schwierig ist den realen Unterschied bei kombinierter CPU GPU Rohleistung einzuschätzen. Ich persönlich denke, dass bei visuell zu komplexen Spielen der EDRAM der XO die einzige Option für Multiplattform Spiele ist und hier die Bandbreite durch die Größe des EDRAM der limitierende Faktor ist. Selbst wenn die Kräfteverhältnisse in der Rohleistung der GPU umgedreht wären, hätte man imho trotzdem noch das Problem wie man alle Renderpasses in FullHD in den EDRAM quetschen soll.

Genau das ist mein Punkt.

Ob die XB1 jetzt Spiel XY in 1080p darstellung könnte von der GPU Leistung her muss man gar nicht fragen, da selbst wenn sie es könnte das Bandbreitenbottleneck einen Strich durch die Rechnung machen würde.

Genrell die Effizients mit der Hardware genutzt gerade bei 3rd Party Spielen so windig, das man imo kaum sagen, dass die GPUs von Ps4 oder XB1 an ihre Grenzen gebracht wurden.
Natürlich ist es unsinning von 3rd Party Entwicklern derartige Optimierung zu erwarten, aber dementsprechend macht es auch wenig Sinn ausgehend von der Performance von 3rd Party Spielen Rückschlüsse auf die Leistungsverhältnisse von XB1 und Ps4 zu schließen.

99% der Framedrops die wird auf Konsolen sehen haben nix mit Leistung zu tun, sondern mit schlechtem Code, deswegen kann man es auch mit Patches fixen(wie es gerade in Open World Spielen ständig passiert, siehe GTA V, FarCry4, AC:Unity etc.).

99% der 900p Spiele auf der XB1 haben nix mit Leistung zu tun sondern mit ESRAM Bottleneck, deswegen lässt sich das auch nicht einfach umgehen indem man visuelle Setting anpasst.
Ich wette wenn Xb1 Spiele 1080p erreichen könnten wenn man Dinge wie Schattenquali, Texturequali etc. runterschraubt, dann würde MS vielen Devs nahelegen das zu tun, denn die 900p Sache ist ein riesen PR-Problem für Microsoft.
Aber das geht nunmal nich.
 

Gute VR wird Grafikleistung zum Frühstück essen:
On the raw rendering costs: a traditional 1080p game at 60Hz requires 124 million shaded pixels per second. In contrast, the Rift runs at 2160×1200 at 90Hz split over dual displays, consuming 233 million pixels per second. At the default eye-target scale, the Rift’s rendering requirements go much higher: around 400 million shaded pixels per second. This means that by raw rendering costs alone, a VR game will require approximately 3x the GPU power of 1080p rendering.
Es gibt zwar tricks von nvidia um das teilweise abzuschwächen aber die Spieleanforderungen werden auch anziehen wenn jemand nicht mit Konsolengrafik spielen will.
 
Zuletzt bearbeitet:
nVidias GP100-Chip der Pascal-Generation hat angeblich seinen Tape-Out absolviert
http://www.3dcenter.org/news/nvidia...tion-hat-angeblich-seinen-tape-out-absolviert
naja erst mal schauen wann hbm2 zu verfügung stehen wird zur zeit gibts nicht mal karten mit hbm 1 am markt
für mich klingt es nur nach marketig wobei ich mich frage was nvidia damit bewirken will (keiner soll titanx und 980ti kaufen wartet?) :neutral:

16GB RAM sollten reichen, mehr als 8 braucht eigentlich auch Niemand. Solange Konsolen den PC zurückhalten, wird der Speicher absolut keinen Mehrwert bringen, nichtmal in 4K Auflösungen.
na ubi schaft bei ac:u in 4k 12gb voll zu bekommen und wenn man will bekommt man auch 32gb voll
 
Spielst du mit sweet fx sachen cortana?


Edit: naja "spielen" er hat ja immernoch den startkram xD
 
also bei mir haben sich die 16 gb schon gelohnt, bin öfters über den 8

find es halt praktisch wenn man neben dem game noch 100 chrome tabs offen haben kann :v:

Bei den 16GB ging es aber nicht um System RAM sondern VRAM der Grafikkarte :ugly:

Und ja, hab jetzt auch 16GB DDR3 1600MHz RAM. 8 reichen zwar für alles, allerdings belegt bei mir Windows inkl. Browser und andere Programme die ich nicht schließen will direkt 3-4GB davon und um zu spielen muss ich dann oft den RAM leeren, sonst gibts kurz Standbilder, recht nervig.

Aber dafür hat man ja nen PC um den jederzeit seinen Bedürfnissen anzupassen :)
 
Weiss gar nicht wie das Spiel ohne aussieht xD

Ohne hats einfach keinen Gelbfilter :v:

witcher32015-05-3115-6ws57.jpg


witcher32015-05-2919-ecsyo.jpg


witcher32015-05-2920-pdsds.jpg


ultrad5jon.jpg


Die Unterschiede halten sich aber sowieso in Grenzen, ich habe SweetFX relativ schnell wieder runtergenommen, da es das gesamte Bild abgedunkelt hat und die Farben eher verfälscht als wie angegeben verbessert hat. Um den Witcher auf E3 2013 Niveau zu bringen bedarf es mehr als ein paar Farbanpassungen, bin mir nach dem Durchspielen aber gar nicht so sicher, ob ich das wollen würde :)

Leider kann man in Screenshots nicht vollständig vermitteln wie genial es auf nem 50 Zöller in 1440p aussieht, da fehlt das Gras das sich im Wind wiegt, die Wellen die übers Meer plätschern und vor allem die genialen Nebel-Schwaden die übers Land ziehen :banderas:
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom