Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Dem stimme ich auch zu.

Gescriptete Szenen sehen grundsätzlich immer besser aus, sieht man ja auch in KZ4. Sobalds dann wirklich losgeht, lassen die Texturen und der Polycount schon nach.

Ja das ist mir auch schon früher aufgefallen. Ich frage mich mittlerweile auch in welchem Bereich man die Kamera am Ende bei der Hubschrauberszene überhaupt bewegen kann. Scheint ein doch sehr eingeschränkter Viewport zu sein.
 
Ja das ist mir auch schon früher aufgefallen. Ich frage mich mittlerweile auch in welchem Bereich man die Kamera am Ende bei der Hubschrauber überhaupt bewegen kann. Scheint ein doch sehr eingeschränkter Viewport zu sein.
Ist wohl wie bei der Vogel-Demo der WiiU :v:
 
Ist wohl wie bei der Vogel-Demo der WiiU :v:

tumblr_lv795w3Dxv1r2zl9wo1_400.gif
 
Das Spiel wird sich noch so etwas von steigern. :D

Die hatten bisher doch Nichtmals vernünftige PS4 Entwickler Kits.

Schaut euch mal das erste Material von Killzone für Vita an.
killzone-ngp-2.jpg


und jetzt das neuste Material das immer noch nicht Final ist.

original.jpg
 
Das Spiel wird sich noch so etwas von steigern. :D

Die hatten bisher doch Nichtmals vernünftige PS4 Entwickler Kits.

Schaut euch mal das erste Material von Killzone für Vita an.
killzone-ngp-2.jpg


und jetzt das neuste Material das immer noch nicht Final ist.

original.jpg

Next Gen Thread Rule Nr. 41

Nur bei Nintendo Konsolen wird Alpha Kit und Optimierungszeit überhaupt berücksichtigt und dies überproportional :brit:

Edit: Am ende gibts trotzdem Mario no AA edition :v:
 
Zuletzt bearbeitet:
mal sehen was der chefentwickler dazu sagen wird. das untere könnte downsampling sein aber warten wir mal ab.
 
Das Spiel wird sich noch so etwas von steigern. :D

Die hatten bisher doch Nichtmals vernünftige PS4 Entwickler Kits.

Schaut euch mal das erste Material von Killzone für Vita an.
http://videojuegosadiario.com/wp-content/uploads/2011/02/killzone-ngp-2.jpg

und jetzt das neuste Material das immer noch nicht Final ist.

http://img.gawkerassets.com/img/18d8coqeu4tcejpg/original.jpg

War bei Killzone 2 ja ähnlich. Nach Guerilla Games ist die Kampagne fertig, da wird man die Zeit also noch gut für Optimierungen nutzen können und da das Spiel im Februar mit absolut konstanten 30fps in 1080p lief, wird man noch einiges an Puffer haben.
 
das habt ihr pikas schon bei Gears of war 1 damals gesagt das nicht mehr gehen wird xD
und jetzt kann man sogar Gears PC @max bilder zeigen und das ehemals bestaussehenste game kackt so ziemlich gegen alles von heute ab
ibxzQyp6Gx4YER.jpg

idu1eAe5vI8VE.jpg

Was ist denn jetzt was bei den beiden bildern? Unten die PC Version von gow 1 und oben gow3 oder wie :-? -wobei das charmocell 1:1 ist...

Das obere ist ja OK, das untere geht gar nicht :o -wobei ea in Bewegung sicher besser wirkt, seh da nettes bumpmapping und scharfe Texturen, das kommt aber auf so nem screenshot nie so gut rüber...
 
Zuletzt bearbeitet:
Was sieht daran schlecht aus? Sehr gute Texturen und gutes Leveldesign.

Ist btw beides Gears1 du Kulturbanause.
 
Dann siehts doch nach wie vor recht gut aus, viel mehr gibt die UE3 eh nicht her, naja PC halt :king:
 
Mark Cerny Comments On PS4 Bottlenecks And How Devs Can Overcome


PS4 lead system architect Mark Cerny set about talking about the bottlenecks that the console faces despite its power. Of course, this is all so that the team could consider ways for developers to work around them.
With graphics, the first bottleneck you’re likely to run into is memory bandwidth. Given that 10 or more textures per object will be standard in this generation, it’s very easy to run into that bottleneck. Quite a few phases of rendering become memory bound, and beyond shifting to lower bit-per-texel textures, there’s not a whole lot you can do.
“Our strategy has been simply to make sure that we were using GDDR5 for the system memory and therefore have a lot of bandwidth.”

And if memory isn’t the bottleneck? “If you’re not bottlenecked by memory, it’s very possible – if you have dense meshes in your objects – to be bottlenecked on vertices. And you can try to ask your artists to use larger triangles, but as a practical matter, it’s difficult to achieve that. It’s quite common to be displaying graphics where much of what you see on the screen is triangles that are just a single pixel in size. In which case, yes, vertex bottlenecks can be large.
“There are a broad variety of techniques we’ve come up with to reduce the vertex bottlenecks, in some cases they are enhancements to the hardware. The most interesting of those is that you can use compute as a frontend for your graphics.”

Cerny describes this as “a mix of hardware, firmware inside of the GPU, and compiler technology. What happens is you take your vertex shader, and you compile it twice, once as a compute shader, once as a vertex shader. The compute shader does a triangle sieve – it just does the position computations from the original vertex shader and sees if the triangle is backfaced, or the like.

“And it’s generating, on the fly, a reduced set of triangles for the vertex shader to use. This compute shader and the vertex shader are very, very tightly linked inside of the hardware. It’s also not a hard solution to implement.
“From a graphics programmer perspective, using this technique means setting some compiler flags and using a different mode of the graphics API. So this is the kind of thing where you can try it in an afternoon and see if it happens to bump up your performance,”
he said in an interview with Gamasutra.
Everyone got all that? With the PlayStation 4 releasing this Holiday season, it seems pertinent to get all this out of the way early to avoid a PS3-style debacle. However, Cerny and his team are already hard at work to avoid said debacle. They’ve promised a PS4-optimized version of their performance analysis tool Razor and example code for devs.
Cerny also says that real world code will be distributed later. “If somebody has written something interesting and is willing to post the source for it, to make it available to the other PlayStation developers, then that has the highest value,” he says.

Quelle: http://gamingbolt.com/mark-cerny-comments-on-ps4-bottlenecks-and-how-devs-can-overcome




 
Zuletzt bearbeitet:
AMD hat eine Folie zu ihrer hUMA-Implantation bei Kaveri veröffentlicht:
http://www.computerbase.de/news/2013-04/amd-huma-verbessert-kommunikation-zwischen-cpu-und-gpu/

Genau das gleiche sollte auch die PS4 bieten.
SEHR interessant sind die Folien, die das Prinzip auch bildlich etwas darstellen und zeigen welche Vorteile das ganze hat.

heise schreibt auch viel interessantes dazu:

Extra für shamanu: :v:

Speziell die 3D-Rendering-Performance soll hUMA beschleunigen, wie Phil Rogers auf c't-Anfrage erklärte: "Spieleentwickler wollten seit einigen Jahren extrem große Texturen nutzen, mussten sich bis dato aber einer ganze Reihe von Tricks bedienen, Teile großer Texturen in kleinere Texturen zu verpacken. Denn heute muss eine Textur zunächst in einem separaten Bereich des physischen Speichers liegen, bevor die GPU sie verarbeiten darf. Mit hUMA werden Anwendungen viel effizienter mit Texturen umgehen können."
Phil Rogers erklärte während der Telefonkonferenz außerdem, dass auch diskrete GPUs von hUMA profitieren sollen. Denn GPUs dürfen dann auf den gesamten Systemspeicher (Virtual Address Space inklusive Pageable System Memory) zugreifen statt nur auf Teile davon, und zwar mit den gleichen Pointern, wie sie auch CPUs nutzen.

Scheiß PS4 und ihre billigen spezial Anpassungen, die nur bei Computing Vorteile haben. :awesome:

http://www.heise.de/newsticker/meldung/AMDs-Unified-Memory-Mehr-Performance-und-Energieeffizienz-fuer-Kaveri-und-Co-1850975.html


 
Zuletzt bearbeitet:
Die Leute bitten mich immer "Ikaruga, Ikaruga! Erklär uns Massenvernichtungs-RAM!" Und ich muss geschockt feststellen, dass mir dafür die Worte fehlen. Was bietet sich da eher an, als ein Vergleich der beiden japanischen Traditionsunternehmen und ihre Ansicht von Technik?

Sony: 8GB GDDR5 RAM mit 176GB/S Bandbreite
8gbcerny9pu1p.jpg


Nintendo: 2GB DDR3 RAM mit 12GB/S Bandbreite

iwatawiiurahmt7u5s.jpg

Sony listens to Developers, Nintendon't!

Sony hat diesen unfassbaren Massenvernichtungs RAM keinem geringeren als Mark Cerny zu verdanken, Prinz Kaz nutzte Berichten zu Folge seinen ganzen Charme um Cerny zu verführen! :king:

cernyinlovenmuaf.jpg



DANKE SONY, DANKE CERNY, DANKE KAZ!
Ohne euch müssten wir auf die BelanglosBox 3 hoffen, denn Nintendo schwimmt in ihrem eigenen Rahm :neutral:

*wer das ganze kommentieren will bitte hier: http://ikaruga.consolewars.de/post/151621/nintendo_vs_sony
 
Zuletzt bearbeitet:
Extra für shamanu: :v:
Ich habe nie gesagt das das zusammenlegen vom Speicher nicht auch Vorteile bringt. SoC ist das was micht am meisten stört wenn man hohe Leistung bei cpu und gpu will.
Verstehe nicht ganz wiso die von 3D Rendering Performance reden wenn es sich bei dem erwähnten um Textur ladezeiten handelt. Texturen lade ich einmal am anfang oder nebenher im Spiel. Was hat das mit Rendering Performance zu tun?
 
Ich habe nie gesagt das das zusammenlegen vom Speicher nicht auch Vorteile bringt. SoC ist das was micht am meisten stört wenn man hohe Leistung bei cpu und gpu will.
Verstehe nicht ganz wiso die von 3D Rendering Performance reden wenn es sich bei dem erwähnten um Textur ladezeiten handelt. Texturen lade ich einmal am anfang oder nebenher im Spiel. Was hat das mit Rendering Performance zu tun?

Texturen musst du bei jedem Bildaufbau neu laden. Was glaubst du denn, wo die sonst abgespeichert werden ?
Somit hat das natürlich einen Einfluss auf die Performance.
Angenommen, für den sichtbaren Bildausschnitt werden in der Next-Gen Texturen in einer Gesamtgröße von 500MB pro Bild genutzt. Macht bei 30fps bereits 15GB/s, bei 60 schon 30GB/S
Auch wenn sich das Bild nicht ändert müssen die Daten bei jedem Neuaufbau erneut aus dem Speicher in die GPU transferiert werden. Denn schließlich hat die nur einen Texturencache von wenigen hundert Kilobyte.

Ohne HUMA Architektur braucht man noch mehr Bandbreite, da die Texturen ja wie im Artikel erwähnt erst aufgeteilt und im Speicher verschoben werden müssen.
Klar liegt die derzeitige Texturengröße weit unter den von mir angegebenen Wert. Aber wir reden ja auch von der Next-Gen und da sind solche Werte durchaus möglich. Insbesondere, wenn man 5-7GB Speicher fürs Spiel zur Verfügung hat.

Es ist also schon eine ganze Menge an Bandbreite nötig und das wirkt sich natürlich auch auf die Performance aus.
Zum Vergleich. Die Wii-U hat für das gesamte Speichersystem nur 12,8GB/s an Bandbreite zur Verfügung. Und die 32MB eDRAM nutzen da auch nicht viel bei so großen Texturen wie im Beispiel erwähnt.
 
Welcome Back Konsolenbaby!

:win:

Hast noch viel Aufklärungsarbeit zu leisten hier, es scheint fast so als wäre all dein Wissen über die Monate deiner Abstinenz abhanden gekommen :neutral:
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom