ConsoleWAR Last-Gen-Technik (Konsolen, PS4, Xbox One und Wii U)

Jop, und das merkt man auch. Aber lassen wir ihn weiterstrampeln :)

Ach so, jetzt hat Killzone doch 1080p. Dachte das hätten eh alle beim Zocken bemerkt, dass es verwaschen wirkt.

Sprecht euch mal besser ab im Führerbunker. Widersprüchliche Propaganda ist der erste Schritt zum Untergang. Irgendwann fliegt noch einer von euch mit ner Messerschmidt nach Redmond und bietet die bedingungslose Kapitulation an, während der Rest in Penemünde kurz vor dem entscheidenden Durchbruch bei der Polygonbombe steht.

Bestimmt nen Anführer, der vor die Massen tritt. Ein Führer, eine Stimme. Laxi zum Beispiel, der hat Level 347 bei Dark Souls 2 und den Bitter-Dolch der Dunkelheit mit Magie-Verzauberung +5. Einheitliche Kleidung (Unterhose aufm Kopf) ist erst der Anfang.
 
Zuletzt bearbeitet:
MSAA greift doch nur bei starken Kontrasten?

Es ist nichts anderes als das du für jeden Vetrex eines Polygons mehr Strahlen abschickst um die Farbe für die Interpolation zu bekommen. Je mehr Strahlen als höheres AA, desto genauer ist die Farbe und somit die Interpolation des Polygons und somit die Pixelfarbe. Also wird pro Pixel im Bild der Aufwand um die Anzahl an Strahlen erhöht, je höher die Auflösung des Bildes desto höher der Aufwand , da pro Pixel gesampelt wird.
 
Es ist nichts anderes als das du für jeden Vetrex eines Polygons mehr Strahlen abschickst um die Farbe für die Interpolation zu bekommen. Je mehr Strahlen als höheres AA, desto genauer ist die Farbe und somit die Interpolation des Polygons und somit die Pixelfarbe. Also wird pro Pixel im Bild der Aufwand um die Anzahl an Strahlen erhöht, je höher die Auflösung des Bildes desto höher der Aufwand , da pro Pixel gesampelt wird.
Es ist aber ein Unterschied ein Spiel in 1080p mit 4xMSAA oder in 4K mit 0xAA zu spielen? :ugly:
 
Es ist aber ein Unterschied ein Spiel in 1080p mit 4xMSAA oder in 4K mit 0xAA zu spielen? :ugly:

Du hast bei deinem Beispiel mit 0xAA mehr Bildinformationen, sprich die 4fache Info. Bei den 1080p hast du für jeden gerenderten Pixel mehr Infos, die jedoch dann, wenn du auf 4k gehst verfälscht werden du Skalierung.

Edit: ah du beziehst es auf die Peformance oder? ja, ist es^^ du renderst entweder die Szene in der jeweiligen Auflösung, sprich 4k Pixelzahl oder du machst es in 1080p -Pixelzahl und diese wird dann nochmals durch die Zusendung an Strahlen beeinflußt. Da man nicht weiß wie viel pro Szene das Rendern in hoher Auflösung an Leistung frisst, ist das Sampling einfacher zu bestimmen, da es immer die gleiche Anzahl an Pixel und die zu sendenden Strahlen sind.
 
Zuletzt bearbeitet:
Es ist aber ein Unterschied ein Spiel in 1080p mit 4xMSAA oder in 4K mit 0xAA zu spielen? :ugly:
(1) 1080p, 0AA = Fragment Shader läuft in 1080p
(2) 1080p, 4xMSAA = Fragment Shader läuft in 1080p, Geometrie-Sampling in 4facher Auflösung, Backbuffer ist 4mal so groß
(3) 4k, 0AA = Fragment Shader läuft in 4k

=> (1) in diesem Vergleich geringste Last auf Rechenkerne der GPU und Bandbreite. (2) in etwa gleiche Rechenlast, Bandbreite wird vereinfach betrachtet fast 4mal so stark belastet. (3) 4fache Last auf Rechenkerne

je nachdem wo noch Ressourcen frei sind, kann man investieren. Scheinbar war bei UFC noch ordentlich Bandbreite frei, also hat man wegen der höheren Qualtität auf 4xMSAA gesetzt. Die Auflösung zu erhöhen ist ein ganz anderes Thema, da mglw die Rechenleistung für die ganzen Filter draufgeht, und die hängt bei post processing effekten mind. linear proportional mit der Auflösung zusammen.
 
GPU ROPs Differences Between PS4 & Xbox One Don’t Reflect Practical Scenarios, eSRAM Still A Factor

At this year’s Game Developers Conference, Avalanche Studios head of research Emil Persson offered his views on the PS4 and Xbox One effectively utilizing ROPs for higher bandwidth textures. According to Persson, the PS4 could render 64 bit textures while the Xbox One could only handle 32 bit textures before it ran out of bandwidth.

GamingBolt spoke to Confetti FX founder Wolfgang Engel, who provides consulting and tech solutions to different developers besides having handled Rockstar’s RAGE technology for GTA IV in the past, about providing the same level 64 bit performance on the Xbox One.

On Persson’s figures, Engel stated, “Those are highly theoretical numbers because they don’t reflect a typical game scenario. In the game you start rendering into shadow maps which eats up memory bandwidth, then you start rendering into G-buffer for deferred lighting and then you render it into a reflection map which might be a cubed map, then you start rendering lights in a light buffer, followed by a post effects pipelines render which might require a lot of memory copies, depending on how you implement it.”

Engel also stated that the inclusion of Xbox One’s eSRAM can potentially change the figures as well since it has a high bandwidth of 204 Gb/s. “Let us take a scenario where you have 20 different render targets per frame and you render them into memory, it will be hard to say this will be faster than this one and it’s even hard to make a general assumption about something, especially with the eSRAM in the mix. It highly depends on how you use system memory and eSRAM. You will run a lot of performance captures to see what the bottleneck is, memory access or arithmetic instructions. In most cases I predict memory access patterns will be your biggest challenge.”

As we highlighted in one of recent articles, memory access patterns will play a massive role in games development. Having different paths for the CPU and GPU to access the memory can result into big wins in the performance area. We will have an article sometime after E3 that will focus on memory access patterns.

http://gamingbolt.com/gpu-rops-diff...lect-practical-scenarios-esram-still-a-factor
 
Wenn sich die 64Bit bei den Texturen auf die Farbtiefe beziehen, dann ist das relativ sinnfrei. Afaik gibt es sogar nur max. 48 Bit als Standard. Die meisten Fernseher/Monitore können sowieso nur 32Bit oder weniger darstellen...
 
Wenn sich die 64Bit bei den Texturen auf die Farbtiefe beziehen, dann ist das relativ sinnfrei. Afaik gibt es sogar nur max. 48 Bit als Standard. Die meisten Fernseher/Monitore können sowieso nur 32Bit oder weniger darstellen...
Sieht das menschliche Auge überhaupt den Unterschied? 32bit sind 4 Milliarden Abstufungen, schwer vorstellbar xD
 
Sieht das menschliche Auge überhaupt den Unterschied? 32bit sind 4 Milliarden Abstufungen, schwer vorstellbar xD

Den unterschied zwischen 16 Mio und 4 Milliarden kann man jedenfalls recht gut wahrnehmen. HDMi Kann übrigens bis zu 68.7 Milliarden Farben in 1080p übertragen...
 
Zurück
Top Bottom