Sickkunt
Gesperrt
- Seit
- 14 Feb 2014
- Beiträge
- 581
Was es umso lächerlicher macht, dass ihr den Unterschied zum MP nicht bemerkt habt.
Kein Schwein interessiert sich bei Killzone für den Multiplayer.
Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
Was es umso lächerlicher macht, dass ihr den Unterschied zum MP nicht bemerkt habt.
Jop, und das merkt man auch. Aber lassen wir ihn weiterstrampeln
Ach so, jetzt hat Killzone doch 1080p. Dachte das hätten eh alle beim Zocken bemerkt, dass es verwaschen wirkt.
Beschäftige dich lieber mal mit der Technik hinter KZ SF im MP. Man merkt dass du in deinen Wahn leicht verwirrt bist.
MSAA greift doch nur bei starken Kontrasten?
Es ist aber ein Unterschied ein Spiel in 1080p mit 4xMSAA oder in 4K mit 0xAA zu spielen?Es ist nichts anderes als das du für jeden Vetrex eines Polygons mehr Strahlen abschickst um die Farbe für die Interpolation zu bekommen. Je mehr Strahlen als höheres AA, desto genauer ist die Farbe und somit die Interpolation des Polygons und somit die Pixelfarbe. Also wird pro Pixel im Bild der Aufwand um die Anzahl an Strahlen erhöht, je höher die Auflösung des Bildes desto höher der Aufwand , da pro Pixel gesampelt wird.
Es ist aber ein Unterschied ein Spiel in 1080p mit 4xMSAA oder in 4K mit 0xAA zu spielen?
(1) 1080p, 0AA = Fragment Shader läuft in 1080pEs ist aber ein Unterschied ein Spiel in 1080p mit 4xMSAA oder in 4K mit 0xAA zu spielen?
GPU ROPs Differences Between PS4 & Xbox One Don’t Reflect Practical Scenarios, eSRAM Still A Factor
At this year’s Game Developers Conference, Avalanche Studios head of research Emil Persson offered his views on the PS4 and Xbox One effectively utilizing ROPs for higher bandwidth textures. According to Persson, the PS4 could render 64 bit textures while the Xbox One could only handle 32 bit textures before it ran out of bandwidth.
GamingBolt spoke to Confetti FX founder Wolfgang Engel, who provides consulting and tech solutions to different developers besides having handled Rockstar’s RAGE technology for GTA IV in the past, about providing the same level 64 bit performance on the Xbox One.
On Persson’s figures, Engel stated, “Those are highly theoretical numbers because they don’t reflect a typical game scenario. In the game you start rendering into shadow maps which eats up memory bandwidth, then you start rendering into G-buffer for deferred lighting and then you render it into a reflection map which might be a cubed map, then you start rendering lights in a light buffer, followed by a post effects pipelines render which might require a lot of memory copies, depending on how you implement it.”
Engel also stated that the inclusion of Xbox One’s eSRAM can potentially change the figures as well since it has a high bandwidth of 204 Gb/s. “Let us take a scenario where you have 20 different render targets per frame and you render them into memory, it will be hard to say this will be faster than this one and it’s even hard to make a general assumption about something, especially with the eSRAM in the mix. It highly depends on how you use system memory and eSRAM. You will run a lot of performance captures to see what the bottleneck is, memory access or arithmetic instructions. In most cases I predict memory access patterns will be your biggest challenge.”
As we highlighted in one of recent articles, memory access patterns will play a massive role in games development. Having different paths for the CPU and GPU to access the memory can result into big wins in the performance area. We will have an article sometime after E3 that will focus on memory access patterns.
wozu braucht man denn 64bit texturen?
bessere farbgradienten?
Sieht das menschliche Auge überhaupt den Unterschied? 32bit sind 4 Milliarden Abstufungen, schwer vorstellbarWenn sich die 64Bit bei den Texturen auf die Farbtiefe beziehen, dann ist das relativ sinnfrei. Afaik gibt es sogar nur max. 48 Bit als Standard. Die meisten Fernseher/Monitore können sowieso nur 32Bit oder weniger darstellen...
Sieht das menschliche Auge überhaupt den Unterschied? 32bit sind 4 Milliarden Abstufungen, schwer vorstellbar