Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Billiger Hauptspeicher, der bei Spielen völlig uninteressant ist.
Es geht um den Grafikkartenspeicher, und da sind 4GB mehr als jeder Einzel-GPU High-End Gamer-PC zur Zeit besitzt.
Frag mich wieso das 90% der Leute einfach nicht verstehen wollen :-?

Das muss man hier auch und sonst gefühlte 10x/Woche erklären xD
 
Allerdings gibt's sehr wohl schon Single-GPUs mit 6GB GDDR5, die Radeon HD7970 beispielsweise. ;-)
 
Sag ich die ganze Zeit, soweit denkt nur Niemand, alle brüllen "ohh Avatar Grafik, never ever" aber nen Schritt weiter zu denken, dass es klar ist, dass die Nextgen keine Renderfarm wird, und dass man ähnliche Grafik nicht so wie der Herr Cameron erreichen wird können ist wieder zu viel verlangt. Der Crysis 3 Trailer ist die Spitze des Eisbergs, die Firstgen PS4/Xbox3 Titel. Alleine durch Tessellation werden Dinge möglich, die sonst nur über CGI machbar gewesen wären...

Das ist eh ein kurioser Weg der Argumentation, da soll es einerseits keine feststellbaren Grafikschritte mehr geben und anderseits ist eine Grafik aus dem Computer unerreichbar. Das kommt dann von Leuten, die bei MH4 ein phänomenales Lighting erkennen.
Natürlich ist Avatar das absolute non Plus ultra, aber ich sehe für das Erreichen dieser Optik eher ein Problem des Budgets, als das Fehlen der Rechenleistung um eine für den ersten Blick ähnliche Visualität zu erreichen. Man muss nur mal sehen, was die aus heutiger Sicht völlig veralteten Konsolen auf den Bildschirm zaubern können, wenn man diese Optik für einen Film gerendet hätte, hätte man auch mehr genutzt als eine 360 oder PS3.
 
Man muss nur mal sehen, was die aus heutiger Sicht völlig veralteten Konsolen auf den Bildschirm zaubern können, wenn man diese Optik für einen Film gerendet hätte, hätte man auch mehr genutzt als eine 360 oder PS3.
Nvidia hat PantaRay eh erst mit OptiX auf CUDA portiert, mit einem 25-fachen Speedup gegenüber der CPU-Renderfarm. Wenn man dann noch das 4x4 - 8x8 Supersampling miteinrechnet braucht man alleine deshalb eine etwa um den Faktor 1000 schnellere Renderfarm. Avatar ist sicher noch in weiter Ferne aber die aktuell besten Algorithmen kommen ziemlich nahe. Echtzeit Global Illumination sieht sicherlich nicht so gut aus wie echtes PBRT oder MentalRay aber die wichtigsten Features sind langsam zu sehen, nur 1000x schneller in Echtzeit. Alleine die Faszination solche Grafik vollständig interaktiv zu sehen macht es doch wesentlich beeindruckender als ein Renderfilmchen. Dinge wie Depth-of-Field und Motion Blur haben alleine in dieser Generation einen riesigen Sprung gemacht, wenn sich noch jemand erinnern kann wie das damals bei Modern Warfare aussah. ;-)
 
Die Wiiu dürfte gleich ausgelegt sein wie die XBox Next. Die Wii war nicht auf Shader ausgerichtet, das war der fehler Nintendos.
Zudem sind 4 GB Ram nur für Gemes ein riesiges Stück, doch es muss sich noch erweisen, welchen Nutzen es im Endeffekt wirklich mit sich bringt. Die 1GB der Wiiu für Games wird sicherlich auch reichen.

naja mehr speicher bietet kann mehr platz für texturn bedeuten oder höhere auflösung
sprich das die textruen sich nicht andauernd alle 30m wiederhohlen sei es beim gegner oder im level
1g für grafik zu verbrauchen ist heutzutage nix besonderes mehr
 
Nvidia hat PantaRay eh erst mit OptiX auf CUDA portiert, mit einem 25-fachen Speedup gegenüber der CPU-Renderfarm. Wenn man dann noch das 4x4 - 8x8 Supersampling miteinrechnet braucht man alleine deshalb eine etwa um den Faktor 1000 schnellere Renderfarm. Avatar ist sicher noch in weiter Ferne aber die aktuell besten Algorithmen kommen ziemlich nahe. Echtzeit Global Illumination sieht sicherlich nicht so gut aus wie echtes PBRT oder MentalRay aber die wichtigsten Features sind langsam zu sehen, nur 1000x schneller in Echtzeit. Alleine die Faszination solche Grafik vollständig interaktiv zu sehen macht es doch wesentlich beeindruckender als ein Renderfilmchen. Dinge wie Depth-of-Field und Motion Blur haben alleine in dieser Generation einen riesigen Sprung gemacht, wenn sich noch jemand erinnern kann wie das damals bei Modern Warfare aussah. ;-)

Immer wieder beeindruckend und lehrreich, was du an Fakten aus dem Ärmel schüttelst :-)
Aber wie du sinngemäß schreibst, die Herausforderung ist einen anderen Weg der Simulation zu finden, um sich einer bestimmten Qualität anzunähern. Wie ich gerade beim schnellen Googlen gelesen haben, geht PantaRay, dass beim Tim und Struppi Film eingesetzt wird, gar einen Schritt weiter als die Technik beim Avatar. Eine interessante Geschichte, da dies etwas ist, was einen ungeschulten Auge nicht auffällt und somit genau der Punkt ist mit dem Gamedevs arbeiten.
So lustig nullpointers Einwurf mit Avatar-The Game auch war und so groß der Unterschied zum Film auch ist, die alte Hardware war hier schon mal so weit original Assets des Film zu verwenden. Das ganze stelle man sich bei acht- neun Jahre aktuellerer Hardware vor und setzte das Ergebnis einen vor, der die Optik von Smartphones Spielen für annähernd PS360 Grafik hält :-)
 
Coda´s Beiträge sind immer sehr informativ ja das stimmt, lese die auch immer gerne um selber was dazu zu lernen, was ja diesmal wieder geklappt hat :D
 
Man müsste nen Thread eröffnen und dieser sollte einfach die Vorstellungen der User zum Thema Grafik in der nächsten Gen behandeln. Sprich, sie sollten Bilder/Videos posten welche ihrer Meinung nach die nächste Gen darstellen können wird.(wäre sehr Interessant)
Vor allem machen Manche hier dem Fehler, dass sie Avatar im Bezug auf die Technik 1:1 sehen. Sprich, dass sie davon ausgehen, dass wohl Raytracer(zudem keine Ahnung wieviele Lichtquellen Avatar verwendet hat) und wieviele Strahlen bei globalen Illumination verwendet wurden und auch welche Art von Licht und von AA bzw. Downsampling erwähne ich garnicht mal :coolface: usw. usf..... Die Entwickler reden eher davon, dass man mit anderen Verfahren, welche für Echtzeitrendern entwickelt wurden und mit vielen Tricks und Täuschungen des Auges was ähnliches erstellen könnte. Die globale Illumination wird wohl auch eher simuliert bzw. wird wohl nur eine stark begrenzte Strahlenanzahl haben und wohl eher nach dem Prinzip der Schatten funktionieren(sprich wie z.B Ambient Occlusion)

Hier z.B die Effekte/Techniken und paar Bilder zu CryEngine3
http://mycryengine.com/index.php?conid=8#


s
chade das zu diesem Video nichts bekannt ist bzw. nicht gesagt wird welche Technik man benötigt :coolface:

[video=youtube;fBR4cT-0sKY]http://www.youtube.com/watch?feature=endscreen&v=fBR4cT-0sKY&NR=1[/video]
 
Zuletzt bearbeitet:
Allerdings gibt's sehr wohl schon Single-GPUs mit 6GB GDDR5, die Radeon HD7970 beispielsweise. ;-)

Was aber nur rein fürs marketing ist ;) nvidia hat sich da mal schön drüber lustig gemacht das die konkurenz mit 3+ gb vram werben muß da sie sonst zubieten hätten. Über 95 % aller gamer am pc spielen nicht mit auflösungen jenseits der 1080p und es gibt sogar mehr gamer die mit auflösungen unter 1080p zocken.
 
ich wusste nicht das ms ein member von hmc ist

Microsoft tritt Hybrid Memory Cube Consortium bei

http://www.computerbase.de/news/2012-05/microsoft-tritt-hybrid-memory-cube-consortium-bei/

http://hybridmemorycube.org/technology.html

[video=youtube;kaV2nZSkw8A]http://www.youtube.com/watch?v=kaV2nZSkw8A[/video]

hört swich klasse an!
Aber für eine Verwendung dieser Technologie in der 720 ist es wohl noch etwas zu früh....bzw. zu spät da wohl die Hardwarespezifikationen wohl schon lange fest stehen.

Allerdings hat MS ja auch mit der Xbox360 bewiesen dass man Technologie schon 1 Jahr vorm eigentlichen Marktstart serienreif produzieren kann (Eine GPU ähnlich derer der 360 war im PC Sektor meines wissens nach erst ca. 1 Jahr nach Konsolenlaunch verfügbar)
 
ich wusste nicht das ms ein member von hmc ist

Microsoft tritt Hybrid Memory Cube Consortium bei

http://www.computerbase.de/news/2012-05/microsoft-tritt-hybrid-memory-cube-consortium-bei/

http://hybridmemorycube.org/technology.html

[video=youtube;kaV2nZSkw8A]http://www.youtube.com/watch?v=kaV2nZSkw8A[/video]

sind sie schon seit paar monaten ;) kam auch damals mit den news

3D wafer stacked memory will be ready for Game Consoles 2013-2014 Provides even more efficiencies when inside the SOC
http://www.gsaglobal.org/events/2012/0416/docs/3D_Panel.pdf

Im GAF und B3D sind sich die meisten sicher das es wohl kein GDDR5 in den neuen konsolen geben wird da sich jetzt auch samsung vom GDDR5 busisess verabschieden wird, anscheinend werden noch mehr firmen abstand davon nehmen in zukunft.

laut einem im B3D hat DDR4 mehr vorteile in einer konsole als GDDR5

Per DDR4, three big advantages:

(a) less voltage swing = (less current and less heat in the SoC)
(b) it is the future and will cost reduce quickly (current DDR modules may be hard to get, and expensive, in later years of the consoles)
(c) it can potentially be stacked which could help future console size / complexity reductions

No memory is ideal, including DDR4, but it may scratch the itching points console makers are most concerned about.


"GDDR5 is going to get expensive during the life of the PS4 and Xbox 720. IT runs too hot and takes too much drive from a Memory controller in a SoC. It is not a viable choice."
 
Zuletzt bearbeitet:
sind sie schon seit paar monaten ;) kam auch damals mit den news

3D wafer stacked memory will be ready for Game Consoles 2013-2014 Provides even more efficiencies when inside the SOC
http://www.gsaglobal.org/events/2012/0416/docs/3D_Panel.pdf

Im GAF und B3D sind sich die meisten sicher das es wohl kein GDDR5 in den neuen konsolen geben wird da sich jetzt auch samsung vom GDDR5 busisess verabschieden wird, anscheinend werden noch mehr firmen abstand davon nehmen in zukunft.

laut einem im B3D hat DDR4 mehr vorteile in einer konsole als GDDR5

Per DDR4, three big advantages:

(a) less voltage swing = (less current and less heat in the SoC)
(b) it is the future and will cost reduce quickly (current DDR modules may be hard to get, and expensive, in later years of the consoles)
(c) it can potentially be stacked which could help future console size / complexity reductions

No memory is ideal, including DDR4, but it may scratch the itching points console makers are most concerned about.


"GDDR5 is going to get expensive during the life of the PS4 and Xbox 720. IT runs too hot and takes too much drive from a Memory controller in a SoC. It is not a viable choice."

Die Vorlage von GDDR5 ist auch DDR3 und die Vorlage von GDDR6, der erst 2014 marktreif sein soll, wird DDR4 Speicher sein. Ich glaube das wissen die wenigsten, weswegen man DDR4 Speicher als falsch Wahl betrachtet.
 
ich versteh das trotzdem nicht?

wie kann langsamer DDR4 Systemspeicher besser sein als GDDR5 VRAM Speicher?

Dachte immer GDDR5 wäre wesentlich schneller...dafür aber auch teuerer?

Wieso sollte aber jetzt DDR4 für mehr Leistung in der Konsole sorgen als GDDR5?

:-?
 
ich versteh das trotzdem nicht?

wie kann langsamer DDR4 Systemspeicher besser sein als GDDR5 VRAM Speicher?

Dachte immer GDDR5 wäre wesentlich schneller...dafür aber auch teuerer?

Wieso sollte aber jetzt DDR4 für mehr Leistung in der Konsole sorgen als GDDR5?

:-?

Da DDR4 eben dieses potenzial besitzt stacked memmory draus zu machen, was laut B3D es dann bis zu 1 Terab/sec schnell werden soll, was das 5x wąhre was Modernste GPUs brauchen.
Und die geruechte gehen schon sehr lange von stacked memory bei der PS4 aus, MS wuerde dann wohl auch dranf setzen.
Aber frag micht was genau stacked memory ist , da hab ich mich noch nicht so reingearbeitet.
 
Die Vorlage von GDDR5 ist auch DDR3 und die Vorlage von GDDR6, der erst 2014 marktreif sein soll, wird DDR4 Speicher sein. Ich glaube das wissen die wenigsten, weswegen man DDR4 Speicher als falsch Wahl betrachtet.

Hm? Ihr bzw. jetzt nicht explizit du redet doch die ganze Zeit über RAM, solch Basiswissen sollte man dann schon kennen. Seit den Dokumenten ist doch schon bekannt, dass DDR4-Speicher genommen wird. Da können Fanboys noch allzu oft von nochmal 4GB GDDR5 träumen. Bisher beißen sich Dokument und Leaks in keinster Weise, auch das Jahr passt und alles klingt plausibel, was Stromverbrauch und Preis angeht, würde zu MS passen.

Die VGLeaks sind für mich ohne Quelle.
 
Da DDR4 eben dieses potenzial besitzt stacked memmory draus zu machen, was laut B3D es dann bis zu 1 Terab/sec schnell werden soll, was das 5x wąhre was Modernste GPUs brauchen.
Und die geruechte gehen schon sehr lange von stacked memory bei der PS4 aus, MS wuerde dann wohl auch dranf setzen.
Aber frag micht was genau stacked memory ist , da hab ich mich noch nicht so reingearbeitet.
1 TB/s? xD Das wär ja 5x schneller als ne 680GTX :ugly:
 
Was ich ja beeindruckend finde ist das hier:
atomontage_bui3.jpg

0006-ae_panels_mh1.jpg

0007-ae_panels_mh2.jpg

0003-ae_dragon_1382.jpg

0002-ae_dragon_1378.jpg


Und jetzt kommts: Das sollte sogar auf WiiU problemlos laufen...die Technologie soll extrem niedrige Hardwareanforderungen bei gleichzeitig ULTRA-Realistischem Ergebnis liefern!

HARDWAREANFORDERUNGEN:

UserX
i have a question: what are the system requirements for this techdemo with this grad of detail?

Antwort Entwickler:
well currently the engine performs about 2-4x better than it did when I shot this video, so the requirements are way lower than this: Acer Aspire 7738G with a Intel C2D P7550 and nVidia GeForce GT 130M 1GB ... I can't even say how it would perform on a modern gaming PC except that it would perform pretty well


WOW!

Und das entwickeln soll EXTREM einfach sein, es wird bspw. möglich sein aktuelle Engines einfach umzuwandeln, objekte können eingescannt und integriert werden usw....soll die entwicklungsarbeit und den Aufwand trotz mehr details NICHT erhöhen!

[video=youtube;_CCZIBDt1uM]http://www.youtube.com/watch?v=_CCZIBDt1uM[/video]
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom