Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Ich halte sehr viel von John, aber in erster Linie entwickelt er Engines, und möchte die auch verkaufen... ;)
 
was sind den scanlinies ?
Eine Rendering-Technik: http://de.wikipedia.org/wiki/Scanline_Rendering

PRMan von Pixar ist ein Scanline Renderer. Die Ergebnisse sind nicht so realistisch wie bei der Verwendung eines Raytracers, aber dafür sind Scanline Renderer viel schneller, und manchmal will man ja auch gar nicht so viel Realismus. Scanline Rendering geht auch in Echtzeit, aber natürlich nicht in offline-Qualität - der Renderer des DS nutzt diese Technik beispielsweise, ebenso alte Grafikchips von E&S. Ursprünglich hätte die PS3 ebenfalls einen Scanline Renderer nutzen sollen, als noch geplant war, zwei CELLs einzubauen und auf die GPU zu verzichten.
 
Ich halte sehr viel von John, aber in erster Linie entwickelt er Engines, und möchte die auch verkaufen... ;)
Ich glaube trotzdem dass in einigen Jahren Innenlevel zu 90% Renderqualität annehmen werden. Es geht ja gar nicht darum nahezu identische Qualität zu erreichen, man darf den Unterschied nur nicht mehr merken obwohl man ihn klar erkennen würde wenn man den direkten Vergleich hätte. Das nenne ich dann "representativ" und wenn du auf cw mal durch die Runde schaust, manche haben heute schon Probleme damit Offline-Render von Bullshots zu unterscheiden. ;-)
 
Ich glaube trotzdem dass in einigen Jahren Innenlevel zu 90% Renderqualität annehmen werden. Es geht ja gar nicht darum nahezu identische Qualität zu erreichen, man darf den Unterschied nur nicht mehr merken obwohl man ihn klar erkennen würde wenn man den direkten Vergleich hätte. Das nenne ich dann "representativ" und wenn du auf cw mal durch die Runde schaust, manche haben heute schon Probleme damit Offline-Render von Bullshots zu unterscheiden. ;-)
Da liegt das Problem: "Innenlevel zu 90%" - aber dann besser auch nur, wenn keine Charaktere in den Räumen sind, oder die Charaktere Roboter sind. Es gab vor vielen, vielen Jahren mal ein Programm namens Realizer von der Firma Opticore, das hat Dir in Echtzeit Krempel auf's Display gezaubert, dass es nur so gequalmt hat (nach damaligen Standards). Aber die Einschränkungen waren eben massiv. Und so ist es hier auch. Ansonsten gebe ich Dir aber natürlich Recht. Solange man nicht so genau hinsieht, wird man in einigen Bereichen den Eindruck eines guten Renderings oder gar Photorealismus erwecken können.

Ist halt aber auch echt die Frage, wo das hinführt. Mal ein Beispiel: Ich habe kürzlich für eine Demo ein Level gebaut. Um nach dem aktuellen Stand zu arbeiten bzw. konkurrenzfähig zu sein, reicht es da natürlich nicht mehr, einfach Radiant oder so anzuwerfen. Ergo muss man sämtliche Details und Props jeweils in einer low- und high-poly Variante bauen (letztere für die Light- und Normal Maps), dann texturierst Du Dir einen häßlichen, weil Tiles scheiße aussehen, dann verbringt man Stunden und Tage damit, eine stimmungsvolle Beleuchtung zusammenzufummeln, um die Lightmaps zu backen, anschließend räumst Du alle beweglichen und zerstörbaren Objekte weg, um weitere Maps für Ambient Occlusion und Radiosity zu backen, und danach schaust Du Dir alle weggeräumten Objekte an, um zu sehen, wie Du dafür brauchbare entsprechende Maps zusammenschustern kannst, die dann auch individuell gebacken werden müssen. Und anschließend musste unser Grafik-Fraggle sich einen Kopf machen, wie er die ganzen Maps für's Textur-Budget passend klopft. Das Ergebnis sieht dann in Standbildern tatsächlich auf den ersten Blick aus wie ein Raytracing (weil's ja auch irgendwie eins ist - nach so vielen Stunden Texturen und Lightmaps backen in Mental Ray), aber dafür hat es Tage gedauert, während man früher das grundsätzlich selbe Level ohne den ganzen Firlefanz in ein paar Stunden hätte basteln können. Da war eben ein Ölfass nur ein Zylinder, und niemanden hat gejuckt, ob die alle gleich aussahen. Und viele Fakes, die heute üblich sind, machen die Geschichte noch zeitintensiver und noch teurer. Für ein Video reicht ein Shader für Haut, beispielsweise. Für unsere Demo haben wir über zehn verschiedene Varianten bauen müssen, um in unterschiedlichen Beleuchtungssituationen gleichbleibend überzeugende Ergebnisse zu liefern. Noch schlimmer war's bei den Klamotten. SyFlex nimmt Dir normalerweise die Arbeit ab, aber da wir's nicht in Echtzeit nutzen können, haben wir SyFlex das Verhalten der Kleidung berechnen lassen, und Keys in unzähligen Posen gebaut. Echte Sisyphus-Arbeit, und das Ergebnis ist natürlich trotzdem nicht annähernd so überzeugend, wenn man genauer hinsieht.
 
Conclusion: Ok, ok. Let’s collect ourselves. Notice that the only time the Xbox 360 won one of these speed tests above was on Patrick’s wired connection. The Wii never won these contests, supporting my theory that it is a bit slow.

The PS3 is the console that won most of these races. So that’s the headline for now: PS3 Downloads Games Fastest Over Wi-Fi.

http://multiplayerblog.mtv.com/2009/02/02/which-console-downloads-games-fastest

rofl und deswegen BEZAHLT ihr rod-user auch noch geld?wirklich schäbig von m$

Da liegt das Problem: "Innenlevel zu 90%" - aber dann besser auch nur, wenn keine Charaktere in den Räumen sind, oder die Charaktere Roboter sind.

http://www.youtube.com/watch?v=-r5aQYbX3bU
 
Zuletzt bearbeitet:
Dir ist aber schon klar, dass alles außer dem Gesicht ein normales Video ist? Klar kommt man zu verdammt guten Ergebnissen (für einen Film wär's aber noch immer zu schlecht, warum denkst du werden Menschen nie realistisch dargestellt? ;-)) aber auch nur dann wenn man "fertige" Eingangsdaten hat. Bei Spielen wirst du meistens darauf angewiesen sein die Animationen aus Parametern dynamisch zu generieren obwohl man die Kamera und die Beleuchtung durchaus verändern könnte. Für Cutszenes ist das sicher genial, bleibt nur die Frage ob es finanziell auch durchführbar ist.

Heavy Rain ist da schon ein realistischeres Ziel, afaik berechnen die Haare und Kleidung in Echtzeit über PhysX.
 
Dir ist aber schon klar, dass alles außer dem Gesicht ein normales Video ist? Klar kommt man zu verdammt guten Ergebnissen (für einen Film wär's aber noch immer zu schlecht, warum denkst du werden Menschen nie realistisch dargestellt? ;-)) aber auch nur dann wenn man "fertige" Eingangsdaten hat. Bei Spielen wirst du meistens darauf angewiesen sein die Animationen aus Parametern dynamisch zu generieren obwohl man die Kamera und die Beleuchtung durchaus verändern könnte. Für Cutszenes ist das sicher genial, bleibt nur die Frage ob es finanziell auch durchführbar ist.

Heavy Rain ist da schon ein realistischeres Ziel, afaik berechnen die Haare und Kleidung in Echtzeit über PhysX.
Mal Fight Club gesehen? Die Sex-Szene? Das ist eine Computeranimation... ;)
 
Ich konnte nach kurzer Zeit sehen, dass es eine Animation war... Uncanny Valley lässt grüßen.

Sowas will ich besser nicht in Spielen haben.

nach kurzer zeit erst?sehr schwach...sowas wirst du auch nie in spielen haben wenn du weiterhin nur nintendo consolen kaufst

das ding ist ausserdem 2 jahre alt,es ging sowieso um "in ein paar jahren wird photorealismus erreicht sein" bis dahin wird die technik noch viel weiter sein
 
nach kurzer zeit erst?sehr schwach...sowas wirst du auch nie in spielen haben wenn du weiterhin nur nintendo consolen kaufst

das ding ist ausserdem 2 jahre alt,es ging sowieso um "in ein paar jahren wird photorealismus erreicht sein" bis dahin wird die technik noch viel weiter sein
Du hast so dermaßen überhaupt keine Ahnung, was Du da siehst und wovon Du redest...

Realtime ist eine Sache, Echtzeit und Interaktiv ist ein vollkommen anderes Problem. Du kannst, ausreichend Zeit und Mittel vorausgesetzt, in Echtzeit selbst Fotorealismus durchaus erreichen - wenn Du nur möglichst weit (idealerweise vollkommen) auf Interaktion verzichtest (was natürlich die Idee eines Spiels irgendwie ad absurdum führt). Aber das sind nur Potemkinsche Dörfer. Halte Dich von den Seitengassen fern!

Wobei es natürlich sowieso kaum noch die Bezeichnung "Echtzeit" verdient hat, wenn man vorher alle Texturen und Maps offline backen (oder gleich fotografieren/ filmen) und beispielsweise für Mimik hunderte von Normal Maps von Hand in ZBrush zusammenschrauben muss, zwischen denen man hin- und herblendet.
 
nach kurzer zeit erst?sehr schwach...sowas wirst du auch nie in spielen haben wenn du weiterhin nur nintendo consolen kaufst

das ding ist ausserdem 2 jahre alt,es ging sowieso um "in ein paar jahren wird photorealismus erreicht sein" bis dahin wird die technik noch viel weiter sein

Bist du wirklich der Kerl, der Heavy Rain beeindruckend findet?
Ein Spiel, das heutzutage erscheint?

Vergleich einfach mal Heavy Rain mit diesem Video da. Wirst den Unterschied schon bemerken, oder? :)

Zumal ich sehr anfällig bin für Uncanny Valley, sorry.
Ich finde, dass Spiele als solche erkennbar sein müssen. Und dass Photorealismus bei Spielen so und so fehl am Platze ist.

Deswegen habe ich auch kein Problem damit haben, wenn ich weiterhin nur nintendo consolen kaufe (was auch irgendwie... merkwürdig als Vorwurf ist, wenn du meine Konsolenhistorie kennst) und mir sowas tatsächlich auch erspart bleibt.

Diese unmenschlichen Gesichtsverformungen machen mir tatsächlich etwas Angst...
 
Zuletzt bearbeitet:
Intel will design PlayStation 4 GPU

FOR THE NEXT next generation of consoles, PS4, XBox3 and Wii2, it looks like Intel is in, Nvidia is out. The picture for their GPUs is starting to become clear.

Yeah, Intel won the PS4 GPU, no shock considering how much they needed a console win to get people coding for Larrabee. They can either convince companies to put in a code path for the chip in Big Budget Mediocre Sequel 7: Vengeance of the Farmland Creatures by sending people with wads of money and begging, or get a console win. They got a console win, and it was the right way to go.

Some people hanging around the Sony booth at CES were nice enough to let us in on the scoop. It seems Nvidia has proverbially bent Sony over like they did MS on the XBox, and are not really welcome there any more. Couldn't happen to a nicer bunch of guys, either way, but hardly an unexpected outcome.

Sony is looking pretty desperate nowadays with a multi-billion dollar loss in 2008, and more pain on the way for 2009. The PS3 has utterly failed in the market, and there was a lot of talk about whether or not there was going to be a PS4 at all. Sony needed a reliable partner with deep pockets which would actually be there in 2012 to fund this exercise in DRM, and it found one in Intel. Damn good choice really.

The nice Sony engineering lady at CES told us that Intel essentially bought the win, a theoretically good architecture, no imminent threats of going bust, and not being hated by Sony all contributed too. With a couple of deliverables satisfied, the PS4 GPU belongs to Intel. No word if this is going to be the entire architecture, CPU as well, or not. That, from what we are told, is not final yet.

Moving on to the the XBox3 GPU, also due in 2012, we hear strong rumors (but have not confirmed yet) that it is an ATI design. Given the close ties between ATI and MS over DirectX, the bad blood between Nvidia and MS over the grand Nvidia DX10 neutering, plus memories of the XBox1, this is not a surprise either. The bed was made for short-term profits years ago, time to lie in it.

That brings us to the Wii2, also due around the same time. Given that the ArtX / ATI guys have won about every Nintendo GPU since they went 3D, this one appears to be a no-brainer. If you take into account that it will likely be evolutionary, it is almost assuredly an ATI win as well, but we haven't confirmed it either way.

So in the end, you have Intel with one GPU confirmed, Larrabee, and ATI with another almost totally confirmed. The third is still unknown but likely will be ATI as well. Notice there is no Nvidia in this equation.

That will hamstring the egos in green badly soon, forcing them to spend a lot more on developer relations and tools if they can't claw back a console win. The games for 2012 start coding in a year, so the effects will be leading, not trailing for them.

The only real way for them to get a win at this point is to buy it, and they 1) don't have any money. 2) are bidding against someone who has money 3) are bidding against someone who they picked a stupid public fight with and 4) are hated by the two companies that make the consoles they target. This brilliant management strategy combines to mean they are locked out, if they survive that long.

Next next gen consoles also will likely have a CPU which we know nothing about. That said, given that Intel will basically be designing large swathes of the PS4, it would seem to be leaning toward x86. Given that, and MS's inclination toward x86 software, that would seem a natural path for them to follow as well, if for no other reason than to protect the living room from the ARM scourge running Linux.

With that, we have the first hard info on the next next generation gaming boxes. Given silicon time scales, three years out means work starts about now. ATI and Intel have work to do, but it should be very interesting when all things are done, a radical shift towards the PC of a magnitude not seen since the Playstation replaced cartridges with CDs.

http://www.theinquirer.net/inquirer/news/851/1050851/intel-design-playstation-gpu

Und Good Bye NVIDIA...
 
glaub ich nicht , obwohl , für die box und ps 4 macht doppelt gewinn vorallem wenn man die technischen mängel kennt
 
Sony hat NVidea einen Auftrag in Wert von 30$Mio geben...PSP2 GPU o. PS4 GPU. Das da oben ist Schwachsinn. :)
 
sony könnte bei der nächsten gen auch den grafik chip selber herstellen was zusätzlich kosten senkt ,M$ wird wohl einfach einkaufen gehen außer der labre chip ist bis dahin fertig
 
Dass der Artikel kompletter Unfug ist, sieht man schon an der Nintendo-Sektion. ATI/ ArtX hat keine einzige Ausschreibung gewonnen. ArtX wurde von Dr. Wei Yen gegründet, um eine GPU für den Gamecube zu entwickeln. Wei Yen war zuvor Leiter des Project Reality bei Silicon Graphics, war also bereits federführend bei der Entwicklung der GPU des N64, und hat Nintendos 3D-API GX konzipiert, die bei allen Nintendo-Plattformen seit dem N64 eingesetzt wird (auch beim DS). ATI übernahm dann irgendwann ArtX, deshalb liefern sie die GPU. Die GPU der Wii musste zu 100% kompatibel sein, deshalb gab's gar keine Ausschreibung - es kam sowieso nur ATI in Frage.

Wie's beim Nachfolger aussieht, ist derzeit vollkommen unbekannt. Es gibt diverse Gerüchte, von PowerVR bis zu einem Design auf Fusion-Basis. Für ein neues eigenes Design sprechen Nintendos Patente auf Shader-Architekturen.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom