ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Angeblich funktioniert Lumen komplett ohne Ray Tracing.

Kann mir jemand erklären wie das funktionieren soll? Und wieso sollte man auf Raytracing setzen, wenn Lumen und dieses Pixel-Polygon Feature so gute Ergebnisse liefert, und dennoch deutlich ressourcenschonender laufen soll als Ray Tracing?!?

und das ganze ohne Hardware Beschleunigung a la RTX....
 
Vielleicht weil's reale Spiele waren, dazu noch von Indies und keine Demo?


Weil das gestern eben nach Next Gen aussah und das zuletzt bei MS nach Current Gen

Die Gründe sind erstmal zweitrangig, der Eindruck ist nun zunächst beim Kunden geschaffen worden
Jetzt muss MS ähnliches zeigen und ist in Zugzwang
 
Das heben die sich eventuell für Später auf.
Was die Gleichheit der GPUs angeht noch eins. Der höhere Takt der PS5 muss zu einer anderen Anordnung der Halbleiter führen. Die Taktfrequenz ist im Mikrowellen Bereich. Da braucht man schon eine andere Abschirmung ( Masselayer ) und eventuell sogar breitere Lanes, um den Widerstand zu verringern. Das kostet DIE Fläche.
Wären die GPUs komplett gleich, wäre Microsoft ja schön blöd nicht auch höher zu Takten.
Die 2,23 GHz liegen in der Spezifikation von RDNA 2.
MS fährt keinen Höheren Takt, weil das bei 52 CUs viel zu viel Abwärme erzeugen würde. Dank des enorm hohen Taktes wird die GPU der PS5 mit 10 TF schon mehr Leistung aufnehmen, als die 12 TF der XSX (etwa 3%).
Eine Takterhöhung von 1,8 GHz auf 2,2 GHz würde ein Abwärmeplus von etwa 50% bedeuten.
Deshalb war die GPU der PS5 wohl auch Anfangs mit 2GHz spezifiziert.
 
Angeblich funktioniert Lumen komplett ohne Ray Tracing.

Kann mir jemand erklären wie das funktionieren soll? Und wieso sollte man auf Raytracing setzen, wenn Lumen und dieses Pixel-Polygon Feature so gute Ergebnisse liefert, und dennoch deutlich ressourcenschonender laufen soll als Ray Tracing?!?

und das ganze ohne Hardware Beschleunigung a la RTX....


Hab mir heute sagen lassen das nur RT die Grafik voranbringt, alles andere bringt nix


Voll spielbar also...geradeaus laufen autoclimb, autojump und der Taschenlampentrick...wow


Und?
Ist ne spielbare Demo laut Epic Aussage

Was ist jetzt daran zu kritisieren?

Nix Render oder in engine trailer
 
Ist das nicht eine Fuktion der Meshshader?
Hier wird doch fast die normale Renderpipeline komplett umgestellt und sorgt doch gerade dafür, Millionen von Polys pro Frame aus Milliarden davon darstellen zu können.
Scheint was anderes zu sein, virtual geometry images (Vorsicht Triggerwarnung: Paper von MS Research). Im Prinzip geht es darum, Geometrie in eine regelmäßige Oberfläche (== Bild) umzukodieren. Und Virtualisierung und Streaming von Bildern ist ein besser verstandenes Problem. Hier hat der Verantwortliche bei Epic einen Blogpost dazu geschrieben:

Mehr Infos zur Technik dahinter gibt es diese Woche noch.


Auf was bezieht sich das Nein überhaupt, wenn du mir nicht widersprichst? Alles was ich sage ist, dass diese Demo gemacht wurde um die Engine zu vermarkten. Vermarkten = Marketing. „Marketing-Spruch“ hast du mir in den Mund gelegt. Aber wenn man sich dann jetzt über Frameraten beschwert, ist das dann auch ein Problem der Engine, nicht der Plattform. Ansonsten: ja, hast recht.
Mein Widerspruch bezog sich auf "Der Polycount war übertrieben hoch.". Epic sagt eben, es gibt kein übertrieben hoch mehr. Gut, wir wissen nicht wie groß die Demo insgesamt auf der SSD ist, in dem Ram gestreamt funktioniert es aber immerhin auf der PS5.
 
Na dann ruf mal schnell bei Microsoft an. 15Tflops sind da minimum drin. Das die Idioten da nicht von selbst drauf gekommen sind....:uglygw:
Weil sie eben keine idioten sind und von alleine wissen das mit takt erhöhung abwärme und verbrauch steigt und das so rapide ab einem gewissen punkt, das wohl schon 20% takt Erhöhung zu einer doppelt so großen Box geführt hätten :banderas:
Nicht umsonst wird vermutet das die PS5 sogar mehr verbrauchen wird als die XsX ;)

Und da es mir spaß macht dich immer wieder auf zu klären, hier mal der verbrauch von Navi wenn man über die ~1.8Ghz sweetspot geht.

resultsshjg4.png


Beim takt der PS5 hast du dann ~100% mehr verbrauch und wohl abwärme;)
RDNA2 soll das laut AMD aber verbessern.
Und man sieht auch gut wie wenig man an Mhz runter muss bei "nur" 2.15GHz um 10% zu sparen die Cerny ansprach, das wird bei 2.23Ghz noch weniger ;)
 
Angeblich funktioniert Lumen komplett ohne Ray Tracing.

Kann mir jemand erklären wie das funktionieren soll? Und wieso sollte man auf Raytracing setzen, wenn Lumen und dieses Pixel-Polygon Feature so gute Ergebnisse liefert, und dennoch deutlich ressourcenschonender laufen soll als Ray Tracing?!?

und das ganze ohne Hardware Beschleunigung a la RTX....

Werden wir wohl in der nächsten Zeit noch was zu lesen.
Die neuen Konsolen sind ja auch keine RT Monster.
Diese Funktionalität kann man dann anderswo einsetzen. Z.b beim Audio.
Andererseits ist es schon etwas enttäsuchend, dass ohne RT so eine Demo nur in so niedriger Auflösung und geringer Framerate läuft.
RT kostet ja eigentlich die meiste Performance, so dass die Demo mit RT wohl nur in 720p laufen würde :)
 
Mein Widerspruch bezog sich auf "Der Polycount war übertrieben hoch.". Epic sagt eben, es gibt kein übertrieben hoch mehr. Gut, wir wissen nicht wie groß die Demo insgesamt auf der SSD ist, in dem Ram gestreamt funktioniert es aber immerhin auf der PS5.

Achso. Ja, verstehe. Wobei sich mir noch nicht so ganz erschließt, wie das funktioniert. an irgendeiner Stelle muss Zuviel doch auch Zuviel sein. Und für mein Verständnis haben sie dahingehend halt geklotzt und nicht auf Framerate optimiert. Deshalb find ich die Frameratendiskussion halt irgendwie seltsam.

Aber gut, eine Diskussion über eine tolle neue Engine zwischen Postings wie:

“True Edel Unreal Next Gen, dank SSD nur on PS5!!!11“

und

“LOLROFL nur 1440@30fps, arme Sonlys, ich will SeX!!1“

ergibt sich hier leider eher nicht.

Plattform CW. 2 Jahre raus, keine Veränderung. Schade eigentlich.
 
Die 2,23 GHz liegen in der Spezifikation von RDNA 2.
MS fährt keinen Höheren Takt, weil das bei 52 CUs viel zu viel Abwärme erzeugen würde. Dank des enorm hohen Taktes wird die GPU der PS5 mit 10 TF schon mehr Leistung aufnehmen, als die 12 TF der XSX (etwa 3%).
Eine Takterhöhung von 1,8 GHz auf 2,2 GHz würde ein Abwärmeplus von etwa 50% bedeuten.
Deshalb war die GPU der PS5 wohl auch Anfangs mit 2GHz spezifiziert.

Trotzdem wird auf Grund des höheren Taktes eine andere Architektur benötigt. Sony sagt, was sie brauchen und AMD liefert. Dank der AK war eben die Architektur mit den 36CUs bei höherem Takt sinnvoll. Microsoft ist da auf Grund ihrer Vorgänger Konsole im Vorteil.
Auf dem Wafer zählt jeder Substrat oder älter ausgedrückt P/N Übergang. Mit einem niedrigen Takt hat man, wie schon richtig angemerkt weniger Hitzeentwicklung. Mit zunehmender Frequenz kommen dann Probleme wie Induktivität und Kapazität unter den Lanes. Dies alles gilt es zu berücksichtigen und man muss anders dotieren.
 
Achso. Ja, verstehe. Wobei sich mir noch nicht so ganz erschließt, wie das funktioniert. an irgendeiner Stelle muss Zuviel doch auch Zuviel sein. Und für mein Verständnis haben sie dahingehend halt geklotzt und nicht auf Framerate optimiert. Deshalb find ich die Frameratendiskussion halt irgendwie seltsam.
Wir wissen ja nicht, was die Performance kostet und wie das alles im Detail funktioniert. Ist es die Geometrieverarbeitung? Wenn ich die Paper richtig verstanden habe, sollte das eher besser funktionieren als bisher. Oder ist es die Lichtberechnung? Wenn das wie bei NVidia und deren GI funktioniert, dann dürfte eine Beschleunigung durch Hardware-RT da z.B. noch einiges bringen.

Plattform CW. 2 Jahre raus, keine Veränderung. Schade eigentlich.
Na komm, du bist ja lange genug hier um es eigentlich besser zu wissen, oder?
 
Tim Sweeney (Chef von Epic Games): "Für eine Darstellung auf diesem Detailgrad sind eine Reihe verschiedener Komponenten erforderlich. Eine davon ist die GPU-Leistung und die GPU-Architektur, um eine unglaublich große Menge an geometrischen Objekten zu zeichnen. Man spricht von einer sehr großen Anzahl an Teraflops, die dafür erforderlich sind. Das andere ist die Fähigkeit, sie effizient zu laden und zu streamen."


Gerade in Bezug auf das Laden und das Streaming von Daten/Texturen/Modellen sagte Sweeney, dass die SSD-Architektur der PlayStation 5 "göttlich" und den PCs "ziemlich weit voraus" sei. Es sei die beste Speicher-Technologie über alle Plattformen hinweg. Deswegen verwandte Mark Cerny bei der verspäteten PS5-GDC-Präsentation auch so viel Zeit auf die Vorstellung dieser leistungsstarken Architektur. Sweeney ist dennoch der Ansicht, dass man mit einer NVMe-SSD in einem PC immer noch eine "fantastische Leistung" in diesem Bereich erzielen könnte. Der Epic-Games-Chef ist jedenfalls der Ansicht, dass man Spiele in Zukunft nicht mehr von einer normalen Festplatte (SATA-HDD) laden wird.

Sweeney: "Eine der großen Anstrengungen, die im Zusammenhang mit der Unreal Engine 5 unternommen wurden und auch weiterhin durchgeführt werden, ist die Optimierung für den Speicher der nächsten Generation, um das Laden um ein Vielfaches im Vergleich zur aktuellen Leistung zu beschleunigen. Nicht nur ein bisschen schneller, sondern sehr viel schneller, so dass sich diese Geometrie [bzw. komplexe 3D-Objekte] einbinden und anzeigen lässt, obwohl sie nicht komplett in den Video-Speicher passt." Er sagte ebenfalls, dass Pop-Ups oder Fade-Ins von Objekten durch die neuen Technologien quasi Geschichte seien.

Obgleich die Unreal Engine 4.25 bereits Raytracing-Unterstützung in Echtzeit via Microsoft DirectX Raytracing (DXR) bietet, war Raytracing bei der gestrigen Präsentation kein Thema. Höchstwahrscheinlich waren Sony und AMD (Chip-Hersteller) noch nicht so weit, um die Hardware-Features und die Software-Schnittstelle der Öffentlichkeit zu präsentieren, wobei ein Sprecher von AMD bei Reddit klarstellte, dass "keine Hardwarehersteller-spezifische 'proprietäre' Raytracing-Technik oder andere GPU-Features die Spiele-Industrie bei der Einführung von Next-Gen-Features verlangsamen und behindern sollen. Mit dieser Konsolen-Dynamik und Microsofts DXR für PCs hoffe ich, dass wir auf ein offenes Ökosystem für alle Spiele und Gamer hinarbeiten können", so Scott Herkelman (VP & GM Radeon Business Unit bei AMD).


 
Wir wissen ja nicht, was die Performance kostet und wie das alles im Detail funktioniert. Ist es die Geometrieverarbeitung? Wenn ich die Paper richtig verstanden habe, sollte das eher besser funktionieren als bisher. Oder ist es die Lichtberechnung? Wenn das wie bei NVidia und deren GI funktioniert, dann dürfte eine Beschleunigung durch Hardware-RT da z.B. noch einiges bringen.


Na komm, du bist ja lange genug hier um es eigentlich besser zu wissen, oder?

Ja. Hatte kurz vergessen, warum ich mich hier seit Ende 2017 nicht mehr beteiligt habe.

Aber der Kindergarten hier, bringt es schnell wieder zu Tage.


Da basht ein muri die Demo einer Multi-Engine, während sein Lieblinsherstellers stolz twittert, wieviele seiner Studios diese benutzten. Kann man sich nicht besser ausdenken....
 
Trotzdem wird auf Grund des höheren Taktes eine andere Architektur benötigt. Sony sagt, was sie brauchen und AMD liefert. Dank der AK war eben die Architektur mit den 36CUs bei höherem Takt sinnvoll. Microsoft ist da auf Grund ihrer Vorgänger Konsole im Vorteil.
Auf dem Wafer zählt jeder Substrat oder älter ausgedrückt P/N Übergang. Mit einem niedrigen Takt hat man, wie schon richtig angemerkt weniger Hitzeentwicklung. Mit zunehmender Frequenz kommen dann Probleme wie Induktivität und Kapazität unter den Lanes. Dies alles gilt es zu berücksichtigen und man muss anders dotieren.
Siehe den Post von @Con$olef@natic .
Es gibt Spezifikationen zu den CUs.
Solange man die Größenordnung der Taktrate nicht ändert, muß man EMV Probleme da nicht beachten.
Eine GPU hat ja auch keine feste Frequenz, sie Taktet herunter, wenn sie nicht gebraucht wird. Meine RTX 2070S taktet beispielsweise je nach Last zwischen nach Last zwischen 400 und 1700 MHz. Laut Dir ginge das aber nicht ohne eine Die-Veränderung.
 
Weil sie eben keine idioten sind und von alleine wissen das mit takt erhöhung abwärme und verbrauch steigt und das so rapide ab einem gewissen punkt, das wohl schon 20% takt Erhöhung zu einer doppelt so großen Box geführt hätten :banderas:
Nicht umsonst wird vermutet das die PS5 sogar mehr verbrauchen wird als die XsX ;)

Und da es mir spaß macht dich immer wieder auf zu klären, hier mal der verbrauch von Navi wenn man über die ~1.8Ghz sweetspot geht.

resultsshjg4.png


Beim takt der PS5 hast du dann ~100% mehr verbrauch und wohl abwärme;)
RDNA2 soll das laut AMD aber verbessern.
Und man sieht auch gut wie wenig man an Mhz runter muss bei "nur" 2.15GHz um 10% zu sparen die Cerny ansprach, das wird bei 2.23Ghz noch weniger ;)

Erst erzählst Du was vom Problemlosen Übertakten deiner PC Grafikkarte und dann kommst Du mit dem Sweetspot um die Ecke. Was hat das mit Aufklärung zu tun, außer das Du deinen eigenen Blödsinn widerrufen hast?
Mir hast Du jedenfalls nichts Neues erzählt. Aber immer wieder schön, wie hier mit Halbwissen angegeben wird und man noch versucht Andere runterzuputzen.....
 
Erst erzählst Du was vom Problemlosen Übertakten deiner PC Grafikkarte und dann kommst Du mit dem Sweetspot um die Ecke. Was hat das mit Aufklärung zu tun, außer das Du deinen eigenen Blödsinn widerrufen hast?
Mir hast Du jedenfalls nichts Neues erzählt. Aber immer wieder schön, wie hier mit Halbwissen angegeben wird und man noch versucht Andere runterzuputzen.....
Du solltest Physik 2 und Grundlagen Elektronik nochmal belegen.
 
Zurück
Top Bottom