• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Wie kommt man auf die Idee?

RT läuft bei RDNA 2 über die TMUs in denen 4 Intersection Engines pro CU eingebettet sind.
Die SX schafft 380 Ray-Triangle-Intersections und die PS5 321. Die 380 sind von MS schon so genannt worden.
CU * 4 * Takt

Verglichen mit Nvidia sind das 38 bzw. 32 Gigarays vs 10 Gigarays der 2080 Ti. Also Faktor 3-4 schneller.
Aufgrund der hardwarenäheren Programmierung bekommen beide das auch ohne Murren auf die Straße.

Noch weiß man nicht wie RT in RDNA 2 umgesetzt wurde aber nach MS aussagen, Cernys Aussagen und den Patenten schon.
 
Die 2060 hat bessere performance als die XsX in Minecraft gezeigt. Ne 2080Ti ist nochmal ne ganz andere Liga.
Wie schon gesagt, Lederjacke hat nicht unrecht das er sich 10 Jahre vorraus sieht in sachen RT als AMD.

Abwarten. Klar Ampere kommt mit mind. über 100 Gigarays um die Ecke, da wirken die 10 Gigarays sehr schnuckelig. So wie die ~ 1,3 Gigarays der GTX 1080 Ti.
 
Wo hast du her das Ampere 10x RT Performance wie Turing hat xD
Ich glaub nicht das du weißt wieviel sie wegen den shrink max auf den chip bekommen können.
Das optimistischste Gerücht meinte doppelte RT performance

Echt? Nur 20 Gigarays? Sollte das stimmen mit den RDNA 2 Patenten PS5 32 Gigarays vs. 20 Gigarays in Ampere erscheint mir recht wenig. Klar Ampere wird trotzdem besser sein aber nur doppelt?
Aber kann sein das du recht hast, da NVIDIA auch Tensor Cores einbauen wird damit DLSS, was eigentlich viel wichtiger ist, weiter vorangetrieben wird. Frisst als Diefläche.
Die 100 Gigarays waren lediglich eine Vermutung meinerseits.
Da bin ich aber ein bisschen über das Ziel hinausgeschossen. :awesome:
Wobei es gibt Gerüchte um einen Traversal Co-processor der auf RT ausgelegt ist um RT massiv zu beschleunigen., hat sich aber als falsch erwiesen.

Warten wir mal ab wenn AMD endlich mal RDNA 2 zeigt.

Ampere soll ja schon Anfang September gezeigt werden.

PS: Heute ist die Hot Chips Conference bei der MS die SX APU näher vorstellen wird. Kann sein das wir mehr über RT und die Sauce erfahren.
 
Zuletzt bearbeitet:
Der fehler an deinem RDNA2 patent ist, das Gigarays von NV stammen und keine allgemeine bezeichnung für RT Leistung ist :D
Diese Buzz word hat sich NV nur ausgedacht um es den Leuten anhand von daten klar zu machen und da machen sie nicht mal ein Geheimnis drum.
Irgendwie müssen sie ja weitere sprünge auf zeigen in nummern statt groß mit strahlen pro sec rum zu hantieren.
Was schließen wir draus, das Patent in denen du 32 Gigarays bei der PS5 gesehen hast, ist sehr wahrscheinlich nicht echt :ol:
 
Der fehler an deinem RDNA2 patent ist, das Gigarays von NV stammen und keine allgemeine bezeichnung für RT Leistung ist :D
Diese Buzz word hat sich NV nur ausgedacht um es den Leuten anhand von daten klar zu machen und da machen sie nicht mal ein Geheimnis drum.
Irgendwie müssen sie ja weitere sprünge auf zeigen in nummern statt groß mit strahlen pro sec rum zu hantieren.
Was schließen wir draus, das Patent in denen du 32 Gigarays bei der PS5 gesehen hast, ist sehr wahrscheinlich nicht echt :ol:

Wie gesagt abwarten.
Aber 38 Gigarays wurden von MS bestätigt.
Und 38 vs 10 geht klar an die Series X und die PS5 mit wahrscheinlichen 32 also auch höher als 10. Klar ist nur die reine Rohleistung von RT im Vergleich zur RTX 2080 Ti. Wenn die 40 Rays von dir stimmen oder den Gerüchten nach, stehen die beiden Konsolen nicht schlecht da, gemessen an der reinen Rohdaten.
Die frage ist halt wie sie es auf die Straße bringen werden.

Das eine RTX 2060 besser performt als die SX, liegt wohl eher daran, dass die APIs der SX noch nicht so weit oder gut optimiert sind.
Cerny sprach ja von einer fantastischen Implementierung von RT with modest costs.

Beide Konsolen sind rein von den rohen Daten einer RTX 2080 Ti überlegen. Nur wie wird die real Performance sein. Das muss man abwarten.
 
Wo wurden 38 Gigarays bestätigt? :D nochmal NV nutzt diesen ausdruck bisher nur.

Das einzige was man von den XsX daten kennt ist die Maschine learning performance gegen Turing, und da ist ne 2060 schon doppelt so schnell.
Big navi mit 80CU wird da wohl auch nicht ran kommen ;)
Daten von DF

Just to add a little perspective to the Series X "Machine Learning Performance":

XSX
INT8 = 49 TOPS
INT4 = 97 TOPS


RTX 2080Ti Founders Edition
INT8 = 227.7 TOPS
INT4 = 455.4 TOPS

RTX 2080 Founders Edition
INT8 = 169.6 TOPS
INT4 = 339.1 TOPS

RTX 2070 Founders Edition
INT8 = 126 TOPS
INT4 = 252.1 TOPS

RTX 2060
INT8 = ~100 TOPS
INT4 = ~200 TOPS


So yeah, around half that of a RTX 2060. Don't know how significant this really is and how this is going to play out.

Edit:

PS5 sieht im vergleich so aus mit RDNA2 unoffiziel bisher, man weiß nur das Maschine learning von Cherny bestätigt wurde in nem Interview

And if it has INT8 and INT4 (running at 2.23Ghz):
INT8 -> 36CU * 512 op per clock * 2230Mhz = 41.1TOPS
INT4 -> 36CU * 1024 op per clock * 2230Mhz = 82.2TOPS

Scaliert halt wie RT

Beide Konsolen sind rein von den rohen Daten einer RTX 2080 Ti überlegen. Nur wie wird die real Performance sein. Das muss man abwarten.

Nein, erkundige dich erst mal über eine 2080Ti
 
Zuletzt bearbeitet:
Wo wurden 38 Gigarays bestätigt? :D nochmal NV nutzt diesen ausdruck bisher nur.

Das einzige was man von den XsX daten kennt ist die Maschine learning performance gegen Turing, und da ist ne 2060 schon doppelt so schnell.
Big navi mit 80CU wird da wohl auch nicht ran kommen ;)
Daten von DF

Just to add a little perspective to the Series X "Machine Learning Performance":

XSX
INT8 = 49 TOPS
INT4 = 97 TOPS


RTX 2080Ti Founders Edition
INT8 = 227.7 TOPS
INT4 = 455.4 TOPS

RTX 2080 Founders Edition
INT8 = 169.6 TOPS
INT4 = 339.1 TOPS

RTX 2070 Founders Edition
INT8 = 126 TOPS
INT4 = 252.1 TOPS

RTX 2060
INT8 = ~100 TOPS
INT4 = ~200 TOPS


So yeah, around half that of a RTX 2060. Don't know how significant this really is and how this is going to play out.

Edit:

PS5 sieht im vergleich so aus mit RDNA2 unoffiziel bisher, man weiß nur das Maschine learning von Cherny bestätigt wurde in nem Interview

And if it has INT8 and INT4 (running at 2.23Ghz):
INT8 -> 36CU * 512 op per clock * 2230Mhz = 41.1TOPS
INT4 -> 36CU * 1024 op per clock * 2230Mhz = 82.2TOPS

Scaliert halt wie RT



Nein, erkundige dich erst mal über eine 2080Ti

Nein eben nicht.
Digital Foundry hat selbst die 38 Gigarays von MS bestätigt.

380 Milliarden Schnittpunktberechnungen vs 100 Milliarden Schnittpunktberechnungen.

Kläre mich auf was das bedeutet.

Die TOPs von der PS5 reichen wohl nicht für DLSS.
Aber besser als nichts.xD
 
Nochmal, erkundige dich erst mal über die 2080Ti und was NV bei Gigarays meint.
DF wissen die daten von Turing und auch wie RT auf dieser funktioniert und daher hat Dictator nicht umsonst gemeint das Turing Leistung da nicht erreicht wird.
Du weißt ja nicht mal das NV bei der 1080Ti 1.1GR/s angibt

Edit:
Da wird Gigarays nicht mal erwähnt in dem Artikel xD
 
Zuletzt bearbeitet:
Gerade Dictator mit seinem Crysis Schrein und seinen Äußerungen zu Halo und dem EventxD

Schaue mal nach. Bin gespannt wie RT bei RDNA 2 implementiert ist.
Wenn sie es endlich mal zeigen.
 
Ich dachte du weißt wie es implementiert ist xD

Kleiner Tip, AMD gab nach dem NV event damals an das eine Vega 64 ~4,5 GR/s wie es NV nennt erreicht in claybook.
Aber das lustige ist das eine von NV 1.1GR/s 1080Ti besser in claybook perfortmt.
Soviel zur Schnittstellen berechnung, die natürlich deutlich höher ist bei Turing als sie strahlen werfen pro sek.

Hier für dich um es schnellerzu machen vom Turing launch

Als Vergleich zieht NVIDIA die GeForce GTX 1080 Ti hinzu und gibt hier eine Rechenleistung von 1,1 Gigarays/s an. Die GeForce RTX 2080 Ti soll mindestens 10 Gigarays/s erreichen – in einigen Fällen sogar mehr als 12. Doch wie lassen sich diese Werte vergleichen? Die Antwort ist ganz einfach: Gar nicht! Selbst auf die identische Szene bezogen können die Werte leicht schwanken und sind somit nur eine Näherung. NVIDIA möchte an dieser Stelle aber verdeutlichen, dass ein Ray Tracing auf Basis der Pascal-Architektur in dieser Form nicht möglich ist.

Die angaben lassen sich nicht vergleichen und sind einfach ein buzzword von NV xD wie ich gesagt habe ;)
Der versuch mit Vega von AMD ging damals etwas in die Hose.

Edit:
HWdeluxxx hat das mit den sogar 4.8GT/s von AMD in ihrer review drin :D

Als Anhaltspunkt: In einer Szene von Claybook, die per Ray Tracing berechnet wird, erreicht eine Radeon RX Vega 64 4,88 Gigarays/s. Dabei wurde nur ein Primary Ray Tracing durchgeführt, für Shadow Rays liegt der Wert etwas darunter. Das Spiel läuft für Primary Ray Tracing in 4K bei 60 FPS flüssig, aber das gilt hier auch für eine GeForce GTX 1080 Ti und insofern lassen sich die fast 5 Gigarays/s nicht mit den von NVIDIA gemachten Angaben vergleichen. Ein Primary Ray Tracing und Shadow Rays können kohärent berechnet werden, für Reflection und Refraction Rays gilt dies nicht und dann ändert sich auch die Leistung auf einen Wert bezogen auf Gigarays/s.

Reflektionen laufen nicht mal in die Gigarays angaben von NV ;)
 
Zuletzt bearbeitet:
Interessant diese Aussagen. Soweit so gut arbeitet Turing nach dem Bounding volume hierarchy Prinzip. Zur Beschleunigung arbeiten die RT Cores mit den Shader-ALUs zusammen. Die RT Cores lokalisieren geeignete Polygone und die ALUs shaden die Strahlen anschließend.
Daraus ergibt sich also von Nvidia genannte Leistungsfaktor zwischen Turing und Pascal (RTX 2080 Ti vs. GTX 1080 Ti) - 10× da pro Gigaray rund 10 TFLOPS an Rechenleistung aufgewendet werden müssen.

Ach so setzt sich das zusammen.
Cool das mit den RT Cores. Aber dieses Lokalisieren der richtigen Polygone
und die Aufgabe festzustellen welche Strahlen wo auf Polygone stoßen, irgendwie ist das doch voll zeitaufwendig.^^ Auch die Vereinfachung das der Raum zunächst in größere Würfel aufgeteilt, die mithilfe effizienter Algorithmen schneller Aufschluss über darin enthaltene Polygone geben anstatt Pixelweise zu suchen ist nett,
aber irgendwie sehr aufwendig.

Aber an sich eine schöne Implementierung von Nvidia und das RT und Alu sich die Arbeit teilen und Algorithmen es noch vereinfachen. Und ja die Gigaray Angaben sind nur grobe Angaben die je nach Anwendung variieren können.

Da bin ich mal gespannt was AMD haben wird. xD
 
Bin gespannt auf mehr Infos.
Zumindest bestätigen die Folien das die SX 64 ROPs hat und die PS5 mit ihren 64 ROPs und höherem Takt schneller ist.
Beide haben also 64 ROPs.
Und ich wie ich es vermutet habe wurde der L3 Cache halbiert sogar mehr als halbiert. Das spart einige Transistoren ein.
Zu RT eher spärliche Infos außer das ich wie vermutet recht hatte: CU*4*Takt ergeben die 380
NUr lässt sich das wie Toms Hardware es geschrieben hat schlecht mit den Gigarays von Nvidia vergleichen, da beide Unternehmen Angaben weglassen um sie besser vergleichen zu können.
 
  • Lob
Reaktionen: New
AMDs Vorgehensweise mit Raytracing war doch die CUs dafür zu nutzen oder? Nvidia hat ja RT bei der 1080Ti freigeschaltet und das Ergebnis war desaströs verglichen mit dem direkten Nachfolger 2080Ti:


In 4K war eine 2080TI statt 30% auf einmal 100% schneller als die 1080Ti...
 
  • Lob
Reaktionen: Avi
Zurück
Top Bottom