Was du meinst, sind die Tensor-Kerne bei Nvidia. Sowas hat AMD nicht, daher nicht auf diese Weise hardware-beschleunigt.
Nicht auf diese Weise hardware-beschleunigt, aber auf eine andere Weise. Machine Learning bei der SX nutzt extra Die-Area:
Machine learning is a feature we've discussed in the past, most notably with Nvidia's Turing architecture and the firm's DLSS AI upscaling. The RDNA 2 architecture used in Series X does not have tensor core equivalents, but Microsoft and AMD have come up with a novel, efficient solution based on the standard shader cores. With over 12 teraflops of FP32 compute, RDNA 2 also allows for double that with FP16 (yes, rapid-packed math is back). However, machine learning workloads often use much lower precision than that, so the RDNA 2 shaders were adapted still further.
"We knew that many inference algorithms need only 8-bit and 4-bit integer positions for weights and the math operations involving those weights comprise the bulk of the performance overhead for those algorithms," says Andrew Goossen. "So we added special hardware support for this specific scenario. The result is that Series X offers 49 TOPS for 8-bit integer operations and 97 TOPS for 4-bit integer operations. Note that the weights are integers, so those are TOPS and not TFLOPs. The net result is that Series X offers unparalleled intelligence for machine learning."
MS hat die Shader also angepasst/erweitert und es sind Berechnungen mit INT4/INT8 und FP16 (welches damals die PS4 Pro schon in Konsolen eingeführt hatte) möglich. Es ist aber durchaus möglich, dass es die gleiche Lösung ist, wie alle RDNA 2 Karten haben, somit auch PS5. RDNA 1 konnte z.B. noch kein INT4/8.
Ich glaube kaum, dass AMD Supersampling perfomanter sein wird als Nvidias Lösung, denn die hat viel mehr Die-Area zur Verfügung und kann Shader parallel nutzen. Das ist bei AMD scheinbar nicht der Fall. Ich stelle mir so ein Szenario z.B. so vor:
-AMD Supersampling mit den Performance-Kosten von DLSS2.0 Quality Mode, mit der optischen Qualität von DLSS2.0 Performance Mode
oder
-AMD Supersampling ÜBER den Performance-Kosten von DLSS2.0 Quality Mode, mit der optischen Qualität von DLSS2.0 Quality Mode
Und natürlich alle anderen Varianten. Ich glaube man wird bei AMD immer Abstriche entweder in Qualität oder Performance machen müssen.
Das selbe gilt für Ray Tracing. Nvidia hat da viel mehr Die-Area. Der Watch Dogs Vergleich ist schon in Ordnung. Denn da kann man sicher sein, dass die Qualtätssettings so gut wie identisch sind (Alex hat ja die config der Konsolenversionen), das ist bei all den anderen Vergleichen kaum möglich zu sagen, vor allem auch welche Auflösung gerade bei Konsolen gerendert wird weil sie sich gerade dynamisch geändert hat. Im WD Beispiel hat die PC Version nichtmal eine dynamische Auflösung soweit ich mich erinnere. Aber man sieht auch nicht wie die Konsolen unlocked performen würden. Dennoch einer der fairsten Vergleiche die ich gesehen habe. Die PC Benchmarks die ich kenne, sind immer mit Ultra Settings gemacht, ohne dynamischer Auflösung etc. Sehr schwer zu vergleichen.
Wenn RT auf AMD Karten genutzt wird, sinkt die Performance verhältnismäßig im Vergleich zu Nvidia nunmal mehr, ohne RT sind die Konsolen der 2060 Super auf jedenfall überlegen. Und RT auf AMD Hardware ist nagelneu, somit gibt es da auch noch mehr an Optimierungspotenzial würde ich sagen. Vor Ankündigung der neuen Konsolengeneration hat noch kaum jemand gewagt an RT in Konsolen zu denken. Deshalb sollten wir froh sein, dass es das überhaupt gibt, auch wenn Nvidia in dem Bereich die Nase vorne hat.