Maschinelles Lernen ist ein in der Vergangenheit schon angesprochenes Feature, im Zusammenhang mit Nvidias Turing-Architektur und deren DLSS AI Upscaling. Die RDNA-2-Architektur der Series X hat kein Tensor-Core-Äquivalent, aber Microsoft und AMD haben sich eine eigene, effiziente Lösung ausgedacht, basierend auf den Standard Shader Cores. Mit über 12 Teraflops an FP32-Berechnung kann RDNA 2 das mit FP16 verdoppeln (ja, Rapid Packed Math ist zurück).
Allerdings bedeutet maschinelles Lernen für Workloads oft eine viel geringere Präzision, also wurden die RDNA-2-Shader weiter angepasst.
Wir wissen, dass viele Interferenz-Algorithmen nur 8-bit und 4-bit Integer-Positionen für Gewichte brauchen und dass die mathematischen Operationen, die diese Gewichte beinhalten, einen Großteil des Performance Overhead für diese Algorithmen ausmachen.", so Andrew Goossen. "Also fügten wir einen Hardware-Support für dieses spezifische Szenario hinzu. Das Ergebnis ist, dass die Series X 49 TOPS für 8-bit Integer Operationen und 97 TOPS für 4-bit bietet. Es ist zu beachten, dass die Gewichte Integer sind, also sind dies TOPS und nicht TFLOPS. Im Ergebnis hat damit die Series X ein bisher unerreichtes Potential für maschinelles Lernen.