ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Und wie in der Vergangenheit oft genug erwähnt, reicht es nicht aus, einfach einen Link zu posten ohne weitere Erklärung. Es kann reichen, muss aber nicht. In dem Fall hat es der Benutzer nicht ganz verstanden, weswegen du es ihm hättest erklären können, anstatt die Frage aus der Sicht des Benutzers noch verwirrender zu machen mit der Antwort.

Das nächste Mal könnte so ein Verhalten als "Verstoß ordentlicher Diskussionskultur" geahndet werden. Also achtet bitte alle darauf.

Das war es nun aber auch zu diesem Thema.
 
Und wie in der Vergangenheit oft genug erwähnt, reicht es nicht aus, einfach einen Link zu posten ohne weitere Erklärung. Es kann reichen, muss aber nicht. In dem Fall hat es der Benutzer nicht ganz verstanden, weswegen du es ihm hättest erklären können, anstatt die Frage aus der Sicht des Benutzers noch verwirrender zu machen mit der Antwort.
Aber die Erklärung steht doch dabei "Wer mal SuperResolution selber ausprobieren will". Wieso zitiert mich dazu ein Nutzer, der offensichtlich SuperResolution selber gar nicht ausprobieren will? Das macht doch Null Sinn.
 
Und wie in der Vergangenheit oft genug erwähnt, reicht es nicht aus, einfach einen Link zu posten ohne weitere Erklärung. Es kann reichen, muss aber nicht. In dem Fall hat es der Benutzer nicht ganz verstanden, weswegen du es ihm hättest erklären können, anstatt die Frage aus der Sicht des Benutzers noch verwirrender zu machen mit der Antwort.

Das nächste Mal könnte so ein Verhalten als "Verstoß ordentlicher Diskussionskultur" geahndet werden. Also achtet bitte alle darauf.

Das war es nun aber auch zu diesem Thema.
Und ich dachte, dass sei hier der Technik Thread, wo man von den Usern noch erwarten könne, selber mal ihre grauen Zellen anzustrengen.
Lag ich wohl falsch.

Wer nicht weiß was Superresolution ist und nicht mal fähig ist den dazu verlinkten Artikel zu lesen um sich schlauer zu machen, der muss sich nicht wundern, wenn er keine ausführlichen Rückmeldungen für seinen Einzeiler bekommt.

Das ist der Next-Gen Thread. Und da sollte man davon ausgehen, dass man rudimentäre Kenntnisse über die Technik der neuen Konsolen hat wenn man seinen Senf dazugeben will. Und dazu gehören eben auch die Fähigkeit der neuen GPUs wie eben ML / Superresolution.

Wüsste jetzt echt nicht, was sich @Nullpointer da zu schulden kommen haben soll. Insbesondere da @Aluhut ja noch mal einen Wink mit dem Zaunpfahl gegeben hat. Wurde auch nicht verstanden.
 
Der Thread ist für jeden da und nicht nur für Leute mit Technik-Verständnis. Genau das sollte nun die letzte Antwort dazu sein. Alles weitere gerne per Konversation.
 
Der Thread ist für jeden da und nicht nur für Leute mit Technik-Verständnis. Genau das sollte nun die letzte Antwort dazu sein. Alles weitere gerne per Konversation.

Das muss hier noch klar gestellt werden,
Es geht nicht darum, dass jeder hier die dicke Ahnung haben muss.
Wer aber provozierende Halbzeiler hier in den Raum schmeißt, sollte schon wissen, auf was er sich beruft.

Wer also ein für diesen Thread völlig relevantes Thema anspircht, muss sich sicherlich nicht rechtfertigen, warum er das hier hineingeschrieben hat, nur weil ein Provokateur es nicht versteht.

Oder soll man jetzt hier jedem Fachbegriff den man verwendet und der hier schon zigmal erklärt wurde, bei jeder neuen Verwendung erneut erörtern?

Zum Thema:
@Nullpointer
Wie hoch ist denn die Framerate bei deinem Test ohne ML bei 540p und bei 1080p?
Das wäre ja interessant. In wie fern ML hier Leistung einspart gegenüber nativem 1080p
10fps hört sich zwar nicht gerade berauschend an, ist aber für eine Mobil-APU mit gerade mal um die 1,4GFlops Leistung und noch nicht den ML Fähigkeiten von RDNA2 zu relativieren.
 
Zum Thema:
@Nullpointer
Wie hoch ist denn die Framerate bei deinem Test ohne ML bei 540p und bei 1080p?
Das wäre ja interessant. In wie fern ML hier Leistung einspart gegenüber nativem 1080p
10fps hört sich zwar nicht gerade berauschend an, ist aber für eine Mobil-APU mit gerade mal um die 1,4GFlops Leistung und noch nicht den ML Fähigkeiten von RDNA2 zu relativieren.
Das Beispiel rendert das Quellmaterial nicht selbst, sondern nutzt einfach ein Video von Forza Horizon 3 in 540p@60fps. Entweder wird das bilinear hochskaliert (in 60fps, wobei sich da natürlich die GPU langweilt) oder per SuperResolution auf 1080p. Bei letzterem eben 100% GPU Auslastung bei mir und ca. 10 fps mit ca. 2.8 Teraflop FP16.

Ich muss mal noch ein bisschen rumprobieren, wie weit das thermisch gedrosselt ist. Vielleicht geht noch was. Aber nehmen wir mal 2 Teraflop FP16 an, dann braucht man für Upscaling von 540p@60fps mit dem Netzwerk im Beispiel also dann so etwa 12.

Kann ja jemand mit einer neueren RDNA-GPU mal ausprobieren und uns seine Ergebnisse mitteilen :goodwork:
 
Das Beispiel rendert das Quellmaterial nicht selbst, sondern nutzt einfach ein Video von Forza Horizon 3 in 540p@60fps. Entweder wird das bilinear hochskaliert (in 60fps, wobei sich da natürlich die GPU langweilt) oder per SuperResolution auf 1080p. Bei letzterem eben 100% GPU Auslastung bei mir und ca. 10 fps mit ca. 2.8 Teraflop FP16.

Ich muss mal noch ein bisschen rumprobieren, wie weit das thermisch gedrosselt ist. Vielleicht geht noch was. Aber nehmen wir mal 2 Teraflop FP16 an, dann braucht man für Upscaling von 540p@60fps mit dem Netzwerk im Beispiel also dann so etwa 12.

Kann ja jemand mit einer neueren RDNA-GPU mal ausprobieren und uns seine Ergebnisse mitteilen :goodwork:
Ah ok,
Meine Laptop APU ist denke ich mal zu schwach für den Test, Aber werde ich trotzdem mal ausprobieren :)

Stecke jetzt auch nicht so megatief in der Materie, deshalb stelle ich mir gerade die Frage, ob es für ML das gleiche ist, ein vorgerendertes Video zum Upscalen zu bekommen oder ein in Echtzeit berechnetes Bild.
War bisher der Annahme, dass ML schon vor dem fertigen Bild eingreift und es analysiert.

12TF 16bit Leistung ist natürlich trotzdem ganz schön heavy :)
Wäre ja die halbe SX Leistung um die Auflösung per MS zu Vervierfachen.
OK, native Erhöhung kostet wohl noch einiges mehr und RDNA2 dürfte ja noch zusätzliche Möglichkeiten hierfür besitzen und ja sogar bis auf 4bit bei der Berechnung runtergehen können. Sollte also auch etwas effektiver sein.

Wäre aber noch interessant, wie sich ML bei Erhöhung der Grundauflösung verhält. Wenn es schon so viel Leistung von 540p auf 1080p verpulvert will ich gar nicht wissen, wie viel nötig ist für eine Skalierung von 1080p auf 2160p :)
Rein intuitiv käme man da schon auf 48TF 16bit.
 
Ah ok,
Meine Laptop APU ist denke ich mal zu schwach für den Test, Aber werde ich trotzdem mal ausprobieren :)

Stecke jetzt auch nicht so megatief in der Materie, deshalb stelle ich mir gerade die Frage, ob es für ML das gleiche ist, ein vorgerendertes Video zum Upscalen zu bekommen oder ein in Echtzeit berechnetes Bild.
War bisher der Annahme, dass ML schon vor dem fertigen Bild eingreift und es analysiert.
DLSS (oder auch Facebooks SuperResolution) benutzt die gleichen Inputs wie TAA, also aktueller und letzer Framebuffer und Bewegungsvektoren. Das Netzwerk hier im Beispiel war auch älteren Datums und nutzt soweit ich das mir bisher angesehen habe nur die aktuellen Bildinformationen.
12TF 16bit Leistung ist natürlich trotzdem ganz schön heavy :)
Wäre ja die halbe SX Leistung um die Auflösung per MS zu Vervierfachen.
OK, native Erhöhung kostet wohl noch einiges mehr und RDNA2 dürfte ja noch zusätzliche Möglichkeiten hierfür besitzen und ja sogar bis auf 4bit bei der Berechnung runtergehen können. Sollte also auch etwas effektiver sein.

Wäre aber noch interessant, wie sich ML bei Erhöhung der Grundauflösung verhält. Wenn es schon so viel Leistung von 540p auf 1080p verpulvert will ich gar nicht wissen, wie viel nötig ist für eine Skalierung von 1080p auf 2160p :)
Rein intuitiv käme man da schon auf 48TF 16bit.
Das Zeug ist berechnungstechnisch heavy, weshalb es bisher nur sinnvoll auf NVidias Karten mit Tensor-Cores funktioniert.
 
Warum sollte es uns interessieren wie seine CPU performt?
Da du es nicht verstanden hast.
SuperResolution läuft nicht auf der CPU :ol:
DirectML ist insofern interessant, da es mit der DirectX12-API unterstützt wird und somit auch von den aktuellen Xbox-Konsolen.
Frage damit beantwortet?
Kannst du den Mod fragen, der meine Beispiele zu SuperResolution mit DLSS verschoben hat xD
Du warst anscheinend nicht ausführlich genug in deinen Erklärungen.
Das Zeug ist berechnungstechnisch heavy, weshalb es bisher nur sinnvoll auf NVidias Karten mit Tensor-Cores funktioniert.
Viel Leistung ist nötig um Leistung zu sparen.
Bin gespannt wieviel SR die Series in die Waagschale werfen kann und wie es genutzt wird.
Wie bei Nvidia glaube ich nicht.
Nutzen sie dann vielleicht nur für einzelne Texturen? Ist es mit VRS kombiniert denkbar, oder für RT?
Aber ML kann ja auch für KI, Animationen, wer weiß noch was genutzt werden.
 
Lol ausführlicher wie direkte beispiele an bildern geht glaub kaum xD
Fa warceinfach nur "der pöse" PC der antrieb dafür, weil das so ein enormer boost bei besserer IQ ist.

Der grund lautete irgend wie "solange noch Zukunftsmusik, gehörtces hier nicht rein" oder so ähnlich :uglylol:
 
Die schriftliche Abhandlung und der Kontext zu den Konsolen hat vielleicht gefehlt?
Den Bogen von DLSS zu ML muss man auch erst spannen.
Die Technik ist so neu das manche glauben sie hat nur was mit der Performance von Notebook-CPUs zu tun.

Zukunftsmusik ist falsch hier?
Dann ist der Threadname inzwischen falsch.
 
Zurück
Top Bottom