• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Paar Luftschlösser sind halt zerplatzt, und die Secret Sauce schmeckt auch ganz salzig. Stattdessen wird jetzt diskutiert, ob die PS5 fähig, Next-Gen-Features zu stemmen, die von Anfang an als gegeben schienen.

Was die Crossgen-Games angeht: Da ist die XSX seit Dezember in der Regel vorne, wenn auch nur leicht. Bei der Hitman wars allerdings sehr krass. Control war insofern interessant, als dass auf der XSX mit Raytracing weit mehr möglich wäre in Sachen Performance.
Next-Gen Features würden fehlen, weil Sony nur eine 128bit Schnittstelle für FPUs hat anstatt 256bit, falls es natürlich überhaupt stimmt?
 
Was soll das genau heißen? Was ist "SIMD data"?
SIMD = Single Instruction Multiple Data. Das sind die Instruktionen, die mehrere gleichartige Datensätze mit einem einzigen CPU-Befehl parallel bearbeiten. Also bei 256-bit breiter Abarbeitung zB, dann mit einem einzigen CPU-Befehl 8 floats oder 4 doubles auf einmal multiplizieren oder addieren können.
 
NXGamer laviert inzwischen ziemlich nach seinem ersten Statement und hält sich alle Optionen offen. Der scheint mir auch allgemein weniger verlässlich als DF. Spricht auch in seinen Tech-Reviews meist im Konjunktiv und postet dann im Gaf widersprüchliche Sachen bzw. verstrickt sich in Diskussionen mit Fanboys, aus denen er nicht mehr rauskommt.

Scheint mir ein normaler Gaf-User zu sein, der sicher bisschen Ahnung von der Materie hat. Aber weit hinter DF, die auch zu ihren Aussagen stehen und mit den Devs vernetzt sind. NXGamer liefert seine Tech-Reviews auch oft ne Weile nach DF, da kann er sich erst absichern.



Paar Luftschlösser sind halt zerplatzt, und die Secret Sauce schmeckt auch ganz salzig. Stattdessen wird jetzt diskutiert, ob die PS5 fähig ist, Next-Gen-Features zu stemmen, die von Anfang an als gegeben schienen.

Was die Crossgen-Games angeht: Da ist die XSX seit Dezember in der Regel vorne, wenn auch nur leicht. Bei der Hitman wars allerdings sehr krass. Control war insofern interessant, als dass auf der XSX mit Raytracing weit mehr möglich wäre in Sachen Performance.
Du und Luftschlösser in einen Post passen perfekt zueinander. Zählt mal bitte die Titel auf bei der die SX besser performt. Wir sind gespannt!
 
Mal wieder zu etwas handfestem bzgl. Nextgen-Versionen von Metro Exodus:


Metro Exodus will run at 4K / 60FPS with full Ray Traced lighting throughout on PlayStation 5 and Xbox Series X. The base game and DLC expansions will feature both our ground-breaking Ray Traced Global Illumination (RTGI) and the Ray Traced Emissive Lighting techniques pioneered in The Two Colonels expansion across all content.

The next gen consoles will benefit from dramatically reduced loading times thanks to our use of their SSD storage optimizations, boast 4K texture packs, and a range of platform specific features including spatial audio and controller latency improvements on Xbox, and support for the haptic features of the PlayStation 5 Dual Sense controller.

These Gen 9 console versions will release later this year and will be available as a FREE upgrade to all current owners.
Nice :goodwork:
 
Du und Luftschlösser in einen Post passen perfekt zueinander. Zählt mal bitte die Titel auf bei der die SX besser performt. Wir sind gespannt!

- COD (60fps, Raytracing)
- Control, identisch bis auf Stotterer auf der XSX, dafür stabilere 60fps (ansonsten: laut DF locked 40fps oder 60fps/Raytracing möglich auf XSX)
- Hitman - gewaltiger Gap
- Cyberpunk
- Division 2
- Jedi Fallen Order
- Devil May Cry (3 von 4 Modi besser)

AC, Dirt, Watch Dogs und Destiny haben beide Konsolen in unterschiedlichen Szenarien ganz leichte Vorteile. Sonst gabs ja nicht viel.

Nur wegen den ungepatchten Versionen von Dirt und AC wird hier so getan, als ob die PS5 j eweils besser performed. Absoluter Humbug.
 
Zuletzt bearbeitet:
SIMD = Single Instruction Multiple Data. Das sind die Instruktionen, die mehrere gleichartige Datensätze mit einem einzigen CPU-Befehl parallel bearbeiten. Also bei 256-bit breiter Abarbeitung zB, dann mit einem einzigen CPU-Befehl 8 floats oder 4 doubles auf einmal multiplizieren oder addieren können.
Ich habe nicht gefragt, was SIMD ist, sondern was "SIMD data" ist und was folgendes Zitat genau bedeutet:

"Any SIMD data is better off-loaded to the GPU FPU's and not on the CPU".

Was soll das bedeuten? Oder ist mit "SIMD data" die Instruktion gemeint?

Randnotiz: SIMD ist keine Instruktion, sondern eine Architektur.
 
SIMD Data sind die Daten der SIMD-Instruktionen, also das D in SIMD.
Und was bedeutet nun "Any SIMD data is better off-loaded to the GPU FPU's and not on the CPU"?

Der Satz ergibt gar keinen Sinn. "SIMD Data" allein als Begriff zu verwenden ist seltsam. Denn die Daten sind nicht "SIMD"-spezifisch. Die SISD kann das auch völlig problemlos durchführen - nur eben (wesentlich) langsamer. Eher wäre richtig: "Daten, die parallel abgearbeitet werden können mit der gleichen Instruktion, sollten von einem Prozessor berechnet werden, der den SIMD-Ansatz verfolgt".

Ob ich nun A * B = C von SISD berechnen lasse oder A * B = C von SIMD, ist egal. Es sind die selben Daten. Kein "SIMD data". Also nochmal die Frage: Was genau bedeutet "Any SIMD data is better off-loaded to the GPU FPU's and not on the CPU"? Eher eine Instruktion, die auf mehrere Daten parallel angewendet werden kann, sollte "better off-loaded to the GPU FPU's and not on the CPU"? Wenn ja, warum überhaupt? Wozu wären die FPU-Einheiten der CPU denn sonst gut, wenn man sie eh nicht verwenden sollte? Sicher, es gibt wesentlich weniger FPU-Einheiten auf der CPU, aber je nach Menge kann die CPU das auch bewältigen, wenn es solche FPU-Einheiten (bzw. SIMD-Einheiten) gibt - und dann eventuell sogar schneller, da noch näher an der CPU.

Also die Frage geht ja nicht an dich persönlich, wenn du ihn zitierst, ist ja nicht deine Schuld. Eher eine Frage in die allgemeine Runde.
 
Metro Exodus wird nen sehr interessanter NewGen Port.

Series X und PS5 mit 4K/60fps und RTX ... bin gespannt. Series S mit 1080/60fps und RTX.

2021-02-09_11-55-248sj04.jpg[IMG]
2021-02-09_11-55-248sj04.jpg

(PC Enhanced Edt.)
 
Zuletzt bearbeitet:
Und was bedeutet nun "Any SIMD data is better off-loaded to the GPU FPU's and not on the CPU"?

Der Satz ergibt gar keinen Sinn. "SIMD Data" allein als Begriff zu verwenden ist seltsam. Denn die Daten sind nicht "SIMD"-spezifisch. Die SISD kann das auch völlig problemlos durchführen - nur eben (wesentlich) langsamer. Eher wäre richtig: "Daten, die parallel abgearbeitet werden können mit der gleichen Instruktion, sollten von einem Prozessor berechnet werden, der den SIMD-Ansatz verfolgt".

Ob ich nun A * B = C von SISD berechnen lasse oder A * B = C von SIMD, ist egal. Es sind die selben Daten. Kein "SIMD data". Also nochmal die Frage: Was genau bedeutet "Any SIMD data is better off-loaded to the GPU FPU's and not on the CPU"? Eher eine Instruktion, die auf mehrere Daten parallel angewendet werden kann, sollte "better off-loaded to the GPU FPU's and not on the CPU"? Wenn ja, warum überhaupt? Wozu wären die FPU-Einheiten der CPU denn sonst gut, wenn man sie eh nicht verwenden sollte? Sicher, es gibt wesentlich weniger FPU-Einheiten auf der CPU, aber je nach Menge kann die CPU das auch bewältigen, wenn es solche FPU-Einheiten (bzw. SIMD-Einheiten) gibt - und dann eventuell sogar schneller, da noch näher an der CPU.

Also die Frage geht ja nicht an dich persönlich, wenn du ihn zitierst, ist ja nicht deine Schuld. Eher eine Frage in die allgemeine Runde.
NxGamer hat diese Aussage aufgestellt. Ich kann nur vermuten, dass er davon ausgeht, dass alle SIMD-Operationen auf der GPU viel schneller sind. Das ist aber nicht der Fall und nur bei massiv parallelisierbaren Sachen. Und nicht alle Daten gehören auf die GPU transformiert (was auch Zeit kostet).

SIMD-Daten würde ich schon als spezifisch bezeichnen, denn sie müssen so strukturiert sein, dass sie für SIMD-Parallelisierung taugen und angeordnet sind (vergleiche SoA gegen AoS). Das ist alles andere als trivial.
 
@Ark
Er hat schlichtweg behauptet, das SIMD Operationen besser von der GPU statt der CPU bewerkstelligt werden sollten das wars eigentlich. Wenn man von SIMD spricht, meint man eigentlich auch die parallele Berechnung von mehreren Daten pro Instruktion... da stellen single iinstructions keine wirkliche Alternative dar.

Warum er das lieber bei der GPU sieht, ist ja das merkwürdige.... macht nicht wirklich Sinn.
 
@Ark
Er hat schlichtweg behauptet, das SIMD Operationen besser von der GPU statt der CPU bewerkstelligt werden sollten das wars eigentlich. Wenn man von SIMD spricht, meint man eigentlich auch die parallele Berechnung von mehreren Daten pro Instruktion... da stellen single iinstructions keine wirkliche Alternative dar.

Warum er das lieber bei der GPU sieht, ist ja das merkwürdige.... macht nicht wirklich Sinn.

Er hinterlässt grad nen ziemlich...komischen Eindruck. Erst prescht er auf Twitter mit wilden Theorien vor, dann gibts Rückfragen, was er damit meint. Also hängt er sich an den Rockzipfel von Tech-Ingenieuren und retweetet sie mit: "Exactly what I was saying!" Bisschen Understatement würde ihm gut tun, und die Diskussionen mit Fanboys im Gaf helfen seiner Glaubwürdigkeit auch nicht.

Naja. Alles ziemlich nebulös. Cerny sollte mal Aufklärung schaffen.
 
Ich frage mich warum sie das extra rausgenommen haben? Spart das soviel Platz(also DIA kleiner? eher nicht oder?)? Weil die Anpassung hat bestimmt wieder was gekostet und daher warum/wozu?
 
Gegebenenfalls um etwas CPU Powermanagement und Hitzeentwicklung einzusparen um diese dann der GPU zur Verfügung zu stellen....quasi ein Opfer von Smart Shift vielleicht :nix:
 
Gegebenenfalls um etwas CPU Powermanagement und Hitzeentwicklung einzusparen um diese dann der GPU zur Verfügung zu stellen....quasi ein Opfer von Smart Shift vielleicht :nix:
Das ist halt die Frage, weil die Notebooks mit Smart S das halt nicht haben. Komisch. Was schade ist, dass leider keine Zen3 Verbesserungen mitgenommen wurden(also nur ein CCX ohne die separaten L3 und IO, war wohl zu spät).
 
Zurück
Top Bottom