Es ist ein Unterschied, ob man etwas anfänglich falsch interpretiert und den Fehler danach zugibt, oder immer die gleiche Leier abspielt obwohl das bereits hinreichend entkfräfet wurde.
Tja, so hört es sich an, wenn man auf PR Gelaber reinfällt.
Deshalb performen ja auch GPUs mit gleicher Technik aber weniger CUs und höherem Takt auch besser als solche mit mehr CUs und geringerem Takt.
Oh warte, stimmt ja gar nicht.
GPU Daten sind auf höchste Parallelität ausgelegt.
Völliger Unterschied zu CPU Daten.
Somit absoluter Quatsch, dass die bei höherer Anzahl nicht ausgelastet sind. Und Programmierer brauchen sich darum erst recht nicht kümmern, die Verteilung übernimmt die GPU von sich aus.
Und damit beweist du genau mein Statement oben und im letzten Post.
Cache cohenrency hatte die 360 schon, allein wegen des EDRAMS, die ONE hat es. Da ist es natürlich total logisch, dass man das jetzt bei der XSX alles vergessen und auf so was nicht geachtet hat.
Aber genau das ist eben der Punkt
Weil MS das nicht bis ins Detail bisher erwähnt hat, weil ihre bisherigen Ausführungen eben nicht für einen kleinen Kreis von Devs bestimmt waren, ist es laut blauer Fraktion auch nicht vorhaden.
Ja, is klar.
Devs, die über kein Dev-Kit der XSX Verfügen und das System einfach nicht begreifen.
Fehlt nur noch, dass hier diese ominöse Lady Gaia zitiert wird