So eindeutig ist das nicht.
GDDR5 hat höhere Latenzen als DDR3 und DDR3 hat höhere Latenzen als DDR1.
So macht DDR3 die CPU unglücklich im Vergleich zu DDR1?
Nein, denn die Absolute Latenz steigt ja nicht, selbst wenn die Zugriffszeit steigt, steigt ebenso auch die Taktraten und die Bandbreite enorm an, was dann zu Latenz geteilt durch Mhz führt um die Absolute Latenz zu bestimmen, die dann meistens immer gleich bleibt bei den Generationen.
GDDR5 hat ja auch zum Teil deutlich höhere Taktraten und wie du selber gesagt hast, man braucht hohe Taktraten und die hat Sony bisher.
Übrigens ist der Memory-Controller auch speziell angepasst, der kann der CPU latenzärmere Zugriffe auf den Speicher garantieren.
Macht AMD bisher mit Llano und Trinity so, der Speichercontroller managed die Speicherzugriffe für CPU und GPU halbwegs optimal, um beiden Konzepten eine gute Fütterung garantieren zu können.
DDR3 alleine macht die GPU ja auch nicht traurig, wenn die Bandbreite hoch genug ausfällt.
Dennoch bin ich bei MS-Lösung skeptisch, ob das alles so reibungslos funktioniert mit 32mb, wie du dir das vorstellst.
Du hast recht, was die absoluten Latenzen gleicher Speicherarten angeht.
DDR 400 mit 3,2GB/s pro Modul läuft mit dem gleichen absoluten Takt wie DDR3 1600 mit 12,8GB/s, nämlich 200Mhz.
DDR3 hat höhere Latenzen, was die Taktzyklen angeht, ggü. DDR1.
Aber das relativiert sich wieder, da die Takzyklen bei DDR3 ja kürzer sind.
Auf das Beispiel bezogen
DDR1 mit 1 Takt Latenz hat die gleiche zeitliche Latenz wie DDR3 mit 4 Takten, da DDR3 effektiv viermal so hoch getaktet wird.
Bei GDDR ggü. DDR sieht die Sache aber anders aus. Hier ist bei GDDR auch die zeitliche Latenz um einiges höher als bei DDR trotz höherem Takt. Man kann nicht alles haben und bei GDDR ist eben eine hohe Bandbreite entscheidend.
Ein guter Speicherkontroller kann da sicherlich etwas Abhilfe schaffen, aber man wird nie eine so geringe Latenz erhalten wie bei gleichwertigem DDR3 Speicher.
Damit meine ich, man darf natürlich nicht die schnellste GDDR5 Variante mit der langsamsten DDR3 Variante vergleichen

Wobei ich da ehrlich nicht weiß, wie genau sich da die einzelnen Latenzen zueeinander verhalten.
Ich meine nur.
MS hat bei der 360 auf GDDR in Verbindung mit eDRAM gesetzt.
Ich glaube einfach nicht, dass sie nun auf DDR3 und eSRAM setzen, wenn das nicht einen Vorteil ggü. der 360 Speicherkonfiguration hätte oder sogar schlechter sei. Und diese Lösung war schon extrem gut.
Das macht eben meiner Ansicht nach überhaupt keinen Sinn.
Apropo, woher hat man die Daten, dass die MS CPU 204 GFLOPs schafft?
Das wüsste ich auch gern. Ich hab nur gelesen, dass die X3 Jaguarkerne in den Vektoreinheiten aufgebohrt wurden, wie damals die PPC Kerne der 360.