Du denkst das dies Standard wird in allen Geräten? In mobilen und sparsamen macht es sicherlich Sinn aber wenn es um Leistung geht ist es schlechter. Nvidia macht oberflächlich dasselbe indem sie eine CPU zur GPU bauen aber der Grund ist das die GPU unabhängiger von der system CPU werden soll. Sie wollen also nicht näher zur CPU wie AMD sondern weitern weg.

Kann mir das sich soetwas generell durchsetzt nur vorstellen wenn sie irgendwann die Verlustleistung in den Griff bekommen. Oder wenn sie anfangen die Chips tatsächlich in 3d aufzubauen und GPU mit CPU viel enger verheiratet werden (caches usw.).
Für die PS4 ist es so auf jedenfall ein gutes design. Hätte halt gerne noch ein bischen mehr Leistung gehabt. Meine letzte Hoffnung ist aktuell das alle Gerüchte um die Xbox falsch sind und sie nur später kommt weil Microsoft auf den Steamroller wartet.
Je weiter der Fertigungsgrad fortschreitet, desto weiter auch die Integration der unterschiedlichen Bauteile.
Hey shamanu, warum verlöten wir nicht einen fetten L2-Cache auf das Mainboard mit 32mb und trennen die FPU wieder von der CPU und machen eine fette neben der CPU, so wie in guten alten Zeiten?
Haben dann doch 3 fette Teile aufgepumpt und 3 kleine Hitzequellen.
Natürlich weil das shit wäre, die größere theoretische Leistung, der größere Speicherplatz usw. würde in keinem Verhältnis zu deutlich höheren Latenz und Verlustleistung stehen, ebenso wären Kühlkonstruktionen schwerer zu realisieren.
Das würde einfach keinen Sinn machen.
Das gleiche bei der GPU, jetzt überwiegen die Vorteile nicht ganz die höhere Rohleistung von einzelnen Chips, aber im Laufe der Zeit wird auch Mid-Range erreicht.
Kaveri ist schon einmal der Anfang, das Very-low-Cost Segment gibt es mit einer dGPU schon gar nicht mehr oder kaum noch.
Das verschieben von Daten kostet mehr picojoule, als das berechnen von Daten, mit dieser Erkenntnis wird auch sofort ersichtlich wieso alle Richtung Integration rennen.
Darauf wird auch hingearbeitet bei allen Architekturen, Daten über möglichst kurze Distanz schieben und so lange speichern und behalten können wie möglich.
Nvidia geht den gleichen Weg. Sie versuchen das Data-Movement so gering wie möglich zu halten und die Daten so lange wie möglich zu behalten.
Hätten sie eine x86-Lizenz wäre das erste was sie gemacht hätten eine APU wie AMD daraus zu machen, hatten sich anfangs auch darum bemüht, sind dann an der Lizenz gescheitert und machen jetzt Project Denver.
Klar verstehe ich auch, dass es jetzt nicht möglich ist mit den ganzen prinzipiellen Nachteilen mit einem SoC der 300-400mm² groß ist getrennte Lösungen mit jeweils 200-400mm² weg zu bomben, weil einfach an Material bzw. Rohleistung fehlt, aber irgendwann kommt der Zeitpunkt, da werden die Vorteile immer mehr auch in die höheren Segmente aufsteigen und die getrennte Bauweise ersetzen.
Entwickelt sich eh alles in die Richtung hin, egal ob AMD, Intel oder gar Nvidia.