Du vergleichst gerade cache mit CPU/GPU?
Integration ist nur sinvoll solange es keine größeren Nachteile bringt.
Was interessieren mich ein paar picojoule bei der Übertragung wenn die Rechenleistung dann bei 50% liegt?
SOC funktioniert einfach nicht wenn es um Leistung geht. Intel versucht das seit jahren. Was rauskommt sieht man ja, um eine 50-60€ gpu zu ersetzen ist es nett aber das war es dann auch. Gegen etwas ausgewachsenes kommt es einfach nicht an. Wenn man die CPU & GPU verheiratet bekommt man entweder eine bessere cpu mit einer "meh" gpu (intel) oder eine bessere gpu mit einer "meh" cpu (amd). Für die PS4 kann man das machen um Geld und Verlustleistung zu sparen aber bei der Rechenleistung ist es definitiv nicht der heilige Gral.
Ich habe L2-Cache + FPU verglichen. Die war damals noch nicht in einer CPU integriert.
Ebenso nicht der Speichercontroller und viele weitere Dinge.
Na, warum trennt man die FPU nicht mehr, erreicht dann getrennt doch sicherlich doppelt so viele Floating-Points-Operations.
Wie gesagt, hättest einen ekligen Verbindungsbus, hohe Latenzen und die Board-Designs wären noch komplizierter.
Irgendwann kam der Zeitpunkt da hat L2, FPU, Memory-Controller usw. keinen Sinn mehr gemacht diesen getrennt zu behalten.
Über kurz oder lang führt eine bessere Performance pro Watt zu einer insgesamt besseren Leistung.
Und da interessieren "paar" picojoule durchaus, weil Data-Movement einen großen Teil des Strom-Konsums ausmacht.
Ein SoC hat welchen Nachteil denn genau?
Ich gebe dir 500.000 Dollar für die Entwicklung und 2 Millionen für die Fertigung, mal sehen ob du mit zwei Chips eine bessere Performance und Kostenrechnung hinbekommst, als mit einem SoC.
Es geht einfach um die Linie, ab wann ist das sinnvoller und passt besser zu den Bedürfnissen? Bei den Konsolen war es auf jeden Fall ein SoC.
Hätten beide 550mm² SoCs haben wollen, wären die Yields wohl schlecht und bei paar Dotierungsfehler wären viele Chips im Eimer. Mit zwei mal 300mm² wäre das wohl besser.
Aber wenn der ganze Chip nur 300mm² groß ist?
Da gehen pro Belichtung deutlich weniger Chips kaputt, der Ausschuss am Rand ist geringer, da nur ein Wafer für das ganze System benötigt wird, anstatt zwei wegen zwei dies.
Die Integration spart auch Logik ein, insgesamt wäre das zusammen kleiner, als getrennt.
Bei Intel kommt eine meh GPU doch nur heraus, weil sie einfach da jahrelang geschlafen haben, weil der Markt keine zwanghaften Impulse gesetzt hat und Intel Gewinnmaximierung betreiben konnte.
Ein Corei5 mit einem GCN von AMD @ 22nm Tri-Gate würdest du dir sicher auch sofort kaufen, wenn du die Vorteile einer gemeinsamen Plattform in den Benchmarks sehen würdest, soweit diese am PC überhaupt richtig durchschlagen können, da OS, Treiber und die API auch schon viel dabei beachten müssen, damit das optimal läuft.
Aber ich denke einfach End of Discussion, glaube du deine Weisheiten, ich mache das bei meinem.
Bevor Kaveri nicht auftaucht, kann man über die Vorteile leider nur theoretisch reden.
Ein Vorgeschmack liefert schon Llano und Trinity und tut es Kabini demnächst und praktische Test über den Data-Transfer-Overhead gibt es auch schon. Faktor 2 besser ist nicht schlecht, vor allem da dies mit weniger Stromverbrauch einhergeht.