1. GDDR5 hat leider auch Einschränkungen. Du musst es verlöten, wenn du es verlötest dann ist das Signal sauberer und das ermöglicht es dir auch den Takt etwas höher anzuziehen. Es gibt seit neuestem einen Standard für GDDR5 DIMMs für den Mobile-Bereich und jetzt rate mal wie schnell der effektive Takt ist? Irgendetwas mit 3200Mhz, jedenfalls nicht viel mehr.
Die heutigen GPUs wie z.B. cape verde setzen schon auf 4500Mhz effektiv und auch normaler Mobile-Bereich ist ungefähr bei 4000Mhz.
Da sieht man schon, dass es etwas bringt, die Chips direkt zu verlöten.
DDR4 hat übrigens auch mehr Pins für die Kontaktfläche, um auch hier einen höheren Takt garantieren zu können.
Modularität und Aufrüstbarkeit könnte hier eine große rolle Spielen.
GDDR5 hat auch eine geringere Datendichte, als normaler Arbeitsspeicher und ist auch an sich billiger.
Temperatur und Stromverbrauch könnten weitere Unterschiede aufzeigen.
Die absoluten Latenzen sind dabei vergleichbar, bloß hat auch GDDR5 dabei deutlich mehr Bandbreite.
Ob das intern bei Datenpaketen auch die CPU negativ beeinflussen kann, ist eine zwar interessante frage, aber ich habe natürlich Zweifel daran.
Die Gründe die gegen GDDR5 sprechen sind wohl weniger die Leistung am Ende, sondern viel mehr die Kosten und die Einschränkungen bei der Verwendung.
Hier sind übrigens die Unterschiede zwischen DDR3/4 und GDDR5 aufgelistet:
2. Ich gehe nicht davon aus, ich denke das Spiele eher klassisch programmiert werden.
Da müssen ja auch die ganzen Entwicklertools darauf angepasst werden und Algorithmen dafür geschaffen.
Ich gehe nur davon aus, dass hier deutlich mehr Potential verborgen ist, als auf dem PC mit PCIe Flaschenhals.
Ich kann ja leider auch nicht vorhersagen, welche Spiele die Devs in Zukunft programmieren und welchen Grad an Interaktion von CPU und GPU sie wählen werden.
Und wieso das AMD nicht macht? Machen sie doch
Kaveri mit der Technologie kommt auch erst Ende 2013/Anfang 2014.
AMD gibt an, APUs im unterem Server-Segment oder Workstation-Markt anbieten zu wollen.
Bei Trinity hat man das schon gemacht (Gibt eine FirePro davon), sogar ein Opteron wurde genannt, aber offiziell ist das glaube ich noch nicht.
Nvidia geht ja auch mit Project Denver dahin, indem man ARM-Cores in die GPU implantiert, somit will man die GPU unabhängiger von der CPU gestalten.
Beim HPC-Markt hat sich das ganze ja auch nicht durchgesetzt, weil dort ja ebenfalls der PCIe-Link limitiert.
Da verwendet man auch Algorithmen, wo der PCIe nicht Unmengen an Ineffizienz mit sich bringt oder limitiert.
Niemand kitzelt dort einen Flaschenhals, weil er meint das passt schon so.
Nvidia hat mit CUDA z.B. auch eine Sprache für GPGPU zur Verfügung gestellt und weitere Techniken, um die GPU unabhängiger von der CPU zu machen oder sie effektiver ausnutzen zu können.
Die ganze HSA, Denver SoCs Schiene wird wohl viele Segmente beerben, aber bei Sachen wo es auf puren Durchsatz geht, da wird man mit einem SoCs nicht weit kommen, weil Flächenmäßig ist so eine Lösung natürlich arg limitiert.