BetaVersion
L14: Freak
- Seit
- 8 Aug 2007
- Beiträge
- 7.440
Nur durch das eDRAM war aber auch ein gemeinsamer Speicher überhaupt möglich.
Ohne müsste man entweder getrennten Speicher für CPU und GPU verwenden wobei der GPU Speicher dann aber auch die Geschwindigkeit der dann üblichen schnellen Speicher auf einer gleichwertigen PC Grafikkarten haben müsste.
Und als Endverbraucher zahlt man im Moment für 2GB an solchem Speicher noch locker 100 Euro.
Der Speicher wird auch nicht günstiger mit der Zeit sondern schneller.
Wenn man auf gemeinsamen Speicher zurück greifen will müsste dieser noch schneller sein. Scheitert vermutlich daran, dass es solch schnellen Speicher dann nicht gibt.
Was das Deferred Rendering angeht übernimmt das beim PC eh die GPU. Lediglich die PS3 lagert das auf den Cell aus da der RSX zu schwach ist und man sonst mit den SPUs des Cells ja nicht viel anfangen könnte. Die sind im Grunde genommen ja nichts anderes als ein ausgelagerter GPU Teil.
Eine Konsole mit einem vernünftigen Verhältnis zwischen CPU und GPU würde das DR auch durch die GPU laufen lassen. Dann ist auch die größe des eDRAMs nicht so wichtig.
Klar, darf es nicht zu klein sein und die 10MB der 360 reichten ja noch nicht einmal aus um ein 720p Bild mit 2fach AA zu versehen ohne dass das Bild geteilt werden müsste. Bei 1080p und dann auch noch DR Techniken muss man schon eine Schippe drauflegen.
Meinen Berechnungen nach wären 128MB ein schöner Wert.
Gehe aber davon aus, dass es etwas weniger sein werden.
Und da auch das eDRAM mit der Technik geht wird es folglich um einiges schneller sein als das in der 360 verbaute.
Da könnte man jetzt ganze Abhandlungen darüber schreiben, aber keine Sorge ich will Euch das ersparen ;-)
Wenn man jetzt einen SoC hätte könnte man intern einen gemeinsamen Memory-Controller realisieren, der dann nach außen mit entsprechend breitem Bus angebunden wird zum Beispiel 4 getrennt adressierbare Bänke a 64 Bit mit GDDR5 sind schon ein Wort. Aber da sind wir definitiv außerhalb der Liga von Nintendo. Der Einsatz von eDRAM ist ja auch schon in den Gerüchten bestätigt (sowohl für die GPU als auch die CPU !), es geht also mehr um die Frage wie viel und wie sieht es mit der Busbreite aus.
An sinnvollen Maßnahmen fällt mir eigentlich auch nur AA und die Entkopplung zw. den Rechenkernen bzw. der GPU ein. Allerdings 3 Rechenkerne *2 (Multithreading) bei 4 GHz plus eine GPU, die alle auf dem gleichen Speicher rumwursteln. Da kommt eine Menge Cache raus, wenn man das ausrechnet. 128 MB ist da wahrscheinlich eine gute Zahl.
Ich hoffe jedoch genau deswegen, dass wir Spezialspeicher sowohl für die GPU als auch die CPU sehen werden. Und ein integrierter gemeinsamer Memorycontroller den Speicher Blockweise einblendet und so ein kleinerer Teil für Shared Memory zur Verfügung steht ohne die anderen zu blockieren. Also eine Architektur, bei der aus Sicht der CPU und GPU ein gemeinsam adressierbarer Speicherbereich vorliegt, aber in Wirklichkeit 2 unterschiedliche Speicherbreiche vorliegen, um die Gesamtbandbreite zu erhöhen und die Kosten zu reduzieren (DDR3 für CPU +GDDR5 für GPU). Dann kommt man wahrscheinlich mit weniger aus, mein Tipp:
eDRAM: 32 MB in der GPU + 32 MB in den CPU
DDR3: 1 GB
GDDR5: 1GB
OK, ist auch Wunschdenken

Zuletzt bearbeitet: