Ja, aber zu welchem Preis? Und ich meine damit nicht den Preis der Karte sondern generell den Aufwand und die Produktionskosten. Ich fürchte das steht, auch wenn Nvidia gutes Geld mit der Karte machen wird, in keiner Relation zur GTX680.
Das Nvidia preislich den Arsch offen hat, sollte offensichtlich sein.
Der Aufwand ist sicherlich nicht gering, allerdings ist nun einmal deren Job und der HPC-Sektor winkt mit einem Sack voll Kohle.
![Smile :-) :-)](/styles/sanleiassets/cwsmilies/m-smile.gif)
Da sie das Grundlayout schon fertig hatten, geht es um die Erweiterung und vieles ist Gott sei Dank auch Copy&Paste bei GPUs.
Die Produktionskosten sollten mittlerweile nicht mehr so hoch sein. Die Waferpreise von 28nm sollten mittlerweile auch normale Dimensionen angenommen haben, 6-7K $.
Ungefähr soviel oder gar billiger, als ein 40nm Wafer zu Anfang.
Die Kostenexplosion einer neuen Fertigung ist immer anfangs extrem, bis sie sich zum Ende hin wieder normalisiert und fängt.
550mm² hat Nvidia ja nicht das erste mal benötigt.
Der Tesla und Fermi waren größer pro Chip.
Wie Locuza bereits sagte, habe ich die Effizienz gemeint. Habe ich aber nicht deutlich genug erläutert, wie ich zugeben muss.
Die PS4 hat bezüglich der GPGPU Funktion immense Vorteile, die den Abstand eben wirklich gigantisch machen. Meine Analogie mit Welten und Dimensionen habe ich ganz bewusst gewählt und nicht als Fanboy-Superlativ.
Hier wird deutlich, wo Sony und AMD die Zukunft sehen. Das ist schon allein deshalb auf dem PC nicht mögich, weil die CPU der PS4 direkt mit den 10 Pipelines ( 8 Compute only und 2 GFX/HP3D Ringen + Pipelines verbunden ist) der GPU verbunden ist.
HSA/SOC sei dank.
Um "Gigantisch" mal in grobe Zahlen zu fassen:
Nvidia gibt für ihr HyperQ ungefähr Performance-Boost von 2.5 an, dabei weiß ich nicht auf was sich das genau bezieht.
Gipsel meinte mal, dass man mit 2 ACEs Compute-Shader 4 mal so schnell abgesetzt werden, wie Pixel-Shader.
Jede ACE kann eigene Wavefronts starten, dass wären dann 8 Pro Takt bei GCN2, wenn man laienhaftes Verständnis dabei richtig liegt.
Ohne ACEs muss das denke ich immer der Command-Processor machen.
Also so eine ACE hilft stark bei parallelen Compute-Work-Units, also Aufgaben.
Das kann dann um mehrere Faktoren beschleunigt werden, es soll damit auch möglich sein, eine feste Anzahl an CUs für das Computing zu definieren.
Es kommen dann Pakete von den ACEs an die Compute-Shader und Pakete von GFX zu den Pixel-Shadern what ever Shadern. Das läuft alles getrennt und sauber ab, ohne ACEs muss glaube ich alles der Command-Processor dynamisch erledigen, womit sich ein gewisser Engpass bei der Arbeitsverteilung ergeben sollte.
Die Frage lautet natürlich, obwohl jetzt Compute-Aufgaben 2-8 mal schneller erledigt werden können, was ist wenn die PC-GPU doppelt so viele Recheneinheiten bietet und noch schneller ist?
Was ändert sich da am Gesamtergebnis?
Und da kann ich mir keine Antwort zusammen phantasieren, weil das auch abhängig von den Compute-Aufgaben des Spieles ist. Wenn das Spiel die Compute-Shader nur für wenige Aufgaben nutzt, dann wird man aus den Compute-Pipelines auch nicht wahnsinnig viel Vorteil schöpfen können, ebenso sind die CUs dann natürlich mit dem Computing beschäftigt und können nicht für das Rendering zuständig sein.
Ich denke die PS4 GPU wird keine PC-GPU völlig deklassieren, aber sie wird deutlich mehr im High-End Bereich rumholzen, als viele ihr zumuten würden, solange es wirklich zu Berechnungen kommt, die sehr gut auf die Vorteile der PS4 reagieren und skalieren.
Ich würde mich aber ebenfalls zurückhalten mit Messias Botschaften, der Erlöser ist die PS4 nun einmal auch nicht, dafür begrenzt immer noch die theoretische Rechenleistung und die ist mit 2 TF ist auch kein "gigantisches" Monster.
Am liebsten würde ich sagen, pls hold your orgasm. :v:
Dazu kommen dann natürlich noch die HSA-Vorteile die das alles noch einmal leichter und effizienter machen.
We will see, wie das in 2 Jahren aussehen wird.