Chaotisch? Denke eher nicht. Primär chaotisch ist die GDDR5 sache von amd aber da sie parallel fahren denke ich das es nur in mehr oder weniger fertigen Geräten chancen haben wird. (tablets, notebooks)
Beim PC müssen sie sich mit DDR4 messen und wenn GDDR5 nicht schneller und nicht billiger ist (ausser man will sparsam brauchbare grafik) sehe ich da keine chance.
Denke die APU bei Nvidia wird auch nur zur erweiterung der GPGPU fähgikeiten sein.
Ich meine damit, wie man versuchen wird Intel, Nvidia und AMD unter einen Hut zu bekommen?
AMD macht alleine bei HSA mit, Nvidia macht nur CUDA (mit hässlichen OpenCL Treibern), okay Intel macht mit bei OpenCL und vielleicht wird sich auch dort Nvidia verbessern müssen, aber die haben gerade ihre eigene Süppchen und Leistungen, womit es schwer ist durch eine API gleichwertige Features ansprechen zu können.
Mit was soll ich die Compute-Fähigkeiten eines Titans oder eines GCN abrufen?
DX, nein, OpgenGL bisher irgendwie so nein, OpenCL nein.
Irgendwann wird das sicher kommen müssen, aber was soll ich als PC-Spieler Dev dann damit?
Soll ich für jeden IHV und jede GPU eine eigene Erweiterung schreiben?
Computing ist beim PC-Markt eine Baustelle, die immens groß ist.
Dazu kommt dann eben HSA mit einem gemeinsamen Adressraum, was noch einmal sich stark vom klassischem System unterscheidet und immer mehr klassische Systeme ersetzen wird.
Dann kommt DDR4 als neuer Speicherstandard, irgendwann auch stacked-ram und der PC Markt wird eine technologisch "kotzige" Suppe, aus unterschiedlichen Compute-Fähigkeiten, Bandbreiten, Adressierungsmodellen und Techstufen.
Da muss es in Zukunft einen sauberen Standard geben und eine saubere Trennung, auf welche man sich als Dev beziehen und verlassen kann.
Die Computing-Fähigkeiten sollten aus Effizienzgründen auch lieber mit dabei sein oder vollautomatisch funktionieren.
Was auch nötig sein wird. Die GPGPU Fähigkeiten auf dem PC sind der PS4 um Welten unterlegen. Dabei meine ich sogar die starke HD 7970 und nicht den GPGPU "Krüppel" GTX 680/Kepler, der Dimensionen hinter der PS4 ist.
PS4 exklusive Spiele, die das massiv nutzen werden, wären somit auf dem PC nur eingeschränkt möglich. Wenn überhaupt.
Und nein, das kann "keine Rohleistung der Welt" ausgleichen.
Geht es rein um die GPU beim Computing, dann sind nicht die Fähigkeiten überlegen, sondern die Effizienz.
Mit Rohpower knüppelt man das auch halbwegs runter.
Aber es gibt ja überall Effizienzvorteile, da muss man schon hammerharte Rohleistung haben, um echt alles wegfegen zu können mit einem PC und manche Barrieren wird man mit einem klassischem System vielleicht auch gar nicht überwinden können.
Eine einfache Lösung wäre aber eine APU + dGPU.
Das müsste aber auch ein Selbstläufer sein, wo die iGPU als zusätzliches device gepinnt werden kann und low-latency Computing übernehmen kann.
Und hier kommt dann auch wieder das Chaos, was macht man mit alten Systemen?
Wie kann man Intels iGPU mit AMDs GCN iGPU einbinden?
Ich rede auch von der GTX 680 und Co. Nicht von 2016-17 1000€ Hardware. Oder glaubst du, dass Titan nur eine "Studie" war? Nvidia hat ihr gesamtes Portfolio (Im Preis) eine Stufe erhöht. Die alten Vollausbau-Chips werden nun wie die Titan für 1000€ verkauft werden. Die GTX x80/70 werden die 256 Bit Enthusiastkarten (Früher GTX x60 Mittelklasse). Und die GTX x60/x60GTI Karten werden die 192Bit Mittelklasse (Früher GTX x50/6x0SE untere Mittelklasse) und so weiter.
Deine tolle "Volta", die präsentiert wurde, wird soviel wie die Titan kosten. Während die PS4 dann für 249/299€ verkauft wird.
Der Titan ist teils eine Studie ja. Er wird auch bei den DP-Einheiten nicht beschnitten, ein Novum bei Nvidia.
Nvidia kann zwar den Preis anheben, aber nicht ins unermessliche.
Man muss schauen, wo der beste unternehmerische Punkt für den Verkaufspreis liegt.
Für 3.000€ kauft keiner eine GPU und das Volumen ist zu gering.
Monster-Preise sollte man nicht auf einmal erwarten, weswegen ich vorsichtig bezüglich Zukunftsaussagen wäre.
Vola ist "nur" eine Architektur und damit gilt das für die ganze GPU-Serie.
Da wird nicht jede Karte 1.000€ kosten.
Und die PS4 muss zu dem Zeitpunkt auch nicht unbedingt 249/299€ kosten.
Diese Nvidia Titan-Verschwörungstheorie finde ich auch irgendwie unglaubwürdig. Wenn das Ding wirklich als GTX 680 geplant gewesen wäre, warum liefert Nvidia die Karte nicht in Massenproduktion, sondern bringt sie nur limitiert raus? Kein Vertrauen in den 700-900 Euro hohen Preis oder haben sie etwa doch andere Gründe? Produktionsschwierigkeiten eventuell?
Wieviel Watt schluckt das Ding überhaupt, gibt es dazu schon daten? Als ob so eine Karte Serienreife gehabt hätte, als sie damals die GTX680 launchten...
Sie ist nicht limitiert, dass war anfangs nur ein Gerücht, welches nvidia dann dementiert hat.
Ein hoher Preis hat natürlich die Vorteile einer hohen Marge und einer geringeren Nachfrage, womit das Volumen sinkt und keine Lieferschwierigkeiten auftreten und wenn die Nachfrage im Server/HPC-Sektor hoch genug ist, hat man so eine nette Balance.
Die Yields sind vielleicht auch nicht für Nvidia optimal bei einem 550mm² Bomber.
Eventuell wartet man da noch eine Weile.
Serienreife hätte so eine Karte zum Launch niemals gehabt.
Solche Bombenvieher werden in der Zukunft auch immer später erscheinen, leider.
Das Ding ist überraschenderweise extrem effizient geworden, dass schluckt kaum mehr als eine normale 680.
http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/15/