PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Alles in allem etwas ernüchternde Benchmarks da, der Stromverbrauch, sprich effizienz, ist aber tatsächlich recht gut. Man merkt aber wie wenig Luft nach oben langsam vorhanden ist. Man kann nicht mehr endlos nach unten shrinken, die Titan ist extrem massig, und das für 20-30% mehr Leistung der GTX680...
Es sind schon 30% als Minimum und je höher die Anforderungen, desto besser setzt er sich auch ab.
Business as usual.
Dazu gibt es die Möglichkeit den Power-Target anzuheben +5-10% oben drauf.

Wenn man sich die Effizienz anschaut, dann ist das echt gut für das was er leistet.
10% mehr Stromverbrauch für 30% mehr Geschwindigkeit.
Ich glaube es ist schon lange her, wo es mehr Perf/Watt im höherem Segment gab.
Geht man zu lasten der Perf/Watt um ein ähnliches Verhältnis wie bei der 680 zu erreichen, dann sind auch 40% Performance und mehr dabei.
 
Ich meine damit, wie man versuchen wird Intel, Nvidia und AMD unter einen Hut zu bekommen?
AMD macht alleine bei HSA mit, Nvidia macht nur CUDA (mit hässlichen OpenCL Treibern), okay Intel macht mit bei OpenCL und vielleicht wird sich auch dort Nvidia verbessern müssen, aber die haben gerade ihre eigene Süppchen und Leistungen, womit es schwer ist durch eine API gleichwertige Features ansprechen zu können.
Mit was soll ich die Compute-Fähigkeiten eines Titans oder eines GCN abrufen?
DX, nein, OpgenGL bisher irgendwie so nein, OpenCL nein.
Irgendwann wird das sicher kommen müssen, aber was soll ich als PC-Spieler Dev dann damit?
Soll ich für jeden IHV und jede GPU eine eigene Erweiterung schreiben?

Computing ist beim PC-Markt eine Baustelle, die immens groß ist.
Dazu kommt dann eben HSA mit einem gemeinsamen Adressraum, was noch einmal sich stark vom klassischem System unterscheidet und immer mehr klassische Systeme ersetzen wird.
Dann kommt DDR4 als neuer Speicherstandard, irgendwann auch stacked-ram und der PC Markt wird eine technologisch "kotzige" Suppe, aus unterschiedlichen Compute-Fähigkeiten, Bandbreiten, Adressierungsmodellen und Techstufen.
Da muss es in Zukunft einen sauberen Standard geben und eine saubere Trennung, auf welche man sich als Dev beziehen und verlassen kann.
Die Computing-Fähigkeiten sollten aus Effizienzgründen auch lieber mit dabei sein oder vollautomatisch funktionieren.
Achso, ja jeder will halt seine eigene gpu cpu kombi. :lol:
Ich habe CUDA jetzt nicht mehr so verfolgt aber früher hat nvidia selbst noch gesagt das sie auf lange sicht von CUDA weg gehen wollen und eher zu OpenCL hin müssen.
Wiso sollen die devs nicht über Directx und opencl darauf zugreifen wenn das alle grafikarten können?

Was für einen Unterschied macht stacked ram? Bei Nvidia ist es ja nur der ram welcher sonst eh da ist kommt näher an den chip. Da sollte niemand etwas merken ausser das es schneller wird und laut nvidia aussagen bei weitem mehr speicher sein wird wie heute. Für 4k wird es irgend so eine Technik benötigen welche massenweise textur ram hat und extrem schnell ist.
 
Achso, ja jeder will halt seine eigene gpu cpu kombi. :lol:
Ich habe CUDA jetzt nicht mehr so verfolgt aber früher hat nvidia selbst noch gesagt das sie auf lange sicht von CUDA weg gehen wollen und eher zu OpenCL hin müssen.
Wiso sollen die devs nicht über Directx und opencl darauf zugreifen wenn das alle grafikarten können?

Was für einen Unterschied macht stacked ram? Bei Nvidia ist es ja nur der ram welcher sonst eh da ist kommt näher an den chip. Da sollte niemand etwas merken ausser das es schneller wird und laut nvidia aussagen bei weitem mehr speicher sein wird wie heute. Für 4k wird es irgend so eine Technik benötigen welche massenweise textur ram hat und extrem schnell ist.
Nvidia wollte nie weg von CUDA, dass ist das gleiche als ob man sagen würde, Nvidia will weg von PhysX und sich dem offenen Havok anschließen.
CUDA ist ihre Entwicklungsumgebung und die Schnittstelle für all die Programme.
Mit CUDA macht Nvidia alle Kunden indirekt abhängig, ein Wechsel zu der Konkurrenz ist mit vielen Unannehmlichkeiten verbunden.
Setzt man auf OpenCL hat der Kunde beinahe stets die Wahl zwischen N und AMD, klar das Nvidia da nicht gerne mitmacht.
Nvidia scheißt, auf gut Deutsch gesagt, auf OpenCL.
Sie unterstützen nicht einmal die neueste OpenCL Version, weil es so eine geringe Priorität hat.
Die versuchen lieber CUDA zu pushen.

Bisher können die Devs durch keine API auf die ACEs von GCN zugreifen, bei Nvidia geht das nur durch CUDA.
Nvidia hat auch keine ACEs, sondern das Feature HyperQ welches ähnliche Funktionalitäten bereitstellt.
Jetzt brauchst du als Dev einen sicheren Standard.
Also müsste die API eine Funktionalität voraussetzen, welche AMD und Nvidia unterstützen, egal wie sie das machen, aber es kommt darauf an, dass der Dev keine extra Programmabläufe für den jeweiligen IHV schreiben muss (Ist bei DX sowieso nicht erlaubt, aber bei OGL).
Genau das hier ist eine Baustelle, einen gemeinsamen Standard zu formulieren.
Das erweitert alles die Komplexität, ebenfalls würde man gerne so wenig APIs, Schnittstellen etc. mischen.
Es wäre schön, wenn DX diese Aufgabe übernehmen könnte.
Wenn jetzt aber ein gemeinsamer DX-Standard beschlossen wird, dann erst in einer gewissen Zeit, dann müssen GPUs kommen, sich durchsetzen und eben die übliche Geschichte.
Es wird Jahre dauern bis man als PC-User Nutzen von all dem hat.

Stacked-Ram macht halt einen großen Unterschied bei der Bandbreite und der Latenz aus und fragmentiert zusätzlich.
Da gibt es Systeme mit klassischem DDR aus Kostengründen, da mit extremer Brandbreite, hier HSA APU, dort nur CPU, hier GDDR5 in der unteren Klasse, dort HMC.
Es könnten sich einfach große Schluchten bei der Performance-Charakteristika auftun.
Was wird sich da als "Mainstream" herauskristallisieren?
Ich befürchte halt bei diesem ganzem Übergang einen großen Matsch aus Technologie-Stufen.
Stacked-Ram ist nämlich technisch wirklich eine kleine Revolution, HSA ist das auch, SoCs generell und daneben noch klassische Systeme.
Die Sachen sind alle cool, aber solange es nicht sauber vollzogen wird und es einen klaren Standard gibt und sich das ganze auch in der Realität durchzusetzen vermag, solange bin ich echt skeptisch gegenüber den Vorgängen am PC-Markt.
Schon jetzt darf ich doch bisschen darum trauern, dass bei GCN die ACEs nutzlos im Chip implantiert sind.
 
Zuletzt bearbeitet:
Es sind schon 30% als Minimum und je höher die Anforderungen, desto besser setzt er sich auch ab.
Business as usual.
Dazu gibt es die Möglichkeit den Power-Target anzuheben +5-10% oben drauf.

Wenn man sich die Effizienz anschaut, dann ist das echt gut für das was er leistet.
10% mehr Stromverbrauch für 30% mehr Geschwindigkeit.
Ich glaube es ist schon lange her, wo es mehr Perf/Watt im höherem Segment gab.
Geht man zu lasten der Perf/Watt um ein ähnliches Verhältnis wie bei der 680 zu erreichen, dann sind auch 40% Performance und mehr dabei.

Ja, aber zu welchem Preis? Und ich meine damit nicht den Preis der Karte sondern generell den Aufwand und die Produktionskosten. Ich fürchte das steht, auch wenn Nvidia gutes Geld mit der Karte machen wird, in keiner Relation zur GTX680.
 
Dan zeig mir irgendein stichhaltigen Beweis/Hinweis darauf wie hoch die GPGPU fähigkeit der PS4 sein wird. Du hast behauptet pc's seien um welten unterlegen. Die einzigen Daten welche wir diesbezüglich haben sind die Tflops und die sind bescheiden. Das unified wirkt sich nur dort wirklich aus wo Berechnungen extrem ineffizient sind auf einem Typ, jedoch teile davon gleichzeitig viel effizienter sind. Das dies auftritt und ausreichend ist um den weg über den Ram zu gehen ist selten. Die Rohleistung kann sich dadurch aber auch nicht magisch erhöhen.

Wie Locuza bereits sagte, habe ich die Effizienz gemeint. Habe ich aber nicht deutlich genug erläutert, wie ich zugeben muss.
Die PS4 hat bezüglich der GPGPU Funktion immense Vorteile, die den Abstand eben wirklich gigantisch machen. Meine Analogie mit Welten und Dimensionen habe ich ganz bewusst gewählt und nicht als Fanboy-Superlativ.

http://www.vgleaks.com/orbis-gpu-compute-queues-and-pipelines/

Hier wird deutlich, wo Sony und AMD die Zukunft sehen. Das ist schon allein deshalb auf dem PC nicht mögich, weil die CPU der PS4 direkt mit den 10 Pipelines ( 8 Compute only und 2 GFX/HP3D Ringen + Pipelines verbunden ist) der GPU verbunden ist.
HSA/SOC sei dank.

gpu_queues.jpg
 
Zuletzt bearbeitet:
Zum PC/Konsolenvergleich möchte ich noch kurz erinnern, dass das N64 zum Launch technisch jedem PC meilenweit hinterherhinkte und dennoch sah ein Turok auf dem Gerät nicht schlechter aus als am PC und erschien ein Jahr früher...

Es werden sich noch einige die Finger verbrennen, die glauben, die PS4(oder xbox3) wäre ein zusammengebauter PC :)
 
Zum PC/Konsolenvergleich möchte ich noch kurz erinnern, dass das N64 zum Launch technisch jedem PC meilenweit hinterherhinkte und dennoch sah ein Turok auf dem Gerät nicht schlechter aus als am PC und erschien ein Jahr früher...

Es werden sich noch einige die Finger verbrennen, die glauben, die PS4(oder xbox3) wäre ein zusammengebauter PC :)
LOL ich habe Turok auf PC UND N64 Original und die PC Version sah selbstverständlich um Welten schärfer aus! Und Turok 2 erst recht!
Turok 2 hatte damals auf dem PC sogar schon einen Onlinemodus, und zwar einen richtig genialen für die damalige Zeit!
 
Zuletzt bearbeitet:
der Nebel in Turok auf dem N64 (habe nur die Versiong espielt) war auch episch :awesome:

abgesehen davon soll laut diversen Entwicklern (Crytek) die PS4 einen Gamer PC ja nicht wirklich überlegen sein (anders als zu N64 Zeiten)
 
der Nebel in Turok auf dem N64 (habe nur die Versiong espielt) war auch episch :awesome:

abgesehen davon soll laut diversen Entwicklern (Crytek) die PS4 einen Gamer PC ja nicht wirklich überlegen sein (anders als zu N64 Zeiten)

Das sagt das Unternehmen, dass im Konsolensektor nie Fuss fassen konnte und sich wohl komplett aus diesem verabschieden wird. :awesome:
Bezüglich Rohpower hat er natürlich Recht. Aber wie "effizient" diese auf dem PC genutzt wird, sollte auch dem letzten User hier bekannt sein.
 
Das sagt das Unternehmen, dass im Konsolensektor nie Fuss fassen konnte und sich wohl komplett aus diesem verabschieden wird. :awesome:
Bezüglich Rohpower hat er natürlich Recht. Aber wie "effizient" diese auf dem PC genutzt wird, sollte auch dem letzten User hier bekannt sein.

Diese Konsolengen war ja so toll optimiert mit ihrem Sub HD, tearing und 15-30 FPS.
Zur Erinnerung SNES Spiele hatten fast allesamt konstante 50FPS (!) (PAL) und das ohne tearing.
 
Zuletzt bearbeitet:
Das sagt das Unternehmen, dass im Konsolensektor nie Fuss fassen konnte und sich wohl komplett aus diesem verabschieden wird. :awesome:
das sagt ein Unternehmen, welches die grafisch schönsten Spiele entwickelt hat. Und ich neige eher den Fachmännern zu glauben als irgendwelchen deutschen Forenuser von Nebenan oder irgendwelchen Sony Lobeshymnen zwecks Kundenfang.


übrigens ein interessanter Punkt, den du da ansprichst: wieviele 3rd Party Entwickler gibt es denn, die die finanziellen Möglichkeiten haben, Spiele mit dem Grafikniveau eines Crysis/BF3 zu entwickeln? Auch ein Grund, warum nicht jedes Konsolenspiel so aussehen wird wie die von Sony gezeigten Titel :ugly:
Bezüglich Rohpower hat er natürlich Recht. Aber wie "effizient" diese auf dem PC genutzt wird, sollte auch dem letzten User hier bekannt sein.

und wer sagt, dass die Entwickler die PS4 wirklich ausreizen können? Bei den wenigen Exklusivtiteln vermutlich zum Teil (aber wir sehen ja, wie sehr die PS3 ausgereizt wurde, das sind auch heute noch keine 100% und trotzdem müssen Entwickler in Spielen wie Uncharted tricksen, bei der Xbox genauso), aber bei dem Großteil der Spiele, den Multititeln garantiert nicht.
 
Zuletzt bearbeitet:
Eine PS4 wird zB. kaum mehr kosten und benötigt die nächsten 7 Jahre kein Upgrade :nix:

Genau das ist das Problem. Spätestens 2-3 Jahre nach dem Release der PS4 bremsen die dann aktuellen Konsolen (PS4 & X3) den PC wieder so massiv aus wie diese Generation.

Auch wenn sich die Grafik leicht verbessert, die Generation über ist das deutlich weniger als was am PC möglich wäre.
 
Ja, aber zu welchem Preis? Und ich meine damit nicht den Preis der Karte sondern generell den Aufwand und die Produktionskosten. Ich fürchte das steht, auch wenn Nvidia gutes Geld mit der Karte machen wird, in keiner Relation zur GTX680.
Das Nvidia preislich den Arsch offen hat, sollte offensichtlich sein. :awesome:

Der Aufwand ist sicherlich nicht gering, allerdings ist nun einmal deren Job und der HPC-Sektor winkt mit einem Sack voll Kohle. :-)
Da sie das Grundlayout schon fertig hatten, geht es um die Erweiterung und vieles ist Gott sei Dank auch Copy&Paste bei GPUs.
Die Produktionskosten sollten mittlerweile nicht mehr so hoch sein. Die Waferpreise von 28nm sollten mittlerweile auch normale Dimensionen angenommen haben, 6-7K $.
Ungefähr soviel oder gar billiger, als ein 40nm Wafer zu Anfang.
Die Kostenexplosion einer neuen Fertigung ist immer anfangs extrem, bis sie sich zum Ende hin wieder normalisiert und fängt.
550mm² hat Nvidia ja nicht das erste mal benötigt.
Der Tesla und Fermi waren größer pro Chip.

Wie Locuza bereits sagte, habe ich die Effizienz gemeint. Habe ich aber nicht deutlich genug erläutert, wie ich zugeben muss.
Die PS4 hat bezüglich der GPGPU Funktion immense Vorteile, die den Abstand eben wirklich gigantisch machen. Meine Analogie mit Welten und Dimensionen habe ich ganz bewusst gewählt und nicht als Fanboy-Superlativ.

Hier wird deutlich, wo Sony und AMD die Zukunft sehen. Das ist schon allein deshalb auf dem PC nicht mögich, weil die CPU der PS4 direkt mit den 10 Pipelines ( 8 Compute only und 2 GFX/HP3D Ringen + Pipelines verbunden ist) der GPU verbunden ist.
HSA/SOC sei dank.
Um "Gigantisch" mal in grobe Zahlen zu fassen:
Nvidia gibt für ihr HyperQ ungefähr Performance-Boost von 2.5 an, dabei weiß ich nicht auf was sich das genau bezieht.
Gipsel meinte mal, dass man mit 2 ACEs Compute-Shader 4 mal so schnell abgesetzt werden, wie Pixel-Shader.
Jede ACE kann eigene Wavefronts starten, dass wären dann 8 Pro Takt bei GCN2, wenn man laienhaftes Verständnis dabei richtig liegt.
Ohne ACEs muss das denke ich immer der Command-Processor machen.
Also so eine ACE hilft stark bei parallelen Compute-Work-Units, also Aufgaben.
Das kann dann um mehrere Faktoren beschleunigt werden, es soll damit auch möglich sein, eine feste Anzahl an CUs für das Computing zu definieren.
Es kommen dann Pakete von den ACEs an die Compute-Shader und Pakete von GFX zu den Pixel-Shadern what ever Shadern. Das läuft alles getrennt und sauber ab, ohne ACEs muss glaube ich alles der Command-Processor dynamisch erledigen, womit sich ein gewisser Engpass bei der Arbeitsverteilung ergeben sollte.
Die Frage lautet natürlich, obwohl jetzt Compute-Aufgaben 2-8 mal schneller erledigt werden können, was ist wenn die PC-GPU doppelt so viele Recheneinheiten bietet und noch schneller ist?
Was ändert sich da am Gesamtergebnis?

Und da kann ich mir keine Antwort zusammen phantasieren, weil das auch abhängig von den Compute-Aufgaben des Spieles ist. Wenn das Spiel die Compute-Shader nur für wenige Aufgaben nutzt, dann wird man aus den Compute-Pipelines auch nicht wahnsinnig viel Vorteil schöpfen können, ebenso sind die CUs dann natürlich mit dem Computing beschäftigt und können nicht für das Rendering zuständig sein.
Ich denke die PS4 GPU wird keine PC-GPU völlig deklassieren, aber sie wird deutlich mehr im High-End Bereich rumholzen, als viele ihr zumuten würden, solange es wirklich zu Berechnungen kommt, die sehr gut auf die Vorteile der PS4 reagieren und skalieren.
Ich würde mich aber ebenfalls zurückhalten mit Messias Botschaften, der Erlöser ist die PS4 nun einmal auch nicht, dafür begrenzt immer noch die theoretische Rechenleistung und die ist mit 2 TF ist auch kein "gigantisches" Monster.

Am liebsten würde ich sagen, pls hold your orgasm. :v:

Dazu kommen dann natürlich noch die HSA-Vorteile die das alles noch einmal leichter und effizienter machen.
We will see, wie das in 2 Jahren aussehen wird.
 
Zuletzt bearbeitet:
Nvidia wollte nie weg von CUDA, dass ist das gleiche als ob man sagen würde, Nvidia will weg von PhysX und sich dem offenen Havok anschließen.
CUDA ist ihre Entwicklungsumgebung und die Schnittstelle für all die Programme.
Mit CUDA macht Nvidia alle Kunden indirekt abhängig, ein Wechsel zu der Konkurrenz ist mit vielen Unannehmlichkeiten verbunden.
Setzt man auf OpenCL hat der Kunde beinahe stets die Wahl zwischen N und AMD, klar das Nvidia da nicht gerne mitmacht.
Nvidia scheißt, auf gut Deutsch gesagt, auf OpenCL.
Sie unterstützen nicht einmal die neueste OpenCL Version, weil es so eine geringe Priorität hat.
Die versuchen lieber CUDA zu pushen.

Stacked-Ram macht halt einen großen Unterschied bei der Bandbreite und der Latenz aus und fragmentiert zusätzlich.
Da gibt es Systeme mit klassischem DDR aus Kostengründen, da mit extremer Brandbreite, hier HSA APU, dort nur CPU, hier GDDR5 in der unteren Klasse, dort HMC.
Es könnten sich einfach große Schluchten bei der Performance-Charakteristika auftun.
Was wird sich da als "Mainstream" herauskristallisieren?
Ich befürchte halt bei diesem ganzem Übergang einen großen Matsch aus Technologie-Stufen.
Stacked-Ram ist nämlich technisch wirklich eine kleine Revolution, HSA ist das auch, SoCs generell und daneben noch klassische Systeme.
Die Sachen sind alle cool, aber solange es nicht sauber vollzogen wird und es einen klaren Standard gibt und sich das ganze auch in der Realität durchzusetzen vermag, solange bin ich echt skeptisch gegenüber den Vorgängen am PC-Markt.
Schon jetzt darf ich doch bisschen darum trauern, dass bei GCN die ACEs nutzlos im Chip implantiert sind.
Früher habe ich ein wenig Cuda angeschaut und da stand noch in den offiziellen dokumenten das opencl die zukunft sei auf die nvidia in langer sicht umschwenken würde. Aber das war noch als cuda jung war. Wie gesagt habe es seitdem nicht mehr wirklich verfolgt und wenn es im HPC Bereich inzwischen einen festeren Stand hat werden sie sicherlich weiter daran festhalten.

Verstehe trotzdem nicht wiso stacked ram da fragmentieren soll. Ist so ähnlich wie wenn man sagt ssd's fragmentieren. GDDR5 als ram wird nicht so einen Einschlag haben wie ihr denkt. Dazu ist der weg zum ram einfach noch zu weit. Nach meiner Meinung wird das viel stärker in geteilte berechnung von problemen (cpu+gpu) gehen wie das ein problem von der gpu teilweise bearbeitet wird, wieder in den ram transferiert und dann von der cpu weiter bearbeitet wird. Die Laufzeiten wären da einfach sehr groß was es für vieles unpraktisch macht (bei Spielen). Soetwas würde sich in den meisten fällen einfach nicht rentieren da die Gpu das leicht zehn mal komplett berechnet hat in der Zeit welche es für den transfer zur Cpu braucht.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom