PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Zuletzt bearbeitet:
Wenig also?
Die HD 7970 hat nur 2 Compute Only Pipes mit jeweils einem Queues.
Liverpool hat 8 (10 ingesamt) Compute Only Pipes mit jeweils 8 Queues sowie 2 GFX Ringen und Pipelines.

:awesome:

http://www.vgleaks.com/orbis-gpu-compute-queues-and-pipelines/

P.S: Oder war der Witz physikalischer Natur? :v:
Das "wenig für soetwas" bezog sich auf richtige physics erweiterungskarten oder auch die 2688 cores bei der Titan. Bei der Titan kann man mit den freien Tflops gegenüber der PS4 eh konstant Physik sachen berechnen. ;) Es war aber nicht ganz ernst gemeint da es ein bischen äpfel und birnen sind deshalb der smiley.
Gewöhnlich braucht man für Physik sachen halt ein bischen mehr damit sich da viel tut.
 
Das "wenig für soetwas" bezog sich auf richtige physics erweiterungskarten oder auch die 2688 cores bei der Titan. Bei der Titan kann man mit den freien Tflops gegenüber der PS4 eh konstant Physik sachen berechnen. ;) Es war aber nicht ganz ernst gemeint da es ein bischen äpfel und birnen sind deshalb der smiley.
Gewöhnlich braucht man für Physik sachen halt ein bischen mehr damit sich da viel tut.
Die Compute-Workloads sind extra Sachen der ACEs um den Durchsatz beim Computing zu erhöhen.
Der Titan bietet mit HyperQ ein ganz ähnliches Feature an.
Hier geht es doch gar nicht um die ALUs, sondern um einen verbesserten Durchsatz und weniger Konflikte.
Die PS4 GPU kann ja ebenfalls mit ihren "freien" ALUs, 1152 Stück hat sie ja davon, konstant Computing betreiben, bloß mit den ACEs wird es keine Warteschlangen geben und der Durchsatz bei den Berechnungen steigt um mindestens Faktor 2.
Die PS4 ist da ohne viel Murren klar im Vorteil, gegenüber einem klassischem PC, selbst wenn die PC-GPU so etwas hat, ist es bisher nutzlos, da es keinen gemeinsamen Standard für so ein Feature gibt und keine API für das ansprechen und programmieren.
DX hat es nicht und bräuchte ein Update. OpenCL braucht auch ein Update, aber extra Sachen schreibt man ja nicht für einen GPU IHV als PC-Dev.

Aber eine Titan mit der PS4 GPU zu vergleichen, dass hat schon bisschen was von Äpfeln und Birnen.
Für den DurchschnittsPC hat der Titan gar keinen Stellenwert und für die Marktbedeutung deswegen ebenfalls nicht.
 
Das "wenig für soetwas" bezog sich auf richtige physics erweiterungskarten oder auch die 2688 cores bei der Titan. Bei der Titan kann man mit den freien Tflops gegenüber der PS4 eh konstant Physik sachen berechnen. ;) Es war aber nicht ganz ernst gemeint da es ein bischen äpfel und birnen sind deshalb der smiley.
Gewöhnlich braucht man für Physik sachen halt ein bischen mehr damit sich da viel tut.

Die HD 8970 wird als einzige GCN2 GPU die exakt identische GPGPU Austattung (10 Compute Only Pipes) der PS4 haben. Natürlich mit deutlich mehr Rohpower. Aber die PS4 wird immernoch den HSA Vortei für sich beanspruchen. Aber ob das noch irgendeinen sichtbaren Vorteil verschaffen wird, wird sich noch zeigen.
 
Die HD 8970 wird als einzige GCN2 GPU die exakt identische GPGPU Austattung (10 Compute Only Pipes) der PS4 haben. Natürlich mit deutlich mehr Rohpower. Aber die PS4 wird immernoch den HSA Vortei für sich beanspruchen. Aber ob das noch irgendeinen sichtbaren Vorteil verschaffen wird, wird sich noch zeigen.
Es sind 8 ACEs, dass was als Compute-Pipeline bezeichnet wird.
Es ist ein GFX-Commander (GFX-Ring/Pipeline) für Games und einer für das System, welcher eine höhere Priorität genießt.

Man weiß ja auch gar nicht, wer welches Feature in der GCN2-Serie haben wird.
Ist die 7790 wirklich schon GCN2? Denn dann hat sich kaum etwas verändert.
Hat dann die 88xx-Series dann vielleicht wieder 8 ACEs? Oder sind es 4?
Wer weiß schon, was AMD verbauen wird und wie gesagt, ohne Standards bringt das dem PC-Gamer Zero.
Gerade wegen solchen Sachen ist es schön, dass GCN in einer Konsole gelandet ist.
Die GPU hat tolle Features und Möglichkeiten, die am PC (bisher) nicht nutzbar sind.
 
Zuletzt bearbeitet:
Die Compute-Workloads sind extra Sachen der ACEs um den Durchsatz beim Computing zu erhöhen.
Der Titan bietet mit HyperQ ein ganz ähnliches Feature an.
Hier geht es doch gar nicht um die ALUs, sondern um einen verbesserten Durchsatz und weniger Konflikte.
Die PS4 GPU kann ja ebenfalls mit ihren "freien" ALUs, 1152 Stück hat sie ja davon, konstant Computing betreiben, bloß mit den ACEs wird es keine Warteschlangen geben und der Durchsatz bei den Berechnungen steigt um mindestens Faktor 2.
Die PS4 ist da ohne viel Murren klar im Vorteil, gegenüber einem klassischem PC, selbst wenn die PC-GPU so etwas hat, ist es bisher nutzlos, da es keinen gemeinsamen Standard für so ein Feature gibt und keine API für das ansprechen und programmieren.
DX hat es nicht und bräuchte ein Update. OpenCL braucht auch ein Update, aber extra Sachen schreibt man ja nicht für einen GPU IHV als PC-Dev.

Aber eine Titan mit der PS4 GPU zu vergleichen, dass hat schon bisschen was von Äpfeln und Birnen.
Für den DurchschnittsPC hat der Titan gar keinen Stellenwert und für die Marktbedeutung deswegen ebenfalls nicht.
Ach so, die enthalten nicht mal Recheneinheiten? Dachte als pipeline würde die auch sachen bearbeiten und nicht nur sortieren. Na dann. ;)
In den Tflops müßte das dann ja schon drin sein oder denkt jemand ernsthaft Sony/Amd hätten Zahlen veröffentlicht von unoptimiertem code?

Die Titan nehme ich nur weil schon ziemlich viele sonyfans die ich gesehen habe behauptet haben das PS4 equivalent würde man auf dem PC bestenfalls mit der Titan bekommen. (meistens mit bezug auf die 8 gb GDDR5)
Dementsprechend vergleiche ich sie nicht ganz ernst gemeint mit der PS4 da es viele scheinbar so vorziehen. :ugly:

Die HD 8970 wird als einzige GCN2 GPU die exakt identische GPGPU Austattung (10 Compute Only Pipes) der PS4 haben. Natürlich mit deutlich mehr Rohpower. Aber die PS4 wird immernoch den HSA Vortei für sich beanspruchen. Aber ob das noch irgendeinen sichtbaren Vorteil verschaffen wird, wird sich noch zeigen.
Ja und die HD 8970 ist mindestens 25x schneller bei optimierten physic sachen, oder? ;)
 
Zuletzt bearbeitet:
Ach so, die enthalten nicht mal Recheneinheiten? Dachte als pipeline würde die auch sachen bearbeiten und nicht nur sortieren. Na dann. ;)
In den Tflops müßte das dann ja schon drin sein oder denkt jemand ernsthaft Sony/Amd hätten Zahlen veröffentlicht von unoptimiertem code?
Nein, dass sind keine Recheneinheiten, dass erhöht die Parallelität bei den Compute-Prozessabläufen.
http://www.hardwareluxx.de/index.ph...t-hinter-hyper-q-und-dynamic-parallelism.html

Ich weiß nicht wie das genau bei Nvidia aussieht, die haben da glaube ich so einen Giga-Thread-Engine die an die Rechenkerne die Arbeitsbündel übermittelt.
Das passiert bisher seriell, mit HyperQ und mit ACEs von AMD ist es möglich mehrere Arbeitsbündel gleichzeitig abzusetzen und nicht erst nacheinander.
Bei AMD ist der Command-Processor, soweit ich verstanden habe, universell für jeden Workload einsetzbar, die ACEs sind nur für die Compute-Shader zuständig, dass hat natürlich Vorteile, wenn es mehrere "Manager" und keine Konflikte bei der Arbeitsverteilung gibt.

Nvidia nennt hier mal paar Ergebnisse:
http://www.heise.de/newsticker/meldung/Tesla-K20-Mit-Hyper-Q-um-Faktor-2-5-schneller-1674734.html

Das hilft ganz schön beim Computing.
Dazu kommt dann noch der gemeinsame Adressraum, dann die latenzarme Kommunikation, der schöne FCL als direktes Verbindungsstück zwischen GPU und CPU usw.
Ich denke es sollte klar sein, wieso einige von uns da gewisse Hoffnungen dabei haben, denn das Potential ist deutlich größer als auf einem PC.

Andererseits muss man bei MP-Titeln auch die Xbox und den PC berücksichtigen, weswegen es schon sein könnte, dass die ganzen Vorteile wieder einmal "nur" bei der First-Party zu finden sein wird.
 
Nein, dass sind keine Recheneinheiten, dass erhöht die Parallelität bei den Compute-Prozessabläufen.
http://www.hardwareluxx.de/index.ph...t-hinter-hyper-q-und-dynamic-parallelism.html

Ich weiß nicht wie das genau bei Nvidia aussieht, die haben da glaube ich so einen Giga-Thread-Engine die an die Rechenkerne die Arbeitsbündel übermittelt.
Das passiert bisher seriell, mit HyperQ und mit ACEs von AMD ist es möglich mehrere Arbeitsbündel gleichzeitig abzusetzen und nicht erst nacheinander.
Bei AMD ist der Command-Processor, soweit ich verstanden habe, universell für jeden Workload einsetzbar, die ACEs sind nur für die Compute-Shader zuständig, dass hat natürlich Vorteile, wenn es mehrere "Manager" und keine Konflikte bei der Arbeitsverteilung gibt.

Nvidia nennt hier mal paar Ergebnisse:
http://www.heise.de/newsticker/meldung/Tesla-K20-Mit-Hyper-Q-um-Faktor-2-5-schneller-1674734.html

Das hilft ganz schön beim Computing.
Dazu kommt dann noch der gemeinsame Adressraum, dann die latenzarme Kommunikation, der schöne FCL als direktes Verbindungsstück zwischen GPU und CPU usw.
Ich denke es sollte klar sein, wieso einige von uns da gewisse Hoffnungen dabei haben, denn das Potential ist deutlich größer als auf einem PC.

Andererseits muss man bei MP-Titeln auch die Xbox und den PC berücksichtigen, weswegen es schon sein könnte, dass die ganzen Vorteile wieder einmal "nur" bei der First-Party zu finden sein wird.
Hat mich eh ein wenig verwundert das dies nicht automatisch laufen sollte:

Nvidia betont, dass man den Simulationscode nicht extra für Hyper-Q anpassen müsse. Erforderlich sei lediglich die Installation des CUDA-5-Frameworks und eine Tesla K20 mit GK110-GPU.

Das läuft automatisch wenn es mit aktuellem framework kompiliert wird. Und wo soll da jetzt die große Hoffnung bei der PS4 sein? Das heißt ja definitiv das die <2 TFlops mit den 8 pipelines sind. Also mehr wird es deswegen auch nicht werden. :nix:
 
Nvidia hat das ja auch echt "schick" mit ihrem CUDA realisiert und ebenso ist denke ich auch eine direkte Programmierung möglich.
Die Frage ist allerdings, ob das bei Games bei Nvidia auch automatisch abläuft oder nur bei bestimmten Abläufen?
Ich weiß nichts über die Internas, wie sehr das von der GPU, der CPU oder der Treiber abhängt.
Ich weiß leider nur, dass die ACEs nicht vollautomatisch funktionieren.
Schön wäre es natürlich, aber keine Ahnung, ob man das überhaupt so leicht realisieren könnte.

Da die 8 ACEs nicht berechnen, ist auch klar das die theoretische Rechenleistung nicht steigt, aber spürbar die nutzbare Rechenleistung.
Erkläre mir mal genau den "praktischen" Unterschied, ob eine Berechnung jetzt 4 mal schneller abläuft oder ob ich 4 mal mehr Einheiten verbaue.
Das Endergebnis wäre in dem Sinne das gleiche, bloß das zweite wäre sehr schick auf dem Papier.

Ich halte mich zurück mit den Vergleichen bei PC-GPUs, aber was ist wenn die Titan von ihren 4TFs am Ende durchschnittlich nur 1.8-2.4 auf die Straße bringt und der Rest immer am Overhead und den fehlenden Möglichkeiten verreckt?
Die Sache ist natürlich sehr schwer zu bewerten, weil es gibt immer Spezialfälle, wo die Konsolen den PC ordentlich abziehen können, wenn das am Endergebnis aber nur 10% ändert, juckt das wie gesagt niemanden.
John Carmack und ein Dev aus dem 3DC meinten, die Leistung einer Konsole bei gleicher Hardware kann durchaus bei Faktor 2 liegen.
Wenn das so der Durchschnitt +/- ist, dann nehme ich den als Richtwert, womit ich die PS4 GPU eher in die Liga einer 79xx Series einordnen könnte. Nebenbei skaliert die 79xx auch schlecht bei der Rechenleistung, weil das Front-End und die Arbeitsverteilung nicht mehr so schön mitspielt, weswegen das praktische Endergebnis durchaus ähnlich aussehen könnte.
 
Ich halte mich zurück mit den Vergleichen bei PC-GPUs, aber was ist wenn die Titan von ihren 4TFs am Ende durchschnittlich nur 1.8-2.4 auf die Straße bringt und der Rest immer am Overhead und den fehlenden Möglichkeiten verreckt?
Die Sache ist natürlich sehr schwer zu bewerten, weil es gibt immer Spezialfälle, wo die Konsolen den PC ordentlich abziehen können, wenn das am Endergebnis aber nur 10% ändert, juckt das wie gesagt niemanden.
John Carmack und ein Dev aus dem 3DC meinten, die Leistung einer Konsole bei gleicher Hardware kann durchaus bei Faktor 2 liegen.
Wenn das so der Durchschnitt +/- ist, dann nehme ich den als Richtwert, womit ich die PS4 GPU eher in die Liga einer 79xx Series einordnen könnte. Nebenbei skaliert die 79xx auch schlecht bei der Rechenleistung, weil das Front-End und die Arbeitsverteilung nicht mehr so schön mitspielt, weswegen das praktische Endergebnis durchaus ähnlich aussehen könnte.
Naja, das sind jetzt halt alles vermutungen von irgendwelchen kommenden algorithmen, nvidia karten welchen 50% ihrer leistung irgendwo verblasen und PCIe welcher plötzlich der wichtigste bremsfaktor werden soll auf dem PC.
Also für mich schaut das halt noch alles ein bischen nach strohhalm greifen aus. Irgendwie will man halt doch das die nicht zu überragende PC hardware welche in die PS4 steckt gegen den pc etwas ausrichten kann auch wenn dieser kontinuierlich besser wird während die Konsole stillsteht.

Das mit dem 2 fachen unter extremen bedingungen mag schon sein. Aber soetwas sieht man definitiv nicht beim release und auch nicht ein zwei jahre danach. Bis die Entwickler soweit optimiert haben gibt es beim PC die x-fache leistung davon zum spottpreis.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom