PC vs. Konsole

Status
Nicht offen für weitere Antworten.
http://www.playstationlifestyle.net...y-global-illumination-instant-radiosity-more/

GPGPU – In Gaming:

The true impact this will have on games will depend on the chips themselves, but GPU consultants and researchers Nullpointer explained the benefits of a GPGPU in a slideshow.

“High processing power of the GPUs, the GPUs are very powerful and games, as real time applications, need its power to add performance.” It could also avoid a bottleneck of CPU to GPU transfer time, as well as leading to better AI and game physics.

AMD explained the current usage of GPGPUs in a presentation at their Fusion 12 Developer Summit this summer – the GPGPUs all focus on visual aspects like particles, fluid simulation and destruction. But it has limitations for non-graphics processing with buffers, delays and constrained programming models. The future, however, is bright. Heterogeneous Systems Architecture is the latest take on GPGPUs , which AMD thinks will drastically decrease latency.

“With HSA you can simulate physics on the GPU and get the results back in the same frame.
More objects, higher fidelity.”
Load times could also be minimized significantly as decompression would be far faster. Equally, simulating thousands of troops’ motion across terrain was highlighted as something that would be far easier. AMD ended by saying:

HSA will finally make GPUs available to developers as full-featured co-processors.

Essentially, it means that developers will be able to make the full use of a system’s power, and not have problems like with the PS3′s Cell chip, where there’s a ton of power under the hood, but it’s hard to access.
 
http://www.playstationlifestyle.net...y-global-illumination-instant-radiosity-more/

GPGPU – In Gaming:

The true impact this will have on games will depend on the chips themselves, but GPU consultants and researchers Nullpointer explained the benefits of a GPGPU in a slideshow.

“High processing power of the GPUs, the GPUs are very powerful and games, as real time applications, need its power to add performance.” It could also avoid a bottleneck of CPU to GPU transfer time, as well as leading to better AI and game physics.

AMD explained the current usage of GPGPUs in a presentation at their Fusion 12 Developer Summit this summer – the GPGPUs all focus on visual aspects like particles, fluid simulation and destruction. But it has limitations for non-graphics processing with buffers, delays and constrained programming models. The future, however, is bright. Heterogeneous Systems Architecture is the latest take on GPGPUs , which AMD thinks will drastically decrease latency.

“With HSA you can simulate physics on the GPU and get the results back in the same frame.
More objects, higher fidelity.”
Load times could also be minimized significantly as decompression would be far faster. Equally, simulating thousands of troops’ motion across terrain was highlighted as something that would be far easier. AMD ended by saying:

HSA will finally make GPUs available to developers as full-featured co-processors.

Essentially, it means that developers will be able to make the full use of a system’s power, and not have problems like with the PS3′s Cell chip, where there’s a ton of power under the hood, but it’s hard to access.
Und wo steht da jetzt das solchige berechnungen mit dem klassischen modell nicht gehen oder x mal länger dauern würden? Sag ja nicht das es keine Vorteile hat nur eben das ich da nicht soviel potential sehe das es zb mit einer doppelt so schnellen gpu (mit ausreichend Speicher) generell mithalten könnte.
 
und wer sagt, dass die Entwickler die PS4 wirklich ausreizen können? Bei den wenigen Exklusivtiteln vermutlich zum Teil (aber wir sehen ja, wie sehr die PS3 ausgereizt wurde, das sind auch heute noch keine 100% und trotzdem müssen Entwickler in Spielen wie Uncharted tricksen, bei der Xbox genauso), aber bei dem Großteil der Spiele, den Multititeln garantiert nicht.
Die Logik sagt es.
Man kann sich die Architektur anschauen und weiß sofort, die Situation im Vergleich zur PS3 einzuordnen.
Die PS4 ist so simpel, simpler geht es kaum, jedenfalls zur Zeit nicht.
Ebenso sind aber die Limits auch klar gesagt, welche lustigerweise die Rechenleistung selber ist.
Flaschenhälse kann ich nicht erkennen, ich kann bloß auch keine Monster-Hardware erkennen, aber das ist egal.
Hauptsache man kann das Maximum da heraus quetschen.

Früher habe ich ein wenig Cuda angeschaut und da stand noch in den offiziellen dokumenten das opencl die zukunft sei auf die nvidia in langer sicht umschwenken würde. Aber das war noch als cuda jung war. Wie gesagt habe es seitdem nicht mehr wirklich verfolgt und wenn es im HPC Bereich inzwischen einen festeren Stand hat werden sie sicherlich weiter daran festhalten.

Verstehe trotzdem nicht wiso stacked ram da fragmentieren soll. Ist so ähnlich wie wenn man sagt ssd's fragmentieren. GDDR5 als ram wird nicht so einen Einschlag haben wie ihr denkt. Dazu ist der weg zum ram einfach noch zu weit. Nach meiner Meinung wird das viel stärker in geteilte berechnung von problemen (cpu+gpu) gehen wie das ein problem von der gpu teilweise bearbeitet wird, wieder in den ram transferiert und dann von der cpu weiter bearbeitet wird. Die Laufzeiten wären da einfach sehr groß was es für vieles unpraktisch macht (bei Spielen). Soetwas würde sich in den meisten fällen einfach nicht rentieren da die Gpu das leicht zehn mal komplett berechnet hat in der Zeit welche es für den transfer zur Cpu braucht.
Im Vergleich zu AMD, hat Nvidia da glaube ich 80% Marktanteil.
Langfristig gesehen, werden sie vielleicht gezwungen sein auf OpenCL umzusteigen, aber da liegt es an AMD Nvidia das Wasser abzugrasen und ihre Treiber deutlich zu verbessern.

Stacked-ram ist z.B. eine tolle Alternative für APUs. Es ist alles mit zusammen. Der PC hat in Zukunft so viele verschiedene Möglichkeiten und Unterschiede, dass ich es als chaotisch empfinde.
Ich hoffe da auf ein neues DX, welches vielleicht bei den Zielen die formuliert werden, wenigstens etwas Struktur hineinbringt.
Und ich meinte gar nichts bezüglich GDDR5 und Einschlag, es ist etwas schneller als DDR4 und damit war's das.
Als Arbeitsspeicher taugt er meiner Meinung nach wenig.
Da ist stacked-ram die Lösung, wäre dann halt wieder mit auf dem Package oder auf einem Interposer.

Bezüglich deines Transfers verstehe ich gerade auch nur Bahnhof bzw. ich fühle mich nicht angesprochen. 8-)

Wie ich schon sagte, die gleiche Leier von besser KI, Physik etc. vor jeder neuen Gen und am Ende wird eh alles für die Grafikberechnung draufgehen.
Alles nicht, aber 1080P berechnen sich ja auch nicht von alleine, weswegen ich vollkommen zustimme, wenn jemand GPGPU überall herum spritzt, ja das Potential ist da, aber man muss auch Kompromisse bei den Ressourcen eingehen.

Und wo steht da jetzt das solchige berechnungen mit dem klassischen modell nicht gehen oder x mal länger dauern würden? Sag ja nicht das es keine Vorteile hat nur eben das ich da nicht soviel potential sehe das es zb mit einer doppelt so schnellen gpu (mit ausreichend Speicher) generell mithalten könnte.
Da steht z.B. das die Ergebnisse einer GPU für die CPU innerhalb eines Frames zur Verfügung stehen könnten = GPU ist auch für allgemeine Aufgaben zu gebrauchen.
Am PC könnte es wegen PCIe2/3 eine zu hohe Latenz geben und ebenfalls eine zu geringe Bandbreite.

Ich frage dich einmal anders: Glaubst du doppelt soviel L3 Cache auf dem Mainboard sind besser, als nur die Hälfte davon auf der CPU?
 
Da steht z.B. das die Ergebnisse einer GPU für die CPU innerhalb eines Frames zur Verfügung stehen könnten = GPU ist auch für allgemeine Aufgaben zu gebrauchen.
Am PC könnte es wegen PCIe2/3 eine zu hohe Latenz geben und ebenfalls eine zu geringe Bandbreite.

Ich frage dich einmal anders: Glaubst du doppelt soviel L3 Cache auf dem Mainboard sind besser, als nur die Hälfte davon auf der CPU?
Jop und wenn wir mal 30 fps als basis annehmen sind das gut 33ms für ein Frame. Das ist eine halbe ewigkeit für eine GPU. Nämlich genau solange wie sie braucht um das komplette Bild zu berechnen ;) inklusive aller physik sachen usw. welche sie nebenher noch machen muss.
Da muss die Berechnung für die GPU schon extrem umständlich sein das es sich lohnt die sache zur cpu zu schicken. Man muß da auch bedenken das die GPU bei allem was sich halbwegs brauchbar (ausreichend) parallelisieren läst und genug rechenaufwendig ist normal um das x fache schneller ist wie eine ähnlich teure cpu.

Das sind äpfel und birnen. L3 cache wird die ganze Zeit vom CPU verwendet.Ich bezweifle ja genau das dieses hin und herschicken genug oft sinvoll ist das es eine größere Auswirkung hätte.
 
Zuletzt bearbeitet:
Und es ist noch genug Zeit, sowohl für die CPU, als auch für die GPU in den Speicher zu schreiben, was beim PC mindestens doppelt so lange dauert.
Es geht ja gar nicht um aufwendig für die GPU, aber wenn diese Partikel berechnet oder Geschosse, schreibt das in den Speicher oder geht direkt über den FCL und die CPU checkt die Daten und schreibt neue Geometrie Daten.
Es geht ja darum das CPU und GPU an Szenarien rechnen können, die abhängig voneinander sind und genau hier hat der PC eine relativ geringe Bandbreite und deutlich höhere Latenzen, weswegen man hier beim PC natürlich dem aus dem Weg geht.

Ich werde dazu immer sagen, Potential ist deutlich höher und mehr Algorithmen sind praktisch anwendbar, was davon am Ende auch tatsächlich realisiert wird oder übrig bleibt, werde ich abwarten müssen.
 
Es geht ja gar nicht um aufwendig für die GPU, aber wenn diese Partikel berechnet oder Geschosse, schreibt das in den Speicher oder geht direkt über den FCL und die CPU checkt die Daten und schreibt neue Geometrie Daten.
Es geht ja darum das CPU und GPU an Szenarien rechnen können, die abhängig voneinander sind und genau hier hat der PC eine relativ geringe Bandbreite und deutlich höhere Latenzen, weswegen man hier beim PC natürlich dem aus dem Weg geht.
Das problem ist wenn die GPU die Daten bearbeitet dann sind sie normal in den internen Speichern. zb im konstanten, textur, shared oder sogar in den registern. Alle diese Speicher sind um welten schneller wie der GDDR5 zugriff.
Was ich sagen will ist wenn sie alle Daten bereits hat wird es meistens keinen Sinn machen das ganze an die CPU zu schicken weil die Berechnung in der Grafikkarte einfach zu geringe auswirkungen hat um ins Gewicht zu fallen.

Es wird auf den Konsolen sicher zu spezial fällen kommen wo sie durch hohe optimierung alles was sich nicht mehr ausgeht auf der GPU zur CPU schicken. Dadurch wird dann vielleicht 20% mehrleistung möglich sein oder wenns wirklich hoch kommt vielleicht sogar 40%.
Aber für den pc macht das einfach weniger Sinn da man dort die exakte gpu & cpu Leistung nicht kennt und damit nicht exakt die linie ziehen kann ab wo daten geschickt werden. Solch hardware nahe optimierungen sind für den PC und multiplatform titel einfach weniger geeignet. Da läßt man dann die 20% gleich auf der gpu rennen da die pc hardware meistens eh um einiges schneller ist.
 
Das problem ist wenn die GPU die Daten bearbeitet dann sind sie normal in den internen Speichern. zb im konstanten, textur, shared oder sogar in den registern. Alle diese Speicher sind um welten schneller wie der GDDR5 zugriff.
Was ich sagen will ist wenn sie alle Daten bereits hat wird es meistens keinen Sinn machen das ganze an die CPU zu schicken weil die Berechnung in der Grafikkarte einfach zu geringe auswirkungen hat um ins Gewicht zu fallen.

Es wird auf den Konsolen sicher zu spezial fällen kommen wo sie durch hohe optimierung alles was sich nicht mehr ausgeht auf der GPU zur CPU schicken. Dadurch wird dann vielleicht 20% mehrleistung möglich sein oder wenns wirklich hoch kommt vielleicht sogar 40%.
Aber für den pc macht das einfach weniger Sinn da man dort die exakte gpu & cpu Leistung nicht kennt und damit nicht exakt die linie ziehen kann ab wo daten geschickt werden. Solch hardware nahe optimierungen sind für den PC und multiplatform titel einfach weniger geeignet. Da läßt man dann die 20% gleich auf der gpu rennen da die pc hardware meistens eh um einiges schneller ist.
Shamanu ich verstehe echt nicht was du mir versuchst weis zu machen, ich habe nie von einem PC geredet.
Meine Aussage war einfach, wenn die GPU irgendetwas berechnet, sei es Nebel, Splitter etc. und das Auswirkungen auf die Grunddaten der Spielewelt haben sollte oder Verhaltensweisen der K.I dann wird dieses Datenbündel entweder über den FCL geschickt werden können oder es muss von der CPU von dem GDDR5 Speicher ausgelesen werden und neu verrechnet und das Bild am Ende ausgegeben.
Das Bindestück PCIe mit hohen Latenzen entfällt hier, ebenso das Kopieren von einem Speicher in den anderen.
Es wird nur die Speicheradresse ausgelesen und neu verrechnet.
Somit könnte das Zeug was die GPU fertig berechnet hat, noch zusätzlich mit der Welt interagieren, Gebäudefassaden beschädigen oder auf die K.I Auswirkungen zeigen.
Da macht man sich doch bei HSA Hoffnung das Gameplay-Physics möglich sein wird.

soso, die Logik also.

Na dann warte ich mal ab ;)
Dude, wenn du ein Auto mit einem Rad siehst, welches eine quadratische Form hat und ein anderes mit runden Reifen, welche Logik wird dir dann sagen das Auto B) es leichter haben wird die PS auf die Straßen zu bringen?
 
Dude, wenn du ein Auto mit einem Rad siehst, welches eine quadratische Form hat und ein anderes mit runden Reifen, welche Logik wird dir dann sagen das Auto B) es leichter haben wird die PS auf die Straßen zu bringen?

ich lache immer noch über Autovergleiche :lol:




Wie gesagt, ich warte ab oder höre im Zweifelsfall viel eher auf Entwickler, die die Hardware schon in der Hand haben, denn anscheinend hat die PS4 ja doch Flaschenhälse laut diversen Forenuser ;)
 
ich lache immer noch über Autovergleiche :lol:

Wie gesagt, ich warte ab oder höre im Zweifelsfall viel eher auf Entwickler, die die Hardware schon in der Hand haben, denn anscheinend hat die PS4 ja doch Flaschenhälse laut diversen Forenuser ;)
Hätte auch etwas völlig anderes sein können, ich wollte damit verdeutlichen, dass es kein "Schrott" wie die PS3 ist.
Bei der PS3 war das ersichtlich, bei der PS4 ist dagegen am System nichts ersichtlich.
Man könnte ankreiden, dass die Rechenleistung etwas schwachbrüstig ausfällt oder das die CPUs etwas wenig Power hat pro Kern oder das die L2-Latenz hoch ausfällt, wenn beim anderem Compute-Unit überprüft werden müssen, aber es gibt nirgendwo so fette Designschnitzer, wo man sich an den Kopf fassen muss oder sagen müsste, ohh das ist bisschen eng oder böse.
Das Design ist ein echter Selbstläufer, mit dem System könnte es kaum einfacher sein, an die maximale Rechenleistung heran zu kommen.

Und welche Flaschenhälse hat es denn, laut diverser Forenuser?
Würde ich mir natürlich auch gerne durchlesen, wo andere meinen, dass es noch Engpässe gäbe.
 
Hätte auch etwas völlig anderes sein können, ich wollte damit verdeutlichen, dass es kein "Schrott" wie die PS3 ist.
Dieser "Schrott" wurde damals aber auch als "Wunderhardware" verkauft :ugly:

Und welche Flaschenhälse hat es denn, laut diverser Forenuser?

du hast doch gerade selbst ein paar der Punkte aufgezählt. Schwachbrüstige Rechenleistung wäre z.B. ein sehr Großer :ugly:

Würde ich mir natürlich auch gerne durchlesen, wo andere meinen, dass es noch Engpässe gäbe.
naja, kannst mal diverse Technikforen/Threads durchlesen, oder im neogaf vorbeischauen. Ich suche jetzt nichts raus, da die Vergleiche mich auch nicht wirklich interessieren und ich diese nur überfliege. Ich bin aber gespannt, wie die Kinderkrankheiten der PS4 so aussehen werden (ich hoffe es gibt hier keine Leute die meinen, dass die PS4 sowas nicht hätte, das wäre naiv, jede neue Hardware hat sowas)

Wie gesagt, ich warte lieber auf Material in Form von Spielen, oder höre mir an, was die Leute dazu sagen, die die Hardware auch wirklich in der Hand hatten/haben.
 
Dieser "Schrott" wurde damals aber auch als "Wunderhardware" verkauft :ugly:
Das war nur Wunderhardware für die Leute, die der PR geglaubt haben und ansonsten kein Wissen über Hardware hatten.
Bei der PS4 hat sich die PR überraschenderweise arg zurück gehalten, aber ohne mich als Experte aufzutun, dass Design ist echt gut und sauber.

du hast doch gerade selbst ein paar der Punkte aufgezählt. Schwachbrüstige Rechenleistung wäre z.B. ein sehr Großer :ugly:
Das ist aber kein Flaschenhals im System, wie bei der Xbox 360 oder PS3, sondern "einfach" das Limit der Hardware.
Man könnte hier Sony einfach vorwerfen, zu wenig Rohpower verbaut zu haben.

Wie gesagt, ich warte lieber auf Material in Form von Spielen, oder höre mir an, was die Leute dazu sagen, die die Hardware auch wirklich in der Hand hatten/haben.
Das machen wir doch sowieso alle. :-)
 
Pc gaming ist eigentlich dank hdmi ganz okay .....und dank controllersupport....aber......diese abstürze in games die auf konsolen reibungslos laufen nerven einfach...tomb raider läuft bei mir noch immer nicht korrekt.
 
neue treiber und patch?

eigentlich hab ich nur von 2 problemen gehört gehabt.. allgemein schlechte nvidia performance (fps drops) und abstürze die durch die treiber und tesselation hervorgerufen wurden.
 
Pc gaming ist eigentlich dank hdmi ganz okay .....und dank controllersupport....aber......diese abstürze in games die auf konsolen reibungslos laufen nerven einfach...tomb raider läuft bei mir noch immer nicht korrekt.

immer diese DAUs vor den Rechnern.
Das letzte game was nicht lief war star craft 2 und das lag daran dass die ati hassen.
 
Pc gaming ist eigentlich dank hdmi ganz okay .....und dank controllersupport....aber......diese abstürze in games die auf konsolen reibungslos laufen nerven einfach...tomb raider läuft bei mir noch immer nicht korrekt.

Tomb Raider läuft auf Konsole reibungslos? Habe ich mir die zerschossenen Spielstände und Freezes eingebildet? :ugly:


edit: nein, habe ich nicht, sie gamefaqs & co :ugly:
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom