Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Was meinst du mit Daten rein bringen? Für High-Performance-GPUs muss ich dir zustimmen, vor allem wenn es nur um massive Thread-Leistung geht, wo die CPU nur als Commander fungiert und ansonsten nichts gebraucht wird, außer 550mm² Schlachtschiffe. Wieso sollten die Peformance und Latenzvorteile nur in wenigen Bereichen ausgespielt werden können? Der Latenzvorteil ist IMMER da, wirkt sich je nach Szenario halt geringer aus. Das sind aber potentiell hier ein paar Prozent und dort ein bisschen mehr wo dies immer existiert. Zero Copy spart Strom und was tut das fehlende Kopieren der Daten noch sparen? Bandbreite, effektiv hat man also auch mehr Bandbreite. Plus bessere Latenz, schnellere Versorgung der Einheiten ist ja auch sehr wichtig. GDDR5 mit GDDR3 Bandbreite war 30% langsamer, weil die absoluten Latenzen im Vergleich dann natürlich richtig beschissen sind. Und bei der PS4 werden viele Compute-Sachen profitieren. Das wird die ganzen Spielchen mit Partikeln, DoF usw. deutlich billiger machen, als bei einem PC. Gerade GPGPU beschleunigte Effekte ist doch genau das, wonach alle hinterher weinen. Sogar Gameplay-Relevante Physik könnte Einzug finden.
Vom ram in die gpu rein bringen. Destso schneller die GPU rechnet destso schneller will sie neue Daten.

Es wird nur in wenigen bereichen ausgespielt weil die Grafikkarte größtenteils mit berechnungen beschäftigt ist und nicht mit dem Schicken von Daten an die CPU. Du gehst davon aus das die Compute sachen profitieren weil daten massenweise ausgetauscht werden. Was ist jedoch wenn die GPU die sachen zehn und mehr mal effektiver berechnet wie die cpu? Denkst du wirklich jemand interessiert sich da für das Schicken von daten und nimmt die ganzen delays, caching probleme usw in kauf wenn dann die partikel vielleicht 20% besser laufen aber dafür die cpu nicht mehr frei ist? Schau dir mal physx an um wieviel damit die effekte schneller laufen wie auf der cpu. Verstehe echt nicht wie du darauf kommst das die CPU da jetzt plötzlich eine rolle spielen soll wenn man seit jahren von der cpu weg zur gpu geht wegen der Mehrleistung.

Edit:
Hier mal ein Vergleich mit alter Hardware:
gt200_physics.png

Verstehe echt nicht wer sich wegen den paar % mehrleistung bei gemeinsamer berechnung die mühe machen und nicht einfach die CPU für andere berechnungen hernehmen soll.
 
Zuletzt bearbeitet:
Der Vergleich ist doch total sinnlos. Bei dem Beispiel gibt es keinen Speedup durch Heterogenität weil dort CPU-only mit GPU-only verglichen wird. Ein heterogenes System ist eben nicht so schnell wie CPU-only+GPU-only sondern schneller als selbst beide zusammen wären. Das ist doch der ganze Sinn dahinter. Du musst schon ein Beispiel verwenden, wo jemand explizit darauf optimiert hat den Workload zwischen zwei unterschiedlichen Prozessoren zu teilen. AMD nennt beispielsweise HAAR-Face-detection, wo eine HD7850 in einem heterogenen System schneller rechnet als eine HD7970 alleine, obwohl letztere nominal doppelt so schnell ist.
 
AMD nennt beispielsweise HAAR-Face-detection, wo eine HD7850 in einem heterogenen System schneller rechnet als eine HD7970 alleine, obwohl letztere nominal doppelt so schnell ist.
Interessant und wieiviel wäre es im vergleich zum klassischen PC mit pcie wo die cpu auch mitmachen darf? Der vergleich ist sonst wohl genau so unfair wie meiner.
 
Vorsicht mit nvidia Grafiken, die Jungs manipulieren erstens wo es geht und zweitens ist eine starke CPU nach wie vor wichtig, speziell für unsre Frickler, die bei allen Games von 60 FPS und 1080p träumen, wird noch ein böses Erwachen geben wenn erste PS4 leadgames auf den PC gebracht werden, für unsre Elitegamer mit ihren Titanen :brit:
 
Interessant und wieiviel wäre es im vergleich zum klassischen PC mit pcie wo die cpu auch mitmachen darf? Der vergleich ist sonst wohl genau so unfair wie meiner.
Das haben sie zwar nicht angegeben aber bei der Anwendung wäre das Ergebnis wahrscheinlich noch weitaus schlechter als CPU-only. Bei 30fps hat man keine Zeit Millionen von Daten pro Frame ständig hin- und herzuschieben. Wenn du unbedingt ein Beispiel willst wo das direkt verglichen wurde:

This work explores the challenges in porting Memcached to OpenCL and provides a detailed analysis into Memcached's behavior on a GPU to better explain the performance results observed on physical hardware. On the integrated CPU+GPU systems, we observe up to 7.5X performance increase compared to the CPU when executing the key-value look-up handler on the GPU.
IEEE Xplore

f5ltpt57.png
 
Vorsicht mit nvidia Grafiken, die Jungs manipulieren erstens wo es geht und zweitens ist eine starke CPU nach wie vor wichtig, speziell für unsre Frickler, die bei allen Games von 60 FPS und 1080p träumen, wird noch ein böses Erwachen geben wenn erste PS4 leadgames auf den PC gebracht werden, für unsre Elitegamer mit ihren Titanen :brit:

außerdem ist die grafik sehr alt
zur zeit einer c2q cpu hat physx bei der cpu berechnung dank nvidia nur thread nutzen konnte
ein schelm wer denkt das man dadurch zum kauf von nvidia karten anregen wollte und die cpus ausbremsen will
hier noch mal was dazu
http://www.tomshardware.de/PhysX-CPU-ausgebremst,news-244372.html
 
Das wahre Potential wird sich laut Cerny erst ca. 2015 mit der finalen API entfalten.

We have our own shader APIs, but in the future, we’ll provide functions which will allow deeper access to the hardware level and it will be possible to directly control hardware using the shader APIs. As a mid-term target, in addition to common PC APIs such as OpenGL and DirectX, we’ll provide full access to our hardware.

Regarding the CPU, we can use well known hardware, and regarding the GPU, as developers devote time to it, new possibilities which weren’t possible before will open up.

The properties of CPU and GPU are quite difference, so in the current stage, if you were to use an unified architecture such as HSA, it will be difficult to efficiently use the CPU and GPU. However, once the CPU and GPU are able to use the same APIs, development efficiency should increase exponentially. This will be rather huge. Thus, we expect to see this as somewhat of a long-term goal.

Momentan ist die PS4 quasi noch im Schlummer.
 
Vorsicht mit nvidia Grafiken, die Jungs manipulieren erstens wo es geht und zweitens ist eine starke CPU nach wie vor wichtig, speziell für unsre Frickler, die bei allen Games von 60 FPS und 1080p träumen, wird noch ein böses Erwachen geben wenn erste PS4 leadgames auf den PC gebracht werden, für unsre Elitegamer mit ihren Titanen :brit:

Auf dem PC ist eine starke CPU, vorallem ein hoher Takt, immer noch sehr wichtig.
Eine Titan lohnt sich erst ab einem 4,4 Ghz Intel i7 (2600k/3770k/3930k). Wenn ich manchmal sehe wie Leute so eine Karte mit einem i5 2500k befeuern...:rolleyes:
 
Auf dem PC ist eine starke CPU, vorallem ein hoher Takt, immer noch sehr wichtig.
Eine Titan lohnt sich erst ab einem 4,4 Ghz Intel i7 (2600k/3770k/3930k). Wenn ich manchmal sehe wie Leute so eine Karte mit einem i5 2500k befeuern...:rolleyes:
Du scheinst echt sehr viel Ahnung zu haben :ugly:

Ein i7 bringt dir bei Games atm absolut gar nichts. Das ist eher was zum Videos konvertieren und Archive auspacken.
 
Du scheinst echt sehr viel Ahnung zu haben :ugly:

Ein i7 bringt dir bei Games atm absolut gar nichts. Das ist eher was zum Videos konvertieren und Archive auspacken.

Wir sind schliesslich noch im Jahre 2008. :rolleyes:
Und beide Nextgenkonsolen haben 8 Kern CPUs und die Nextgenengines MÜSSEN auf Multicore optimiert werden. Welche CPU wird wohl noch genug Dampf haben?
Der i7 mit 8 Threads oder ein i5 mit 4?
Das Geschrei wird genau so gross wie damals, als für GTA4 auf dem PC die Dualcores nicht mehr ausreichten.
Wer sich "Masterrace" nennt und nur einen Mainstream i5 kauft, ist auch selbst Schuld. Ich habe einen i7 und muss mir keine Sorgen machen. Lass mich raten? Du hast einen i5 2500k. :lol2:
 
Wir sind schliesslich noch im Jahre 2008. :rolleyes:
Und beide Nextgenkonsolen haben 8 Kern CPUs und die Nextgenengines MÜSSEN auf Multicore optimiert werden. Welche CPU wird wohl noch genug Dampf haben?
Der i7 mit 8 Threads oder ein i5 mit 4?
Das Geschrei wird genau so gross wie damals, als für GTA4 auf dem PC die Dualcores nicht mehr ausreichten.
Wer sich "Masterrace" nennt und nur einen Mainstream i5 kauft, ist auch selbst Schuld. Ich habe einen i7 und muss mir keine Sorgen machen. Lass mich raten? Du hast einen i5 2500k. :lol2:
Er hat einen E8400, der ~15fps bei Crysis3@Max schafft. :ugly:

Gibt genug Spiele, wo selbst der i7 die GPU ausbremst.
 
Er hat einen E8400, der ~15fps bei Crysis3@Max schafft. :ugly:

Gibt genug Spiele, wo selbst der i7 die GPU ausbremst.

ROFL wirklich? Aber er sagt doch immer dass er Crysis 3 in Very High durchgespielt hat?

Bezüglich der CPU hast du Recht. Gibt genug Spiele wo die der limitierende Faktor ist. Und Metro LL erfordert auch nicht umsonst einen i7 bei den höchsten Einstellungen.
 
ROFL wirklich? Aber er sagt doch immer dass er Crysis 3 in Very High durchgespielt hat?

Bezüglich der CPU hast du Recht. Gibt genug Spiele wo die der limitierende Faktor ist. Und Metro LL erfordert auch nicht umsonst einen i7 bei den höchsten Einstellungen.
Kann ich mich nicht dran erinnern. Im "Ich brauche nen neuen PC"-Thread steht aber sein aktueller PC.

Übrigens muss man selbst keinen High-End PC besitzen um gewisse Dinge an Konsolen zu kritisieren wie beispielsweise 20fps Konsolenversionen von Far Cry 3 oder Crysis 3. Die Forderung ist lächerlich. Das ist einfach nur eine Taktik um anderen Leuten ihre Meinung zu verbieten.
 
Das haben sie zwar nicht angegeben aber bei der Anwendung wäre das Ergebnis wahrscheinlich noch weitaus schlechter als CPU-only. Bei 30fps hat man keine Zeit Millionen von Daten pro Frame ständig hin- und herzuschieben. Wenn du unbedingt ein Beispiel willst wo das direkt verglichen wurde:


IEEE Xplore

f5ltpt57.png
Hä?
Verstehe ich das richtig, sie hauen die Daten (einer Datenbank) in die GPU und greifen dann von der CPU darauf zu um eine key value auflösung zu machen? Noch ein abstrakteres Beispiel das weiter von den praktischen Anwendungen in einem Spiel entfernt ist konntest du nicht finden? xD

Übrigens ist es so das die CPU beim blauen Balken der (Radeon HD5870) nicht däumchen drehen wird sondern andere sachen berechnen kann. Man sieht auch die execution ist da viel viel schneller, also wiso überhaupt zur cpu übertragen und nicht auf der gpu alles machen was geht? Davon rede ich ja die ganze zeit. Aber ist halt ein abstraktes Beispiel. :D
 
Und beide Nextgenkonsolen haben 8 Kern CPUs und die Nextgenengines MÜSSEN auf Multicore optimiert werden. Welche CPU wird wohl noch genug Dampf haben?
Der i7 mit 8 Threads oder ein i5 mit 4?
Nimmt man die rohen rechenleistung der jaguar (pc version welche hier einmal gepostet wurden) und schätzt das über den Daumen für 8 kerne hoch wird eine brauchbare (und aktuelle) i3 reichen.
 
Nimmt man die rohen rechenleistung der jaguar (pc version welche hier einmal gepostet wurden) und schätzt das über den Daumen für 8 kerne hoch wird eine brauchbare (und aktuelle) i3 reichen.
Ne er hat schon recht. Ein i7 wird sich langfristig deutlich absetzen können, darum hole ich mir im Juni auch nen Haswell i7 :awesome:
 
Ich bin hier mit einer der grössten PC "Basher" obwohl ich selber quasi ein "Highend" SLI System mit i7 habe. :awesome:
Come at me, Frickler!
 
Nimmt man die rohen rechenleistung der jaguar (pc version welche hier einmal gepostet wurden) und schätzt das über den Daumen für 8 kerne hoch wird eine brauchbare (und aktuelle) i3 reichen.

LOL. Träum weiter. Der Jaguar ist bei weitem nicht so schwach. Genau das selbe Spiel wie damals bei GTA 4, als die ach so so starken Conroes völlig versagten.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom