PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Heißt das, dass endlich das Marketing-Buzzword "latenzkritisches Physikgameplay" fallen gelassen wurde, wenn auch Cerny einräumt, dass Latenz nicht die Stärke von GDDR5 ist?


http://www.redgamingtech.com/ps4-vs-xbox-one-gddr5-vs-ddr3-latency/


But what about the actual latency of DDR3 vs GDDR5?
It’s worth remembering that if you do a little bit of Googling around, you can easily come across the specs of various GDDR5 memory. Hynix for example place PDF’s of their products freely available on the internet.
The latency on GDDR5 and DDR3 memory does vary some, but the typical CAS latency of most sticks of DDR3 is between 7 and 9 (see the earlier Tomshardware link for more information). GDDR5 RAM meanwhile is a typical latency of about 15. Once again, all of this depends on the make and models of the RAM.
So – there’s the answer right? Let’s say 8 CAS vs 15 CAS? No, it’s not. We have to remember that the speeds are for all intents and purposes – relative. If you take the CAS of both, and then multiply it by the clock speed – you get the ns of delay. CAS of 15/1.35 = 11ns.
I’ll save you the trouble and say that it’s between 10 – 12 for both DDR3 and GDDR5 varying heavily on the clock speed of either the DDR3 or GDDR5 AND in the timings they’ve chosen.
Also, take into account what Mark Cerny has said about GDDR5 latency:
“Latency in GDDR5 isn’t particularly higher than the latency in DDR3. On the GPU side… Of course, GPUs are designed to be extraordinarily latency tolerant so I can’t imagine that being much of a factor”.
What does it all mean?
It means that the Xbox One doesn’t have a latency advantage really with the DDR3 memory. It’ll have to try and rely on its ESRAM to make up for the lack of bandwidth which the DDR3 is of course, the culprit for. The X1′s ESRAM will have its work cut out, and from what the rumors are so far, the memory requires a lot of manual labour from the developers to get the most out of. It’s currently speculated that it’s being used for both a frame buffer and for tiled resources. However, much of its workings still remain a mystery.
Of course – in this article, we are not taking into account other aspects. These include the PS4′s extra graphical power, the extra compute work of the PS4 or its volatile bit. It’s also not taking into account API’s, drivers and code from developers.
 
das mit der höheren Latenz wird immer wieder behauptet und das DDR3 deswegen besser für die CPU wäre. War auch ne Aussage, die immer wieder kam um die Xbone mit ihren 8GB DDr3+32MB ESRAM besser dastehen zu lassen

Die Realität zeigt ja welche Maschine die weitaus bessere Figur macht

Vergleiche die Xbox nicht mit nem PC^^


Die Xboxhersteller sind ja sogar zu behämmert die Vorteile eines Geschlossenen Systems zu nutzen, da ist ja der PC anders ausgelegt.
 
Zuletzt bearbeitet:
das mit der höheren Latenz wird immer wieder behauptet und das DDR3 deswegen besser für die CPU wäre. War auch ne Aussage, die immer wieder kam um die Xbone mit ihren 8GB DDr3+32MB ESRAM besser dastehen zu lassen

Die Realität zeigt ja welche Maschine die weitaus bessere Figur macht

Wenn man die nötige gpu leistung nicht hat nützt auch die bessere latenz für cpu sachen nicht viel wenn es um grafik geht.
 

Ich hab den Artikel gelesen. Zusammenfassung: Latenz ist höher, aber nicht in dramatischer Art und Weise. Trotzdem wollte man uns in diesem Thread hier noch vor wenigen Monaten erzählen, dass auf PS4 jetzt unglaubliches latenzkritisches Physikgameplay möglich sein wird, das so auf PC nicht möglich ist (weil die Latenz dort schlechter ist).

Das latenzkritische Physikgameplay war imho sogar das mit Abstand am häufigsten vorkommende Marketing-Buzzword, das hier rauf und runtergespult wurde. Und was bleibt jetzt übrig.
 
Ich hab den Artikel gelesen. Zusammenfassung: Latenz ist höher, aber nicht in dramatischer Art und Weise. Trotzdem wollte man uns in diesem Thread hier noch vor wenigen Monaten erzählen, dass auf PS4 jetzt unglaubliches latenzkritisches Physikgameplay möglich sein wird, das so auf PC nicht möglich ist (weil die Latenz dort schlechter ist).

Das latenzkritische Physikgameplay war imho sogar das mit Abstand am häufigsten vorkommende Marketing-Buzzword, das hier rauf und runtergespult wurde. Und was bleibt jetzt übrig.


ja, das ist die hauptaussage, somit ist es also kein Problem wenn man nur GDDR5 nutzt

zum rest kann ich nix sagen, hab hier nie was von latenzkritischem physikgameplay geschrieben lol, musst du dich an die urheber dieser aussagen wenden
 
Weiß nicht wie seriös die Grafik ist:

641193d1365270800-amd-prophezeit-verwendung-von-gddr5-fuer-kommende-apus-ddr3_ddr4_gddr5ovsjw.png



Man darf nicht vergessen, dass beide Karten für jeweils anderen Bereich ausgelegt sind und somit andere Auswirkungen haben. Scheinbar ist der DDR besser zum System ausgelegt, da die Entwicklung stakniert, während die GDDR5 vom Fortschritt abhängig ist. Bei einem System wie die PS4 ist sicherlich der GDDR5 vom Vorteil.

Wäre allein die GDDR zu DDR überlegen, würde ja keiner mehr DDR-SRAM Karten Produzieren. Scheinbar ist die DDR3 mit der GDDR5 ebenbürdig.
 
Zuletzt bearbeitet:
ja, das ist die hauptaussage, somit ist es also kein Problem wenn man nur GDDR5 nutzt

Naja, es bringt einen geringen nachteil für die CPU mit sich und bezüglich memory sharing vorteilen hört man ja auch nicht mehr viel. Gibt es inzwischen schon sinvolle anwendungen? Das wurde ja auch gehypt bis zum geht nicht mehr.
 
ne 2gb gddr5 karte reicht schon locker um die konsolen hinter sich zu lassen.


zu the order:

RSh2ASl.jpg

DoRE0q4.jpg

auf frame-counter achten.


ozs44ovjhb.gif

und was genau soll das noch einmal aussagen? du weisst ja nicht einmal was für ein PC Gpu etc diese Person besitzt. Würd nen Konsolero so etwas bringen wären die Bluthunde schon längst an der Hose am knabbern aber so wird es dann einfach durchgewunken. :dizzy4:
 
Weiß nicht wie seriös die Grafik ist:

641193d1365270800-amd-prophezeit-verwendung-von-gddr5-fuer-kommende-apus-ddr3_ddr4_gddr5ovsjw.png



Man darf nicht vergessen, dass beide Karten für jeweils anderen Bereich ausgelegt sind und somit andere Auswirkungen haben. Scheinbar ist der DDR besser zum System ausgelegt, da die Entwicklung stakniert, während die GDDR5 vom Fortschritt abhängig ist. Bei einem System wie die PS4 ist sicherlich der GDDR5 vom Vorteil.

Während allein die GDDR zu DDR überlegen, würde ja keiner mehr DDR Karten Produzieren.


klar hat alles seine Vor- und Nachteile, aber wenn die Nachteile relativ gering sind, kann man eben komplett auf eine Lösung setzen wie es Sony bei der PS4 gemacht hat

DDR4 wird so oder so der nächste Schritt, aber ist halt noch zukunftsmusik oder hat das jetzt schon einer im Rechner? Kann ja nur mit dem diskutieren was aktuell so Standard ist


Naja, es bringt einen geringen nachteil für die CPU mit sich und bezüglich memory sharing vorteilen hört man ja auch nicht mehr viel. Gibt es inzwischen schon sinvolle anwendungen? Das wurde ja auch gehypt bis zum geht nicht mehr.


die Vorteile wirst du erst sehen wenn die 2. vielleicht sogar 3. Softwarewelle rollt und sich die Entwickler in die Systeme tiefer reingraben. Aktuell werden PS4 und Xbone eh nur wie PCs behandelt, die Vorteile der Architektur kommen sicher noch nicht so zum tragen wie es möglich wäre. War ja auch Cernys Aussage vor ner Weile das es mehrere Jahre dauern könnte
 
Naja, es bringt einen geringen nachteil für die CPU mit sich und bezüglich memory sharing vorteilen hört man ja auch nicht mehr viel. Gibt es inzwischen schon sinvolle anwendungen? Das wurde ja auch gehypt bis zum geht nicht mehr.
Wird noch erforscht. Gerüchteweise wurde Cellius (Lords Kens Masterplan), das die Nutzung des Cell vorantreiben sollte (erstes Ergebnis: Ridge Racer Vita) in Apulius (erstes Ergebnis: GPU beschleunigte Tabellenkalkulation) umbenannt :dizzy:

Krass, neue Screenshots von Driveclub das jetzt noch cinematiger wird, gleich mal ne News einsenden :dizzy:
 
klar hat alles seine Vor- und Nachteile, aber wenn die Nachteile relativ gering sind, kann man eben komplett auf eine Lösung setzen wie es Sony bei der PS4 gemacht hat

DDR4 wird so oder so der nächste Schritt, aber ist halt noch zukunftsmusik oder hat das jetzt schon einer im Rechner? Kann ja nur mit dem diskutieren was aktuell so Standard ist

Es ist jetzt Standard, aber keiner hat es sicher in seinem Rechner verbaut. ^^
Arbeitsspeicherkarten ist nicht grad der Gegenstand der von Frickler meist gewechselt wird. xD
 
Zuletzt bearbeitet:
und was genau soll das noch einmal aussagen? du weisst ja nicht einmal was für ein PC Gpu etc diese Person besitzt. Würd nen Konsolero so etwas bringen wären die Bluthunde schon längst an der Hose am knabbern aber so wird es dann einfach durchgewunken. :dizzy4:

es hieß hier die balken würde bei der performance keinen unterschied machen.
wird ja alles in 1080p gerechnet und dann nur oben und unten nen balken drüber gelegt.


edit: ddr 4 ist schon schandart arbeitsspeicher?
 
es hieß hier die balken würde bei der performance keinen unterschied machen.wird ja alles in 1080p gerechnet und dann nur oben und unten nen balken drüber gelegt.
wer hat den das gesagt? also falls jemand diese aussage gebracht hat hab ich sie übersehen. dann ist mein einwand natürlich quatsch. ich glaub dir das jetzt einfach hab jetzt wenig lust zurückzublättern.
 
es hieß hier die balken würde bei der performance keinen unterschied machen.
wird ja alles in 1080p gerechnet und dann nur oben und unten nen balken drüber gelegt.


edit: ddr 4 ist schon schandart arbeitsspeicher?

So weit ich dass verstanden habe, bieten die Entwickler zusätzlich noch 4x AA an und das verbraucht mehr Ressourcen als eine astreine 1080p-Auflösung.
 
es hieß hier die balken würde bei der performance keinen unterschied machen.
wird ja alles in 1080p gerechnet und dann nur oben und unten nen balken drüber gelegt.


edit: ddr 4 ist schon schandart arbeitsspeicher?

Der DDR4-Standard wurde von der JEDEC 2012 verabschiedet. Ich denke das meinte Naru. Geplant ist dass er bis 2015 50% Marktanteil (also bei den Neukäufen) erreicht. Das Zeitfenster in dem die PS4 technisch so gut dasteht wie sie dastehen kann, neigt sich bereits dem Ende zu. ;)
 
die Unterschiede bei DDR3 sind doch minimal, wenn man bedenkt das die GDDR5 der PS4 mit 176 GB/s laufen

kannst noch solange reden, nen PC mit GPU, die nur nen Bruchteil an GDDR5 hat, ist in dem Bereich im Nachteil
Ich hab 4GB mit 250GB/s am PC und dazu noch zusätzliche 8GB DDR3 RAM, ist der PS4 in jeder Hinsicht absolut überlegen.
 
Zuletzt bearbeitet:
es hieß hier die balken würde bei der performance keinen unterschied machen.
wird ja alles in 1080p gerechnet und dann nur oben und unten nen balken drüber gelegt.


Das wäre maximal dämlich, wenn etwas unter den beiden Balken gerendert werden würde, das man nicht sieht und einfach mit schwarz zu stilzwecken überdeckt wird. Die Ressourcen die da verschwendet werden würden könnte man für das man sieht verwenden...kann ich mir echt ned vorstellen!

Das >komplette Bild< inkl. Balken wird normal 1080p sein und und schwarze Balken müssen halt nur schwarz gerendert werden - was quasi keine Performance kostet - und fertig##

Warum sollte da nochmal was drunter gerendert werden was keiner sehen würde?
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom