Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Häufige Lese/Schreibe-Wechsel degradieren die Performance, das war schon immer so. Jeder dieser Swaps kostet einige Takte an Zeit. Im Prinzip hängt das aber im Detail davon ab wie der Speichercontroller ausgelegt ist. Diese Latenz ist effektiv ein Kompromiss aus Zugriffszeit und Durchsatz und weil ersteres bei CPUs nun einmal extrem wichtig ist, wird der Speichercontroller der PS4 darauf auch Rücksicht nehmen müssen. Logischerweise degradiert ein Swap der CPU den Durchsatz damit mehr als einer der GPU, der optimale Kompromiss liegt an einem andere Punkt. Das ist einer der Vorteile eines Scratchpads für Buffer, die GPU schreibt praktisch nur dort hinein und man verliert weniger Durchsatz. Im Optimalfall nutzt man natürlich Register und der Cache fängt den Großteil ab, geht aber nun einmal nicht immer. ;-)
 
Zuletzt bearbeitet:
Häufige Lese/Schreibe-Wechsel degradieren die Performance, das war schon immer so. Jeder dieser Swaps kostet einige Takte an Zeit. Im Prinzip hängt das aber im Detail davon ab wie der Speichercontroller ausgelegt ist. Diese Latenz ist effektiv ein Kompromiss aus Zugriffszeit und Durchsatz und weil ersteres bei CPUs nun einmal extrem wichtig ist, wird der Speichercontroller der PS4 darauf auch Rücksicht nehmen müssen. Logischerweise degradiert ein Swap der CPU den Durchsatz damit mehr als einer der GPU, der optimale Kompromiss liegt an einem andere Punkt. Das ist einer der Vorteile eines Scratchpads für Buffer, die GPU schreibt praktisch nur dort hinein und man verliert weniger Durchsatz. Im Optimalfall nutzt man natürlich Register und der Cache fängt den Großteil ab, geht aber nun einmal nicht immer. ;-)

Du hast grad 80% der Thread-User rausgeschossen :lol:
 
Du musst bedenken dass ein GDDR5 nur eine maximale Anzahl an Lese-und Schreibzugriffen handeln kann. Also auch wenn die CPU maximal nur 20GiB/s für sich beansprucht, kann sie mit ihren >=6 Cores ( Gamemode ) die Leistung blockieren ( stelle ich mir so vor, bitte um Berichtigung wenn ich falsch liegen sollte ).
Was der Bus zwischen CPU und GPU angeht, hier erfolg eine direkte Kommunikation in die Caches, auch für die Übergabe der Pointer. Gegenüber dem modularen PC Design erfolg dadurch natürlich eine Entlastung der Hauptbandbreite, das aber auch schon durch hUMA.
Für mich sieht es eher so aus, dass die CPU keinen konstanten Takt hat und sie je nachdem auch viel höher takten kann. Somit hat man auch die verschiedenen Bandbreiten für die GPU in deinem Schaubild. Dadurch auch Ring-Bus, welcher halt je nachdem switchen kann in Sachen Bandbreite und Takt und somit Verbrauch usw. usf... Das haben AMD bzw. Intel schon so gemacht, sprich der Bus muss nicht immer im gleichen Takt laufen(war bei Intel jedenfalls die Lösung bei ihren CPU/GPU-Part).
 
Zuletzt bearbeitet:
craziness.jpg


E3 gibts dann die 2.6Tfops One :awesome:
 
Hier eine Präsentation von Naughty Dog über ihr Job System für PS3 und PS4. Bestätigung auch dass für Spiele sechs Cores zur Verfügung stehen.
http://www.gameenginebook.com/SINFO.pdf

Häufige Lese/Schreibe-Wechsel degradieren die Performance, das war schon immer so. Jeder dieser Swaps kostet einige Takte an Zeit. Im Prinzip hängt das aber im Detail davon ab wie der Speichercontroller ausgelegt ist. Diese Latenz ist effektiv ein Kompromiss aus Zugriffszeit und Durchsatz und weil ersteres bei CPUs nun einmal extrem wichtig ist, wird der Speichercontroller der PS4 darauf auch Rücksicht nehmen müssen. Logischerweise degradiert ein Swap der CPU den Durchsatz damit mehr als einer der GPU, der optimale Kompromiss liegt an einem andere Punkt. Das ist einer der Vorteile eines Scratchpads für Buffer, die GPU schreibt praktisch nur dort hinein und man verliert weniger Durchsatz. Im Optimalfall nutzt man natürlich Register und der Cache fängt den Großteil ab, geht aber nun einmal nicht immer. ;-)

Eine Sache die ich mir bei der PS4 noch gewünscht hätte, wenn man die Caches erhöht erhöht hätte, von CPU wie auch von GPU. Wäre im gesamten der Die Größe nicht sehr teuer weggekommen, hätte IPC erhöht und Bandbreite eingespart, auch glaube ich dass Devs damit auf längere Sicht mehr hätten anfangen können als mit weiteren Recheneinheiten, gleichzeitig profitiert man bei Shrinks besser mit Speicher als mit Recheneinheiten.
 
The Xbox One has a dual layer on its SOC, a top layer that is everything Microsoft has confirmed to be in the Xbox One (32 MB ESRAM, 8 Gigs DDR3, 1.75 GHZ 8 Core CPU, and graphic capabilities of ~1.31 TF), and a second layer that holds what they believe to be a discrete GPU/hidden graphic power/"secret sauce" that was hidden from everyone but the "Tier 1 developers" of Microsoft (i.e. Turn 10/343 Studios), and would gradually allow Tier2 (i.e. Crytek) and Tier 3 (most multiplatform developers) to access this second layer when all of the drivers and Direct X12 would hit.
Es beginnt.

:o
 
MS hat gar keine andere wahl sowas ähnliches wie Mantle mit DX12 auf den markt zu schmeißen, wenn man sieht wie Mantle sogar noch Highend PCs mit starken CPUs pusht.

Hat jetzt nichts speziell mit dir zu tun, sondern eher mit diesem Punkt (siehe Markierung)
Das habe ich jetzt schon von einigen Usern gelesen.

Nur weil AMD zuerst dran war mit Mantle heißt das nicht, dass M$ nicht schon vorher diesen Plan hatte.
Schließlich ist das Verlangen nach mehr nähe zur Hardware schon seit Jahren im Gespräch.

Ich kann mich hier nur wiederholen. Wartet bis zur E3. Danach ist für mich die Sache erledigt. Sollte M$ bis dahin nichts gezündet haben, ist es halt so. Aber dann sollten auch endlich die Diskussionen über versteckte Leistung und Co aufhören.
Wenn doch etwas passiert, dann wären auf einen Schlag ziemlich viele Dinge geklärt.
Unter anderem die Mantle Geschichte.

Wie es kommt ist mir egal. Aber das wisst ihr ja bereits.
 
Ich kann mich hier nur wiederholen. Wartet bis zur E3. Danach ist für mich die Sache erledigt. Sollte M$ bis dahin nichts gezündet haben, ist es halt so. Aber dann sollten auch endlich die Diskussionen über versteckte Leistung und Co aufhören.
Wenn doch etwas passiert, dann wären auf einen Schlag ziemlich viele Dinge geklärt.
Unter anderem die Mantle Geschichte.

Wie es kommt ist mir egal. Aber das wisst ihr ja bereits.

Die Diskussion kann auch jetzt schon aufhören. Ist mir unbegreiflich wie man an solch einen Schnulli glauben soll. Der Mantle Geschichte wird in Bezug auf Konsolen übrigens viel zu viel Aufmerksamkeit geschenkt. Konsolenhersteller hatten vor Mantle bessere Lösungen für ihre Platformen und haben sie noch immer danach!
 
Ich bin immernoch dafür das wir so eine Regel haben bevor Leute dinge wie Mantle oder GPGPU schreiben diese nach lesen sollten was das überhaupt ist
 
ja, macht total sinn, die leistungsfähigkeit einer konsole zum start nicht voll preiszugeben,
um dann doch ganz überraschend an der konkurrenz vorbeizuziehen. :dizzy:

wann zeigt jemand respawn was von der sectret sauce?
die scheinen ja noch nicht mal die non secret sauce ausschöpfen zu können.
 
Zuletzt von einem Moderator bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom