Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
ztE2jlw.jpg


Quelle: https://twitter.com/DirectX12/status/442011932011134976
 
Die verfügbare Bandbreite für die GPU sinkt schnell wenn die CPU häufigen und schnellen Zugriff für sich beansprucht. Kann mir also durchaus vorstellen, dass es zu Komplikationen kommen kann, gerade wenn es um Operationen geht in welchen die GPU einen schnellen Zugriff benötigt. Hier könnte die One durch den separaten Bus einen Vorteil haben, mit unoptimierten Code. Will mich da jetzt aber nicht zu weit aus dem Fenster lehnen.
Meines Wissens hatte ein CoD auf PS4 bsw aber eine bessere Filterung.

Wie meinst du das?? die Ps4 hat doch einen zusätzlichen Bus für die CPU, zu dem normalen 176gb/s Bus. Also darauf war doch der Cerny so stolz ^^ :v: hier ein Ausschnitt (edit: scheint eher ein zusätzlicher zwischen GPU und CPU zu sein um auf den Cache der CPU zu zugreifen oder eben die CPU auf die GPU^^). Dann hast du in der Form recht, da sackt es bis auf 156gb/s aber im PC-Vergleich reicht die Bandbreite um eine 7850 zu füttern auch mit AF^^

In the Gamasutra interview, Cerny states the following: “we added another bus to the GPU that allows it to read directly from system memory or write directly to system memory… As a result, if the data that’s being passed back and forth between CPU and GPU is small, you don’t have issues with synchronization between them anymore… We can pass almost 20 gigabytes a second down that bus. That’s not very small in today’s terms — it’s larger than the PCIe on most PCs!”

http://www.extremetech.com/gaming/1...ily-modified-radeon-supercharged-apu-design/2
 
Zuletzt bearbeitet:
Dass du mir da eine 9 rein editierst(hoffe dafür gibts nen Ban) zeigt nur, dass du von Technik nicht viel Ahnung hast, da die Entwickler bei der PS4, wie auch PS3 zuvor, Coding to the Metal betreiben und Dinge wie Direct X keine Bedeutung haben.
 
Da sollte die HW auch passen....
Die Xbox360 hat damals einige wichtigre DX11 Features unterstützt, obwohl die GPU auf DX9 ausgelegt war.

Wird wohl hier ähnlich sein.

Dass du mir da eine 9 rein editierst(hoffe dafür gibts nen Ban) zeigt nur, dass du von Technik nicht viel Ahnung hast, da die Entwickler bei der PS4, wie auch PS3 zuvor, Coding to the Metal betreiben und Dinge wie Direct X keine Bedeutung haben.
Stimmt, jeder Entwickler schreibt sogar ne eigene API :rofl3:
 
Bei der PS4 stehen zwei API zur Verfügung, einmal GNM für low-Level und einmal GNMX für high-Level. Bei der PS3 heißt die low-level API LibGCM.

Cortana dachte doch nicht etwa dass Sony oder Nintendo DX als API nutzen :ugly:
 
Das DX11 der Bone soll ja möglichst abgespeckt sein um *Zitat*"so wenig Ballast wie möglich"*Zitat/Ende* zu haben. Sony nutzt afaik auch Knowhow von AMD und wer anderes als AMD sollte wissen wie man die eigene Hardware am besten anspricht :-?

Das beiseite glaube ich nicht, dass MS oder Sony sich viel schenken was die Schnittstellen angeht, am Ende sieht man an Multigames recht deutlich, dass die PS4 eben wegen der stärkeren Hardware die Nase vorne hat und dass man von MS auch bei einem potentiellen DX12 auf der Konsole keine Wunder erwarten darf...
 
Zuletzt bearbeitet:
AMD meinte ja selber das Mantle viele gemeinsanmkeiten mit der PS4 API hat, bin mal gespannt ob sie dadurch da es ja jetzt endlich draußen ist BF5 auf der PS4 davon profititeren wird, da Mantle ja speziell für schwächere CPUs gemacht ist, und dort am meisten performt.

DICE: PS4 & Mantle will drive Frostbite design and optimisation going forward
http://www.neogaf.com/forum/showthread.php?t=715118

NefUH1b.png



MS hat gar keine andere wahl sowas ähnliches wie Mantle mit DX12 auf den markt zu schmeißen, wenn man sieht wie Mantle sogar noch Highend PCs mit starken CPUs pusht.
 
Zuletzt bearbeitet:
Das DX11 der Bone soll ja möglichst abgespeckt sein um *Zitat*"so wenig Ballast wie möglich"*Zitat/Ende* zu haben. Sony nutzt afaik auch Knowhow von AMD und wer anderes als AMD sollte wissen wie man die eigene Hardware am besten anspricht :-?

Das beiseite glaube ich nicht, dass MS oder Sony sich viel schenken was die Schnittstellen angeht, am Ende sieht man an Multigames recht deutlich, dass die PS4 eben wegen der stärkeren Hardware die Nase vorne hat und dass man von MS auch bei einem potentiellen DX12 auf der Konsole keine Wunder erwarten darf...

Dieses "Sony nutzt AMD API" Bla kommt von dem Quark dass einer der beiden angeblich Mantle für ihre Konsolen nutzt. Das war aber schon immer Humbug, da keiner Mantle braucht wenn sie eh schon die besseren Lösungen haben.

Beachten muss man bei DX und DX, das eine ist eine API, das andere ein Featureset der GPU. Eventuelle Features, die DX12 voraussetzt, könnten PS4 und Bone also gar nicht nutzen, wenn sie nicht in Hardware gegossen sind.
Der Hauptteil von DX12 wird aber die Verringerung des Overheads der CPU und in dem Bereich waren die Konsolen schon immer DX12 und darüber hinaus ^^
 
schau edit^^ hast genau nach meinen edit geschrieben :v:

Worauf ich mich bezogen habe ist das hier

0LOwYux.jpg


Wie du siehst, umso mehr Bandbreite die CPU für sich beansprucht umso mehr geht insgesamt verloren. Kann ich mir auch vorstellen wenn >=6 Kerne bei 1,6GHz zur gleichen Zeit auf einen Speicher zugreifen wollen wie eine GPU mit 800MHz.
 
Worauf ich mich bezogen habe ist das hier

0LOwYux.jpg


Das ist auf jeden Fall ein Flaschenhals für die GPU. Da wenn die CPU durch ihren Takt 2 mal ihre volle Bandbreite nimmt vor der GPU nehmen kann, so sind wirklich 40gb/s weg und die GPU muss mit 136 gb/s klar kommen. Wobei bei deinem Bild es sogar unter 120gb/s sind?? die CPU hat aber doch nur 20gb/s Schnittstelle oder nicht?? auf jeden Fall ist es ein Flaschenhals für die GPU, da die Bandbreite für die max. Leistung nicht reicht. Aber ka wie die GPU mit der CPU über den zusätzlichen 20gb/s kommuniziert und ob da eine Auslastung zustande kommt. AF braucht Bandbreite, das stimmt.
 
Das ist auf jeden Fall ein Flaschenhals für die GPU. Da wenn die CPU durch ihren Takt 2 mal ihre volle Bandbreite nimmt vor der GPU nehmen kann, so sind wirklich 40gb/s weg und die GPU muss mit 136 gb/s klar kommen. Wobei bei deinem Bild es sogar unter 120gb/s sind?? die CPU hat aber doch nur 20gb/s Schnittstelle oder nicht?? auf jeden Fall ist es ein Flaschenhals für die GPU, da die Bandbreite für die max. Leistung nicht reicht. Aber ka wie die GPU mit der CPU über den zusätzlichen 20gb/s kommuniziert und ob da eine Auslastung zustande kommt. AF braucht Bandbreite, das stimmt.

Du musst bedenken dass ein GDDR5 nur eine maximale Anzahl an Lese-und Schreibzugriffen handeln kann. Also auch wenn die CPU maximal nur 20GiB/s für sich beansprucht, kann sie mit ihren >=6 Cores ( Gamemode ) die Leistung blockieren ( stelle ich mir so vor, bitte um Berichtigung wenn ich falsch liegen sollte ).
Was der Bus zwischen CPU und GPU angeht, hier erfolg eine direkte Kommunikation in die Caches, auch für die Übergabe der Pointer. Gegenüber dem modularen PC Design erfolg dadurch natürlich eine Entlastung der Hauptbandbreite, das aber auch schon durch hUMA.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom