Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Die 2 Ram Einheiten kombinieren nicht eben ihre Ramgeschwindigkeit und werden so schnell wie das andere, und darum hat es keinen Sinn sie zusammen zu addieren und das macht man auch nicht, weil sie keine Gleichwertigen Lösungen sind siehe Locuza beispiel. Wie kann man irgendetwas addieren das nicht in keinsterweise in der praktischen Anwendungen addiert wird?

Das ist höchstens gut um Leute zu blenden wie bei der Microsoft Präsentation.
Wenn der Cache groß genug ist, doch praktisch schon. Man kann mit relativ kleinen Caches Hitrates von >90% erreichen. Wenn du den Hauptspeicher nur selten benutzt wird die Bandbreite zum Cache der dominante Leistungsfaktor. Du kannst solche Hitrates selbstverständlich nicht garantieren (und ein Verdopplung der Cachegröße bringt ab einem gewissen Punkt praktisch nichts mehr) aber die 176GB/s des GDDR5 werden in der Praxis auch nicht erreicht, kein Speichercontroller arbeitet perfekt.

Eine gewisse Menge on-chip Cache oder ein großes Scratchpad sind schon enorm sinnvoll, gerade in einer Konsole. Bei einigen Workloads wird die Xbox One Lösung sogar schneller sein weil SRAM nun einmal mit mehreren Zugriffsmustern relativ gut zurecht kommt als GDDR5. Single-cycle Latenz ist für einige Compute-Tasks auch nicht gerade unvorteilhaft. Das einzige Problem an der Xbox gegenüber der PS4 ist die arithmetische Leistung, an der Speicherhierarchie kann man wenig kritisieren.
 
Dieser Unsinn, mit der Addition der Bandbreite von zwei verschiedenen Speichertypen, wird immer noch diskutiert? Haben wir wieder Ende Februar, oder was?
Wenn du auf 2 Speicher gleichzeitig schreiben und lesen kannst, dann addiert sich doch lopgischerweise die Bandbreite.

Stell dir vor du hättest 2 parallele Internetverbindungen mit jeweils 10Mbits und 100Mbits. Dann könntest du ja mit insgesamt 110Mbits Daten runterladen.
 
Und wie willst du das bewerkstelligen mit den 2 Leitungen für Internet? Denkst du die Datei splittet sich von selber auf, und regelt welche Leitung nun was runterladet?

Der Vergleich hinkt.
 
Wenn du auf 2 Speicher gleichzeitig schreiben und lesen kannst, dann addiert sich doch lopgischerweise die Bandbreite.

Stell dir vor du hättest 2 parallele Internetverbindungen mit jeweils 10Mbits und 100Mbits. Dann könntest du ja mit insgesamt 110Mbits Daten runterladen.

blödsinniger vergleich. Hier gehts darum einen schnellen zwichenspeicher zu haben, also einen der zwichen cpu/gpu und dem 'normalen' ram geschaltet ist und somit teilaufgaben schneller vermitteln kann. da einfach zu addieren ist vollkommener käse. man lässt somit dinge die schnelle abhandlung benötigen über den schnellen zwichenspeicher laufen und andere dinge wie texturen etc. werden auf dem beim laden ausgelagert.

Durch diese zwichenspeicher kann man niedriegen bandbreiten der 'normalen' rams sehr gut entgegenwirken´, allerdings ist hier der aufwand auch größer das ganze so zu optimieren um eine hohe leistung zu erzielen. im endeffekt kann man damit bessere ergebnisse liefern als mit reinem 'normalram' anschluß. Zumindest in der theorie, in der theorie war der cell acuh der beste prozessor, bringt aber nix wenn nur wenige sich die mühe machen das auch ordentlich zu nutzen. Einfacher für coder ist eine simple struktur und den verlust gleicht man dann durch masse aus, wie bei der ps4 z.b.

beide herangehensweisen sind legitim.
 
Ich finde die Technik in der PS4 durchdachter :ol:

Simpler, sie sind genau in die entgegengesetzt richtung wie bei der ps3 gegangen. Durchdacht sind auch die anderen systeme. und rein theoretisch ist die schneller zwichenram lösung eindeutig effizienter als der ps4 ansatz, benötigt aber eben mehr arbeit.
 
Theoretischer Crap.

Wie kann man so bad vergleichen und dann noch sogar den Mut haben einen besseren Vergleichsmaßstab 2 mal im Test zu erwähnen.

was erwartest du von Leadbetter, der vogel macht die letzten monate nur noch crap artikel :shakehead:

Er veröffentlicht erst vor nem halben jahr oder so nen artikel das ihm wieder eine seiner geheimen quellen geflüstert hat ,das die ONE eher ne 7790 anstatt ne 7770 (was ich ja wenigstens hoffe das es stimmt, da die ONE dann wenigstens 4ACEs hätte und 32 CQ also nur noch die hälfte weniger als die PS4)
aber dann nimmt er für diesen artikel ne 7850 für die ONE die eigentlich eher der PS4 entspricht (PS4 GPU hat nur 2CUs mehr und ne höhere Bandwidth also ~7870) und für die PS4 nimmt er dann die 7870XT. :ugly:
auch wenn er damit die vorteile in einem geschlossenen system und bandwidth simulieren will trotzdem etwas fail IMO denn den doppelten ROPs vorteil der PS4 brücksichtigt er ja dann auch nicht mehr oder die mehr ACEs.

wenigstens kommt er zum entschluß das die PS4 bei multigame im durchschnitt 25% performace vorteile haben wird.
Sogar wenn devs die auflösung aus 1776X1000 drosseln würden bei der ONE hätte die PS4 laut ihm noch nen FPS vorteil, erst wenn die ONE mit ner 1600x900 auflösung bei multigames im gegensatz zu 1080p bei der PS4 fäht, würde sie gleich ziehen bzw. ein paar FPS mehr haben.
Das entspricht ja etw dem was einige von uns hier schon länger prophezeien das ONE games öfter mal in sub FullHD auflösung laufen könnten um aufzuschliessen oder halt wie am PC die deteils runtergefahren werden (Very High vs High)
Nur fehlen halt bei dem test noch die andern von mir vorhin angesprochenen vorteile der PS4 GPU die sich im laufe der gen auch noch positiver bei grafik berechnungen vorallem bei GPGPU auswirken werden.

Ihr könnt mich gerne korrigieren jungs, denn einige von euch kennen sich noch etwas besser mit der materie aus als ich ;)
 
Zuletzt bearbeitet:
Wenn du auf 2 Speicher gleichzeitig schreiben und lesen kannst, dann addiert sich doch lopgischerweise die Bandbreite.

Stell dir vor du hättest 2 parallele Internetverbindungen mit jeweils 10Mbits und 100Mbits. Dann könntest du ja mit insgesamt 110Mbits Daten runterladen.
Die Sache ist bloß das du den Split effizient managen musst und ebenso durch die 32mb limitiert bist.
Wenn ich hinschreibe die Xbox One hat über 250 GB/s wäre das selbst in einem groben Vergleich relativ unbrauchbar.
Wo man praktisch landen wird, will ich nicht einschätzen, aber die Idee alles zu addieren halte ich für schwach.

Er veröffentlicht erst vor nem halben jahr oder so nen artikel das ihm wieder eine seiner geheimen quellen geflüstert hat ,das die ONE eher ne 7790 anstatt ne 7770 (was ich ja wenigstens hoffe das es stimmt, da die ONE dann wenigstens 4ACEs hätte und 32 CQ also nur noch die hälfte weniger als die PS4)
aber dann nimmt er für diesen artikel ne 7850 für die ONE die eigentlich eher der PS4 entspricht (PS4 GPU hat nur 2CUs mehr und ne höhere Bandwidth also ~7870) und für die PS4 nimmt er dann die 7870XT. :ugly:
auch wenn er damit die vorteile in einem geschlossenen system und bandwidth simulieren will trotzdem etwas fail IMO denn den doppelten ROPs vorteil der PS4 brücksichtigt er ja dann auch nicht mehr oder die mehr ACEs.

wenigstens kommt er zum entschluß das die PS4 bei multigame im durchschnitt 25% performace vorteile haben wird.
Sogar wenn devs die auflösung aus 1776X1000 drosseln würden bei der ONE hätte die PS4 laut ihm noch nen FPS vorteil, erst wenn die ONE mit ner 1600x900 auflösung bei multigames im gegensatz zu 1080p bei der PS4 fäht, würde sie gleich ziehen bzw. ein paar FPS mehr haben.
Das entspricht ja etw dem was einige von uns hier schon länger prophezeien das ONE games öfter mal in sub FullHD auflösung laufen könnten um aufzuschliessen oder halt wie am PC die deteils runtergefahren werden (Very High vs High)
Nur fehlen halt bei dem test noch die andern von mir vorhin angesprochenen vorteile der PS4 GPU die sich im laufe der gen auch noch positiver bei grafik berechnungen vorallem bei GPGPU auswirken werden.

Ihr könnt mich gerne korrigieren jungs, denn einige von euch kennen sich noch etwas besser mit der materie aus als ich ;)
Nun die Xbox One GPU ähnelt in der Hinsicht mehr einer 7790, da hier ein "doppeltes Front-End" vorliegt und nicht nur eins wie bei Cape Verde. Dafür wurden aber Takt und CUs gerupft.

Das mit den ACEs ist eine interessante Sache, würde gerne die Auflösung später erfahren.

Bei dem Vergleich hat die fiktive PS4 GPU auch nur 25% mehr TMUs, in Wahrheit sind es aber 50%.
Das mit dem ROPs könnte allerdings gar nicht so ein großer Nachteil sein, wenn man den eSRAM für den Render-Output missbraucht könnten vielleicht sogar ähnliche Ergebnisse erzielt werden beim Durchsatz.
Gipsel meinte für die 32 ROPs hätte die PS4 vermutlich sowieso nicht die nötige Bandbreite.

Mh noch so eine Sache, sie verwenden Tahiti LE.
Ich würde mal meinen die Work-Distribution funktioniert besser, je weniger ALUs da sind.
Hier könnten paar Skalierungspunkte verloren gehen.
 
Gipsel meinte für die 32 ROPs hätte die PS4 vermutlich sowieso nicht die nötige Bandbreite.

Ich weiß noch das als damals sveetwar26 das Sony PDF von 2010 geleakt hat mit den ganzen target angaben zur PS4, unter den hauptzielen bei der entwicklung neben 10xPS3 performance auch 3D gaming in 1080p pro auge so wie Filme in 3D mit echter 4k auflösung stand.
Und als dann bekannt war das sie 32 ROPs haben wird, meinte ein angesehener user aus dem B3D das für das 4K 3D usw. Sony die doppelten ROPs gebraucht hat.
weiß nicht wie plausiebel das ist da ich mich mit der erfordelichen performance vom 3D gaming/TV schauen nicht aus kenne, aber im GAF unterstützten einige damals diese aussage.
Hab das auch ende letzen jahres mal in diesem thread geposte.
 
Nur fehlen halt bei dem test noch die andern von mir vorhin angesprochenen vorteile der PS4 GPU die sich im laufe der gen auch noch positiver bei grafik berechnungen vorallem bei GPGPU auswirken werden.
GPGPU wird sich in dem Maße, wie die PS4 darauf ausgelegt ist, nicht schnell genug durchsetzen, um wirklich das volle Potenzial direkt gegen den PC nutzen zu können. Das hat sogar der Lead Architect Mark Cerny selber gesagt:

"Als Fazit dieser Aussagen bleibt, dass die Kommunikation zwischen GPU, CPU und dem gemeinsamen Speicher wohl deutlich schneller abläuft als auf heutigen PCs und auch der Grafikchip zumindest in Sachen paralleler Berechnungen von Effekten oder anderen Aufgaben mehr Möglichkeiten bietet. Was die Entwickler letztlich daraus machen, wird sich zeigen müssen. Reine PC-Umsetzungen auf die PS4 werden zwar in Wochen statt Monaten möglich sein, aber die zusätzlichen Fähigkeiten kaum benötigen. Bis das laut Cerny dann im Jahr 2015 oder später der Fall ist, könnten PCs mit Grafikchips wie Nvidias Maxwell und DDR4-RAM auch die besonderen Fähigkeiten der PS4 schon wieder hinter sich gelassen haben, bevor diese dort wirklich genutzt werden."
http://www.gamestar.de/hardware/news/konsolen/3011630/playstation_4.html
 
GPGPU wird sich in dem Maße, wie die PS4 darauf ausgelegt ist, nicht schnell genug durchsetzen, um wirklich das volle Potenzial direkt gegen den PC nutzen zu können. Das hat sogar der Lead Architect Mark Cerny selber gesagt:

"Als Fazit dieser Aussagen bleibt, dass die Kommunikation zwischen GPU, CPU und dem gemeinsamen Speicher wohl deutlich schneller abläuft als auf heutigen PCs und auch der Grafikchip zumindest in Sachen paralleler Berechnungen von Effekten oder anderen Aufgaben mehr Möglichkeiten bietet. Was die Entwickler letztlich daraus machen, wird sich zeigen müssen. Reine PC-Umsetzungen auf die PS4 werden zwar in Wochen statt Monaten möglich sein, aber die zusätzlichen Fähigkeiten kaum benötigen. Bis das laut Cerny dann im Jahr 2015 oder später der Fall ist, könnten PCs mit Grafikchips wie Nvidias Maxwell und DDR4-RAM auch die besonderen Fähigkeiten der PS4 schon wieder hinter sich gelassen haben, bevor diese dort wirklich genutzt werden."
http://www.gamestar.de/hardware/news/konsolen/3011630/playstation_4.html

Ich denke das bestreitet hier niemand, doch hier gings halt drum welche konsole schneller die puste aus geht ;)
Cerny hat ja schon öffter betont das die PS4 extra so designt wurde das devs auch noch 2016 und weiter immer wieder neues potential entdecken mit dem sie die grafikleistung noch weiter pushen können.
Auch wenn sich die meiste mühe eh wieder nur first Party studios machen werden.
 
Es wird wie jetzt bis zum Ende der Gen keine signifikanten Unterschiede geben, und wenn, dann nur bei 1st Party Titel. Und die kann man an einer Hand abzählen. 2016 ist der PC dann sowieso schon wieder so weit voraus dass Grafik-Liebhaber und Technik-Freaks fast nur darauf zocken. Daran wird auch GPGPU, HSA oder Shared Memory nix ändern. Die Ausdrücke erinnern mich immer an "Blast Processing" vom Mega Drive, auch wenn hier natürlich mehr dahintersteckt. :lol:
 
Sehen die Sony schon wieder ihre Performancefelle hinwegschwimmen nur weil ein Vergleich von PC-Hardware mit grob dem gleichen Leistungsunterschied zu dem Schluss kommt das sich 50% Mehrleistung am Ende "nur" auf einen Leistungsvorteil von etwa 20-25% auswirken dürfte?
Meint ihr echt es wird viel anders laufen?
Wird es eher nicht. Performance steigt nun mal nicht linear mit der Leistung und das Viertel mehr an Frames ist durchaus realistisch.
Und es wird auch (gerade bei Multititel) wieder nur marginale Unterschiede geben, wie auch schon diese Gen, wo btw sogar die eigentlich schwächere Konsole praktisch immer die Nase vorn hatte.
Ohnehin ein wenig unbegreiflich warum gerade die Sonys jetzt so auf der Grafikwelle reiten müssen....PS1 war kein Monster, die glorreiche PS2 war nur wegen der Dreamcast nicht letzter und wieviele Titel kann die PS3 vorbringen um zu beweisen das die 360 nicht doch mehr Rechenpower hat? Ich komm auf 3!
Und hat es euch echt so arg gestört? Nein! Und das wird es auch die anderen nicht tun!
Ist eben scheissegal ob die Kiste jetzt 35 oder 42 Frames bringt, oder die eine oder andere Textur etwas weniger scharf ist, solange das Gesamtergebnis und ganz vorneweg das Spieleerlebnis passt.
 

also die montalaar, im endeffekt gibts nen leistungsunterschied der ca bei 600 gflpos liegt.
wieviel man davon sieht kann noch nicht gesagt werden...

nur wenn man sich ansieht wieso ms die letzten beiden gens fans sammeln konnte und das sogar trotz rod, finde ich es schon bedauerlich dass man diese pfade verlässt und ne schwächere werbekonsole für 100 $ mehr anbietet.

aber gut jedem die seine ^^
 
Sehen die Sony schon wieder ihre Performancefelle hinwegschwimmen nur weil ein Vergleich von PC-Hardware mit grob dem gleichen Leistungsunterschied zu dem Schluss kommt das sich 50% Mehrleistung am Ende "nur" auf einen Leistungsvorteil von etwa 20-25% auswirken dürfte?

Ich glaube jeder der sich etwas aus kennt weiß das sich eine 50% stärkere GPU nicht in 50% mehr game performance wieder spiegelt :ugly: was meinst du warum ich "wenigstens kommt er zum entschluß" geschrieben habe.
Ich habe schon genug Grafik karten generationen mit gemacht, das man mir das nicht sagen brauch das fps nicht mit der anzahl an flops steigen.
Meine rede war schon lange das 50% mehr GPU leistung + bandwidth vorteil ~30% mehr leistung bringen können bei der PS4.
In paar jahren sehen wir ob ich richtig liege oder nicht :nix:
Es heist die PS3 kommt wenn man sie voll ausnutzt auf 25% mehr leistung auf dem bildschirm und ich denke das es bei der PS4 leicht drüber seien kann.
 
kann ich jetzt nicht ganz nachvollziehen iwie oO
ein auto mit 200ps ist zwar nicht unbedingt auch gleich doppelt so schnell wie eines mit 100, aber es hat die doppelte leistung und schafft dann auch einen berg hoch zu fahren mit weit mehr beladung..

wenns richtig genutzt werden würde wäre auch ein sli verbund genau doppelt so stark wie die jeweils einzelne karte, aber leistungszuwächse von 90% hab ich schon öfter gesehen bei benchmarks...
konsolen werden optimal ausgereizt, im gegensatz zum pc, also sollte das doch dann auch tatsächlich entsprechend auswirken, dass die ps4 min 50% stärker ist...
 
Konsolen werden sicher besser ausgereizt als ein Gaming-PC, aber "optimal" ganz sicher nicht. Wenn, dann erst in ein paar Jahren. 99% der Entwickler müssen jetzt mal lernen die Devkits richtig zu beherrschen, und die Ressourcen so zu verteilen dass ein gutes Ergebnis rauskommt. Im Vergleich zum PC muss man nämlich trotz moderner Architektur auf jede Menge Rohleistung verzichten. In dem Punkt sind PS4 + Xbone ca. auf dem Stand von einem 2012er Mittelklasse-Rechner.
 
Das Problem ist eigentlich eher, dass man mit mehr Power nicht viel bessere Ergebnisse hinkriegen kann. Crysis 3 z.B. sieht auf Low fast so gut aus wie auf max. :ugly:
 
Crytek sind jetzt nicht gerade DIE Optimierungs-Götter, und die Engine skaliert beim dritten Teil bei weitem nicht so gut wie z.B. bei Crysis 1. Die meiste Leistung verbrauchen sowieso SSAA, HDAO, Downsampling und diverse Sunray/Lighting-Effekte. Am PC kann man quasi ein nahezu perfekt ruhiges, und geglättetes Bild bekommen. Das wird man auf einer Konsole nie haben, weil die Ressourcen für Effekte und Auflösung draufgehen. Ich hoffe nur dass bei PS4 und Xbone dieses unsägliche Tearing endlich der Vergangenheit angehört, denn davon bekommt jeder Mensch mit voller Sehkraft Kopfschmerzen...
 
Interessante Grafik

sc001.jpg
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom