Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Frag mich noch immer wieso man so viel RAM mit dieser Bandbreite benötigt. Da wären 4GB GDDR5 + 8GB DDR3 die bessere Wahl.
 
4GB GDDR5 sind schon super, aber wenn es dann 8GB GDDR5 werden, dann wäre das ein Traum. Glauben mag ich es aber noch nicht.

Ich hab auch meine Zweifel, aber es wäre natürlich volle Breitseite :o
Vielleicht wird es ja noch was mit dem stacket Memory, aber mit DDR3. Mit einen 1024bit Bus könnte man so auch die veranschlagte Bandbreite erreichen.
 
Besser wäre die Kohle, für 4 GB zusätzlichen GDDR5, in eine bessere GPU investiert.
 
Die glaube im EDGE Artikel gings nur darum, dass Sony durch die Erhöhung auf 4GB mit den 8GB in der X3 konkurrieren möchte und nicht um die Erhöhung auf 8GB. Das wäre schon bissl heftig. Schon 6 wären krass, aber 8GB GDDR5...no Way

Edit: Wenn wir schon dabei sind, wie wäre es mit 8GB XDR2 Ram? Würde jetzt auch nicht viel mehr kosten. :)

http://www.rambus.com/in/technology/solutions/xdr2/index.html

Edit 2: Ach komm, noch mal auf Sep 2014 verschieben und direkt das Ding bomben.

PPC7+9970+8GB XDR2 Ram => Epic Win => FIVEHUNDRETNINETYNINE $

:)
 
Zuletzt bearbeitet:
Echt jetzt? Habe ich garnet mitbekommen? Aber doch kein GDDR5 Speicher? 8 GB GDDR5 wären zu teuer, vermute ich mal.
Nein, zwei WideIO-DDR3-1600 Stacks mit 512Bit Anbindung. Alienhardware zurück im Rennen.

:kruemel:

Ich denke mal 8GB GDDR5 sind ausgeschlossen, wenn schon 8GB dann so wie ich es beschrieben habe. Hybrid Memory Cubes werden Ende 2013 ja schon in Servern verbaut, wird anfangs zwar teuer sein aber langfristig immer noch erheblich billiger als 8GB GDDR5. Vielleicht bringen sie aber auch ein sehr frühes Redesign, wer weiß. ;-)
 
Ich ergänze nochmal den Post den ich schon geschrieben habe um ein paar wichtige Fackten :-)

GCN2 und dann mal 2? Wäre neu für mich.

Das stimmt auch nicht, da hat sich Cortana ein wenig was aus der Nase gezogen. Die CUs der GCN Architektur arbeiten schon sehr effizient, da jede von ihnen einen eigenen Scheduler besitzt, der den eigenen ALUs Befehle zuteilen kann, damit keine Däumchen drehen und somit Rechenzeit verloren geht. Letzteres passierte damals immer wieder mal, wenn sich herausstellte dass bestimmte Befehle abhängig von anderen sind und somit ALUs warten mussten, bis andere mit einen Befehl fertig sind.

Hier mal was interessantes zu den FLOP Vergleichen, vergleichen werden AMD GPU mit VLIW und GCN Architektur:

Wie bereits auf der vorherigen Seite betrachtet, ist der grundsätzliche Chip-Aufbau der Radeon HD 7770 sehr ähnlich zu dem der Radeon HD 5770. Beide Chips verfügen über 10 Shader-Cluster (Compute Units bei der HD 7770, SIMD-Engines bei der HD 5770), an welche in beiden Architekturen jeweils eine Quad-TMU gekoppelt ist. Aufgrund dessen ist auch die Anzahl an Texturierungseinheiten für beide Modelle identisch. Zudem verfügen beide Designs über 4 ROP-Partitionen (16 ROPs) und zwei 64-bit-Speichercontroller und somit über 128 Speicherinterface.

Der wesentliche Unterschied zwischen der Radeon HD 7770 und der Radeon HD 5700 liegt somit im unterschiedlichen Aufbau der Shader-Cluster. Die Ähnlichkeit der beiden Chips wollen wir im Folgenden ausnutzen um Rückschlüsse zu ziehen, welche Vorteile die neue skalare GCN-Architektur (Radeon HD 7700) im Vergleich zum VLIW5-Design der Radeon HD 5770 bringt. Hierzu soll der folgende taktnormierte Vergleich zwischen Radeon HD 7770 und Radeon HD 5770 dienen.

Durch die Taktgleichheit verfügen beide Modelle über eine identische Texturierungsleistung, Speicherbandbreite und Pixelfüllrate. Durch die geringere Anzahl an Stream Prozessoren kommt die Radeon HD 7770 im taktnormierten Vergleich jedoch auf eine 25 Prozent niedrigere Rechenleistung.

Trotz der 25 Prozent niedrigeren Rechenleistung kann sich die GCN-Architektur in den meisten Benchmarks deutlich von dem VLIW5-Design absetzen. Die schlechtesten Ergebnisse erzielt die GCN-Architektur in Dragon Age 2 und Dirt 3, wo das erneuerte Architektur-Design die 25 Prozent niedrigere Rechenleistung "nur" egalisieren kann. Besonders gut scheinen der GCN-Architektur hingegen Battleforge, Mafia 2 und der GPGPU-Benchmark Luxrender zu liegen. Hier kann das GCN-Design die niedrigere Rechenleistung im taktnormierten Vergleich nicht nur ausgleichen, sondern sogar durch ein Performance-Plus von 25-35 Prozent herausstechen.

Quelle: http://ht4u.net/reviews/2012/amd_radeon_hd_7700_test/index4.php

Also trotz 25% weniger FLOPS schafft die GPU mit GCN Architektur bis unter 37% mehr Frames.
Orbis und Durango werden nach Gerüchten auf die Southern Island Architektur setzen, Southern Island ist GCN, gibt es auch nur in 28nm.
Die GPU der WiiU basiert auf irgendeiner AMD der Serie HD4***/5***, ist also VLIW. Kann sich also jeder Ausmalen was hier 400GFLOP bei WiiU gegen 1800GFLOP bei Orbis aussagen :D
Ganz interessiert sollten unsere Nler den part mit GPGPU lesen :-)
 
wisegamers-forza-motorsport-4-1.jpg


5z0Ex-1024x576.jpg


Freue mich schon auf Nextgen Rennspiele. Evtl. sehen die dann so gut aus wie der Photomode von GT5 oder Forza4 :awesome:
 
Die GPU der WiiU basiert auf irgendeiner AMD der Serie HD4***/5***, ist also VLIW. Kann sich also jeder Ausmalen was hier 400GFLOP bei WiiU gegen 1800GFLOP bei Orbis aussagen :D
Ganz interessiert sollten unsere Nler den part mit GPGPU lesen :-)
Ist das denn Fakt? Sind endlich wirklich offizielle Fakten zur GPU bekannt? 400 FLOPs wäre wenig...
 
Ist das denn Fakt? Sind endlich wirklich offizielle Fakten zur GPU bekannt? 400 FLOPs wäre wenig...
Kannst ja 15Gflops/Watt annehmen bei der Fertigung, also wären das um die 25W für die GPU wenn sie 400Gflops hätte. Und die WiiU als Gesamtsystem verbraucht wies aussieht beim Spielen ja um die 30W.
 
Kannst ja 15Gflops/Watt annehmen bei der Fertigung, also wären das um die 25W für die GPU wenn sie 400Gflops hätte. Und die WiiU als Gesamtsystem verbraucht wies aussieht beim Spielen ja um die 30W.

600GFLOPs wird das Ding schon haben. Nicht umsonst spricht Nintendo immer von einer "unglaublich guten power consumption" ;)
 
Bei 600GFLops würden die Multititel auch nicht so abfallen, selbst bei nicht so effizienter Programmierung. Das wär dann schon noch einiges besser als PS360 und gut genug, um sowas auszugleichen.
 
600GFLOPs wird das Ding schon haben. Nicht umsonst spricht Nintendo immer von einer "unglaublich guten power consumption" ;)

Die gpu wurde letztendlich auch nur von ati entwickelt, und keiner deren Chips hat eine dermaßen perfektes watt\leistungs Verhältnis......wenn amd das könnte, hätten es ihre high ende Chips schon lange ;)

Bitte nicht immer so unrealistisch träumen.
Es nervt wirklich wenn man euch Fakten vorlegt und ihr dann die Augen davor verschließt.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom