Xbox One Der Xbox One Thread

  • Thread-Ersteller Thread-Ersteller finley
  • Erstellungsdatum Erstellungsdatum

Wrdet ihr euch den XBOX360 Nachfolger kaufen?

  • Ja, mich hat die XBOX360 berzeugt!

    Stimmen: 198 70,2%
  • Nein, ich bin von der XBOX360 enttuscht!

    Stimmen: 29 10,3%
  • Vielleicht!

    Stimmen: 55 19,5%

  • Stimmen insgesamt
    282
  • Poll closed .
Status
Nicht offen für weitere Antworten.
Hmm was mich wundert ist eigentlich warum weder AMD noch NVIDIA in ihre Grakas keinen Edram oder Esram einbauen.
Kann doch ned sein das ms hier eine "Lösung" findet und die größten GPU Hersteller lieber immer auf mehr Bandbreite und schnelleren Speicher setzen . Bei grafikkartenpreisen um die 300€ wäre doch Esram günstiger mit 4gb DDR 3 anstatt ddr5 oder 256bit statt 384bit Bus
Macht sowas auf einer pc Graka denn garkeinen Sinn?
dann müsste man erstmal sachen am directx api ändern.
 
Ausserdem glaube ich kaum, dass sowas in einem offenen System wirklich funktionieren könnte.
 
Ausserdem glaube ich kaum, dass sowas in einem offenen System wirklich funktionieren könnte.

Genau das ist der Punkt.
Entwickler müssten noch mehr unterschiedliche Konfigurationen berücksichtigeen. Karten mit und ohne eDRAM. Unterschiedliche eDRAM Größen würden da ihr übriges zur Verkomplizierung beitragen.
 
Genau das ist der Punkt.
Entwickler müssten noch mehr unterschiedliche Konfigurationen berücksichtigeen. Karten mit und ohne eDRAM. Unterschiedliche eDRAM Größen würden da ihr übriges zur Verkomplizierung beitragen.
Ich zitiere da immer gerne Coda:

Es ist teilweise erschreckend wie wenige Paper es über Compute auf GPUs für gewisse Dinge (diamond search z.B.) gibt. Da gibt's noch ne ganze Menge zu lernen, auch ohne neuartige Architekturen. Die SoCs in den Konsolen können Dinge, die selbst der stärkste PC nicht bewerkstelligen kann weil es keine Frage von unterschiedlichen Rechenleistungen ist, sondern von Architekturen. Am PC hat man zwar viel mehr Leistung aber noch immer eine ziemlich rückständige Architektur und das wurde in den letzten Jahren eher schlimmer als besser. Irgendwie neuartig sind die Konsolen also doch, kaum jemand programmiert am PC für Fusion.

Selbst wenn die Devs schneller alle sinnvollen Plattform-spezifischen Optimierungen durch haben, dann bleibt noch immer mehr Zeit für Dinge wie die Skybox in Destiny oder die Vegetation in Crysis 3. Nach 8 Jahren findet man noch immer Möglichkeiten den Eindruck eines Spiels erheblich zu verbessern, über Wege die nichts mit close-to-the-metal Programmierung zu tun haben. Die Renaissance der grafischen Entwicklung weckt neue Geister. Nintendo bleibt einstweilen im Mittelalter.

:-D
 
Did i read one fast memory-pool, unified adress-space, low-level-api for the whole featureset of gcn? :-)
 
Genau das ist der Punkt.
Entwickler müssten noch mehr unterschiedliche Konfigurationen berücksichtigeen. Karten mit und ohne eDRAM. Unterschiedliche eDRAM Größen würden da ihr übriges zur Verkomplizierung beitragen.

Vielleicht liege ich ja falsch, aber es ist doch eigentlich so das die RAM auf der Grafikkarte direkt von der GPU angesprochen wird. Dann würde dieses System eigentlich keinen Sinn machen, außer man verbaut zu langsamen RAM und der Preis bei High End karten spielt dann auch keine rolle mehr für guten RAM.
Bei den Konsolen muss sich aber die Bandbreite zum RAM die CPU und GPU teilen. Um den Datenfluss zum RAM zu minimieren nimmt man einfach dieses eDRAM als kleinen cache.
 
Vielleicht liege ich ja falsch, aber es ist doch eigentlich so das die RAM auf der Grafikkarte direkt von der GPU angesprochen wird. Dann würde dieses System eigentlich keinen Sinn machen, außer man verbaut zu langsamen RAM und der Preis bei High End karten spielt dann auch keine rolle mehr für guten RAM.
Bei den Konsolen muss sich aber die Bandbreite zum RAM die CPU und GPU teilen. Um den Datenfluss zum RAM zu minimieren nimmt man einfach dieses eDRAM als kleinen cache.

Prinzipiell richtig.
Es spielt da sicherlich auch eine Rolle, was wirtschaftlicher ist. Mit eDRAM kann man den Bus von GPU zum RAM entlasten. Bei sehr leistungsfähigen Karten, auf denen man auch noch sehr viel Speicher verbaut, wäre eine eDRAM-Lösung offensichtlich günstiger.

Bei einer Konsole mit gemeinsamen Speicher sieht die Sache schon etwas anders aus.
Wenn CPU und GPU auf einen gemeinsamen Speicher zugreifen müssen steht man vor einem kleinen Dilemma

Die CPU benötigt einen Speicher, der sehr schnell auf Anfragen reagieren kann. Dafür darf die Bandbreite aber eher moderat sein.
Deshalb wird beim PC als Hauptspeicher DDR Speicher genommen. Der hat diese kurze Anfragezeit (geringe Latenz) und ist mit moderaten 20-38GB/s bei Dual-Channelbetrieb (128bit) am Bus angeschlossen.

Der GPU ist es wichtig, möchlichst viele Daten schnell in sich rein zu schaufeln. Da dieses in größeren Blöcken geschieht ist die Anfragezeit sekundär. Aber die Bandbreite muss hoch sein. Einmal angestoßen lassen sich so große Datenblöcke ohne weitere Anfrage und damit latenzfrei in die GPU schaufeln, bis sie durch eine CPU Anforderung unterbrochen wird oder ein anderer Datenblock gelesen werden muss. Deshalb nimmt man GDDR Speicher, da der genau diese Anforderung erfüllt, und erhöht auch noch die Datenbusbreite. So kommt man je nach Konfiguration auf Bandbreiten von 150-288GB/s zur Zeit bei aktuellen Gamer-GPU-Karten.

Was macht man aber nun, wenn man einen gemeinsamen Speicher hat?
Nimmt man nur DDR Speicher ist die CPU glücklich, aber die GPU traurig.
Nimmt man nur GDDR Speicher sieht es umgekehrt aus.

Nimmt man aber DDR3 und zusätzlich eDRAM/eSRAM sind alle glücklich :)
Die CPU bekommt ihren latenzarmen Speicher und die GPU kann mit dem eSRAM mittels hoher Bandbreite kommunizieren.
Deshalb setzt MS bei der X3 und Nintendo bei der Wii-U auf diese Kombo.
Die Wii-U kommt dabei mit einer DDR3 Speicherbandbreite von gerade mal 12,8GB/s aus, während MS der X3 durch schnelleren Speicher und breiterem Datenbus eine von 68GB/s gönnt.

Setzt man GDDR Speicher ein, muss man hier sehr schnellen Speicher nehmen um die größere Latenz einigermaßen auszugleichen. So schnell, wie mit DDR3 kann aber GDDR5 Speicher die Daten nicht bereit stellen, so dass es auf gute Cachealgorithmen der CPU ankommt, damit diese nicht durch die lange Speicheranfrage ausgebremst wird.
Natürlich trifft das auch auf DDR3 Speicher zu, da auch dieser die Daten nicht so schnell bereit stellen kann wie sie die CPU anfordern und verarbeiten könnte, nur nicht ganz so krass.
 
Zuletzt bearbeitet:
Gut erklärt konsolenbaby ,jetzt wird für mich auch ein Schuh drauss warum ms diesen weg erneut gewählt hat.
Scheint wirklich wieder eine sehr effiziente gameingmaschine zu werden.
 
i4gsRYUlweSNC.gif


autobotsballmer.gif


alwayssunnyballmer.gif
 
Zuletzt bearbeitet:
Jetzt formuliert das doch mal für Laien. Ist die MS Lösung jetzt schlechter, besser oder gleichwertig im Vergleich zur PS4? Im Hinblick auf Spiele wohlgemerkt.
 
Jetzt formuliert das doch mal für Laien. Ist die MS Lösung jetzt schlechter, besser oder gleichwertig im Vergleich zur PS4? Im Hinblick auf Spiele wohlgemerkt.

Also wenn ich das jetzt richtig verstanden habe, haben beide Ansätze, also PS4 und 720, ihre vor und Nachteile. Sie scheinen wohl aber halbwegs gleichwertig zu sein, insofern man das so runterbrachten kann!
 
Jetzt formuliert das doch mal für Laien. Ist die MS Lösung jetzt schlechter, besser oder gleichwertig im Vergleich zur PS4? Im Hinblick auf Spiele wohlgemerkt.

Sie ist in erster Linie komplizierter. Kann aber effektiver sein. Ob man daraus ein Vorteil sieht .... keine Ahnung.

Man kann aber eines ganz klar sagen, sie ist kostengünstiger und in bezug auf die gesamte Architektur "leichter zu Kühlen".

Das ganze System wie auch bei der X360 steht und fällt mit den Tools von MS und da die Erfahrung recht gross ist und die "Flaschenhälse" (unfelxibeler eDRAM und der "zu kleine" Gesamtspeicher,kein extra Sound DSP) der X360 bei der X3 anscheinend beseitigt wurden, kann man sagen, das es eine konsequente Weiterentwicklung ist.
 
Zuletzt bearbeitet:
Jetzt formuliert das doch mal für Laien. Ist die MS Lösung jetzt schlechter, besser oder gleichwertig im Vergleich zur PS4? Im Hinblick auf Spiele wohlgemerkt.

Die frage wird wohl sein was man alles mit dem Esram anstellen kann,wenn man es zb nur für 4xaa nutzt dann wäre die Variante mehr power und einfacher zu handeln wie bei der ps4 wohl die freundlichere Lösung.
Vielleicht können die Experten ja einen Ausblick geben was sich durch so einen "Cache" realisieren läßt ,und man dadurch Nachteile bei der Bandbreite wettmacht.
Ich Denk rein ohne Esram könnte man wohl dieselbe Bildqualität wie ps4 bei 720p darstellen während ps4 in 1080p laufen würde,diese 50% mehr rohpower muss sich ja in der Performance bemerkbar machen.
Inwiefern der Esram das ausgleichen kann ist auf jedenfalls spannend.
 
Die frage wird wohl sein was man alles mit dem Esram anstellen kann,wenn man es zb nur für 4xaa nutzt dann wäre die Variante mehr power und einfacher zu handeln wie bei der ps4 wohl die freundlichere Lösung.
Vielleicht können die Experten ja einen Ausblick geben was sich durch so einen "Cache" realisieren läßt ,und man dadurch Nachteile bei der Bandbreite wettmacht.
Ich Denk rein ohne Esram könnte man wohl dieselbe Bildqualität wie ps4 bei 720p darstellen während ps4 in 1080p laufen würde,diese 50% mehr rohpower muss sich ja in der Performance bemerkbar machen.
Inwiefern der Esram das ausgleichen kann ist auf jedenfalls spannend.

Man sollte nicht den Fehler machen und den eSRAM allein als "Wunderwaffe" sehen. Genau wie bei der X360 spielt die gesamte Architektur eine Rolle!

Ehrlich gesagt erinnern nich diese Diskussionen über den RAM ein wenig an 2005 . Da hat man genauso nicht verstanden wie das gesamte System funktioniert und teils nur die einzel Komponenten verglichen.

Die Ironie dabei war und ist, dass das böse (PC) MS seit der X360 eine sehr "konsolische" Architektur verbaut und das der Vergleich mit eben PC Komponenten allein nicht ausreicht oder teils gar unpassend ist.
 
Man sollte nicht den Fehler machen und den eSRAM allein als "Wunderwaffe" sehen. Genau wie bei der X360 spielt die gesamte Architektur eine Rolle!

Ehrlich gesagt erinnern nich diese Diskussionen über den RAM ein wenig an 2005 . Da hat man genauso nicht verstanden wie das gesamte System funktioniert und teils nur die einzel Komponenten verglichen.

Die Ironie dabei war und ist, dass das böse (PC) MS seit der X360 eine sehr "konsolische" Architektur verbaut und das der Vergleich mit eben PC Komponenten allein nicht ausreicht oder teils gar unpassend ist.

Der Unterschied hierbei ist aber, dass diesmal PS4 und Durango wirklich so ziemlich die selben CPU und GPU Architekturen haben.
Wobei wohl die CPU bei Durango leicht stärker ist (204 zu 102 GFlops), die GPU bei PS4 aber deutlich stärker (1,84 zu 1,22 TFlops).
Klar weiß man noch nicht, in wie weit eSRAM, die Move Engines und die 2 Display Planes für das Spiel Vorteile bringen werden, (343i wird da sicherlich mit Halo 5 schon was tolles auf die Beine stellen können).
Aber jeder Entwickler würde wohl, zumindest vom Datenblatt her aus gesehen, 8 GB unified memory mit 176GB/s einem etwas komplexerem Memory System vorziehen.

Wie gesagt, wir müssen erstmal abwarten, in wie weit die Specs denn stimmen. Ich kann mir vorstellen, dass man bei CPU und GPU den Takt leicht erhöht hat.
Das, was mich momentan bei den Durango Specs am meisten stört, sind die 3 GB und 2 Core Reservierung fürs System und Kinect. Vor allem in Anbetracht, dass die PS4 wohl nur einen halben Kern und 1 GB fürs OS benötigt (Vermutung aus dem GAF).

Meine "Wunsch"-Specs in Bezug auf die von letzem Jahr würde wohl so aussehen:

16 Jaguar Core 1,6 GHz , da könnten ruhig 2 Cores für OS und Kinect draufgehen.
16 CUs GPU mit 0,8 - 0,9 GHz
8 GB DDR3 , wobei nur 1,5 GB für OS/Kinect
128 eDRAM ( wie gesagt, momentan weiß ich noch nicht genau, warum eSRAM besser sein soll)

Das Ganze würde wohl so um die 175 Watt verbauchen, immer noch weniger als Launch 360 und PS3.
(Die Jaguar Cores verbrauchen dabei wohl max. 40 Watt, die GPU so 120, und für den Rest noch gute 15 Watt)

Aber ich glaube, MS plant wohl 100-115 Watt.
 
ist die ps3 auf papier nicht auch deutlich stärker als die 360?

Jain, sie hatte sicherlich mehr "Flops". Beide hatten aber komplett andere Architekturen, ein Vergleich war schwierig ( führte aber zu hitzigen Diskussionen)
Aber vom RAM her war die PS3 auch auf dem Papier schlechter, ebenso bei der GPU Architektur.

Diesmal haben wir aber, wie gesagt, wirklich die selben Architekturen (abgesehen vom RAM), von daher lässt sich das Ganze auch schon vom Papier her gut vergleichen.
 
Die zwei reservierten Kerne machen mir auch angst für Kinect aber vielleicht betrifft es nur Kinect only games würde mich wohler fühlen wenn es einen eigenen cpu nützen würde aber treibt sicherlich die Eingabeverzögerung in die höhe?
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom