Xbox One Der Xbox One Thread

  • Thread-Ersteller Thread-Ersteller finley
  • Erstellungsdatum Erstellungsdatum

Wrdet ihr euch den XBOX360 Nachfolger kaufen?

  • Ja, mich hat die XBOX360 berzeugt!

    Stimmen: 198 70,2%
  • Nein, ich bin von der XBOX360 enttuscht!

    Stimmen: 29 10,3%
  • Vielleicht!

    Stimmen: 55 19,5%

  • Stimmen insgesamt
    282
  • Poll closed .
Status
Nicht offen für weitere Antworten.
1. Die Speichergröße wird kein Problem sein. Selbst wenn Sony weniger Speicher fürs OS und Hintergrundprogramme reservieren sollte als MS wäre der verbleibende Speicher mehr als ausreichend. Da gibts keine Engpässe. Die Größe reicht völlig aus, um sämliche relevanten Spieldatein im Speicher unter zu bringen. Der Rest wird auf einfachste Weise gestreamt. Damit meine ich die grundlegende Streamingmethode, die man bei fast jedem Spiel findet. Denn selbst mit 7GB Speicher passt kein Next-Gen Game komplett in den Speicher. Das dürfte wohl klar sein und ist auch überhaupt nicht notwendig.

Bei der 360 hatte man ca. 480MB für Spiele zur Verfügung. Jetzt werden es wohl minimum 5GB !! Das ist Faktor 10,5

Was das Konzept von DDR3 und eSRAM angeht habe ich mich ja auch schon mehrmals dazu geäußert.
Es ist einfach effizienter als auf eine Brute Force Methode wie bei der PS4 mit ihrem GDDR5 Speicher zu setzen.

Dann erkläre das mal und zwar genau, denn eigentlich ist die PS4 Methode "effizienter".....
Die DMEs sind doch genau nur da, um an die Effizienz der PS4 heranzukommen.

Der Rest deines Post geht auch total an meinem Post vorbei und bei 1,8 zu 1,2 von leicht stärker zu sprechen... naja.
 
Muss man alles abwarten, aber mit ner Social Media Box die schwächer als die Ps4 ist, können sie ihr kostenpflichtiges Xbox Live Gold Modell eigentlich vergessen, und/oder sie müssten sich wahrlich in Nintendos Wii-Zielgruppe begeben, im Corebereich hätten sie es sehr schwer, denn Sony delivert bis der Arzt kommt.

Eigentlich müssen sie fette Hardware verbauen, denn ich sehe kein Argument gegen die Ps4, mit Kinect und Illumiroom im Corebereich, naja is MS Entscheidung, aber ohne fette Hardware und massig Spiele wirds schwer. :neutral:

@Konsolenbaby

Mag sein, das die Multispiele das etwas relativieren können, aber letztendlich kommts auf die Masse und Qualität der Exclusivspiele an, und da wird man den Unterschied sehen, z.B. GG und ND werden keine Rücksicht auf ausreichend nehmen, da wird rausgeholt, was machbar ist, und Sony hat mit höchster Sicherheit, ne Menge Toptitel in der Mache. ;-)

Ja, aber gerade bei den Exklusivgames hat ja die PS3 aufgrund ihrer Architektur punkten können. Nur diverse Exclusivgames haben das Letze aus der PS3 raus geholt, da man hier speziell auf die PS3 Hardware zugeschnittene Engines geschrieben hat. Bei der 360 was das weniger der Fall da man hier auch ohne voll angepasste Engines schon gute Ergebnisse erzielen konnte.

Die PS4 ist aber nun so einfach zu programmieren wie die 360 oder der PC. Deshalb wird man wohl auch nicht mehr diese Unterschiede von Thirdparty Games zu Exclusivgames sehen. Denn selbst wenn sich stark auf die Hardware konzentriert wird sich das Ergebnis nicht so stark von den anderen Games unterscheiden wie noch bei der PS3.
Das ist ein gewaltiger Unterschied.
Entweder sehen also alle Games auf der PS4 sichtbar besser aus als die X3 Version oder (fast) keins.
Diese inhomogenen technischen Unterschiede dürften bei der PS4 nun zum Glück der Vergangenheit angehören.
 
Ich bin nun auf die MS Präsentation gespannt. Sony hat schon sehr gut vorgelegt.

ps. Zur ganzen Speicher Diskussion: Ob beide auf etwa gleichem Lvl sind oder PS4 etwas besser ist wird man schlicht bei den Spielen sehen müssen.
 
Eigentlich müssen sie fette Hardware verbauen, denn ich sehe kein Argument gegen die Ps4, mit Kinect und Illumiroom im Corebereich, naja is MS Entscheidung, aber ohne fette Hardware und massig Spiele wirds schwer. :neutral:

@Konsolenbaby

Mag sein, das die Multispiele das etwas relativieren können, aber letztendlich kommts auf die Masse und Qualität der Exclusivspiele an, und da wird man den Unterschied sehen, z.B. GG und ND werden keine Rücksicht auf ausreichend nehmen, da wird rausgeholt, was machbar ist, und Sony hat mit höchster Sicherheit, ne Menge Toptitel in der Mache. ;-)

die hardware wird sicherlich relative gleich sein. Es kommt dann auch auf den Preis drauf an und da wird MS sicherlich nicht über 399€/$ gehen.
Wenn Sony teuer verkauft, dann kann es schon sein das die Hardware überlegen ist. Viele Kunden interssiert das aber gar nicht und kaufen ehr nach Preis und ich selber kenne auch solche Leute. Die sehen es auch nicht als Hobby an. Die interssieren sich auch nicht für exklusive games. Die sind meisten ja eh ehr mangelware.
Man muss auch mit den Games was anfangen können. In Sachen Shootern kann Sony eh einpacken. Killzone lässt sich nämlich so bescheiden spielen. Viel zu schwerfällig. Da ist Halo meilenweit vorraus.
Man kann eh noch nicht genau sagen, welche Konsole das rennen macht. Man weiß nie wie sich die Masse verhält. MS hat aber eigentlich viel Kunden gewonnen und die Vkzs sind insgesamt recht gut.
Sehe das ganz noch nicht so eng. Werde mir wohl eh wieder ne Xbox holen und nebenbei irgendwann nen neuen gaming PC bauen. Bis dahin reicht mein jetztiger noch aus.
 
Entweder sehen also alle Games auf der PS4 sichtbar besser aus als die X3 Version oder (fast) keins.

Aus marktwirtschaftlichen Aspekten raus kann man wohl davon ausgehen das bei fast gleich sein werden. Warum sollte man mehr investieren, wenn man das spiel auch so verkaufen kann. Kann mir gut vorstellendas die UE eben für beiden programmiert wird und dann einfach genutzt wird ohne groß anzupassen.
Für uns Zocker eigentlich besser wenn sich beide Geräte sehr ähnlich sind. Auch wenn das die Fanboys nicht wahrhaben können. Was multititel betrifft kann man sich nie für das falsche Geräte entscheiden.
 
Dann erkläre das mal und zwar genau, denn eigentlich ist die PS4 Methode "effizienter".....
Die DMEs sind doch genau nur da, um an die Effizienz der PS4 heranzukommen.

Der Rest deines Post geht auch total an meinem Post vorbei und bei 1,8 zu 1,2 von leicht stärker zu sprechen... naja.


Sonys Ansatz, GPU mit gemeinsamen GDDR5 Speicher zu verbauen, ist die Brute Force Methode.
GDDR5 Speicher ist gut für die GPU aber weniger gut für die CPU.
Dazu ist er eben auch wesentlich teurer als DDR3 Speicher. Und da sowohl das OS als auch die normalen Programme keinen Nutzwert von GDDR5 Speicher haben sondern eher einen Nachteil, ist der hierfür reservierte Speicher eben eine Verschwendung.

Das ist aber natürlich die Crux von gemeinsamen Speicher.

Die 360 setzt ja auch auf GDDR Speicher (hier GDDR3 Speicher).
Die X3 aber nun auf DDR3. Warum ?

Nun, DDR3 Speicher gabs damals noch nicht. DDR2 Speicher war aber nicht ausreichend auch, weil das eDRAM noch nicht so flexibel war wie das eSRAM der X3. Also hat man sich für GDDR3 Speicher entschieden.

Das Konzept der X3 sieht jetzt aber DDR3 Speicher mit einem 256bit Speicherinterface vor. Das ergibt die 68GB/sec.
Kein PC hat diese Speicherbandbreite, da der PC Speicher maximal mit 128bit (Dual Channel) angeschlossen ist.
Die höchste PC Hauptspeicherbandbreite beträgt somit 34GB/s, da die X3 den schnellsten DDR3 (höchste Taktfrequenz) Speicher nutzt, den es zur Zeit gibt.

Also ist die Speicherbandbreite von 68GB/s an sich schon nicht so schlecht. Selbst viele Mittelkasse GPUs werden mit DDR3 Speicher ausgestattet. Aber für ein System wie die X3 wäre diese Bandbreite natürlich nicht ausreichend weshalb hier das eSRAM ins Spiel kommt. Und das dient eben als Framebuffer und schneller Zwischenspeicher und liefert die noch fehlende Bandbreite.

DDR3 Speicher hat wie erwähnt Vorteile bei der Latenz. Und das ist gerade bei CPU Zugriffen ein Vorteil.
Vor allem greift die CPU eben nur mit 64bit auf den Speicher zu. Da nutzen die 256bit des X3 DDR3 Rams nix und erst recht nicht die 512bit der PS3 um Zugriffe zu beschleunigen.
Aber das DDR3 Ram kann viel schneller die Daten aus dem Speicher an die CPU senden während die CPU der PS4 noch auf die Daten des GDDR5 Rams warten muss.

Somit ist die Kombo DDR3 plus eSRAM theoretisch einfach effizienter. Wie das in der Praxis aussehen wird, bleibt natürlich abzuwarten :)
 
Somit ist die Kombo DDR3 plus eSRAM theoretisch einfach effizienter. Wie das in der Praxis aussehen wird, bleibt natürlich abzuwarten :)

Für die CPU ist das effizienter dank Latenz-Vorteilen, mehr nicht.

die 32MB als Framebuffer halte ich für ziemlich schlecht. 1080p, FP16 und MRTs bringen wohlen den Speicherbedarf deutlich über 32MB, ja ich behaupte mal auch deutlich über 64MB.
Die Bandbreite des eSRAM ist nicht die Welt, reicht wohl für die ROPs der GPU.

Wie es aussieht, wird der eSRAM aber eben NICHT als Framebuffer verwendet, MS empfiehlt in den offiziellen Dokumenten das Rendern in den DDR3-Ram.
Im Umkehrschluss bedeutet das wohl, dass der eSRAM als eine eine Art weiterer Cache für Texturen und Shader Daten dient. Das bedeutet, dass nun weiteres kostspieliges Trasnferieren der Daten von DDR3-Ram in eSRAM vollzogen werden muss.
Müsste das die GPU selbst machen, wäre das wohl ein ordentlicher Leistungsverlust.
Deswegen hat MS eben die DMEs in ihrer Hardware, die parallel zur GPU die Daten transferien.
Die GPU bzw. Shader können somit immer auf den Daten des eSRAM arbeiten und müssen nicht selber auf den DDR3-Ram zugreifen.
Klingt toll, blos kann die GPU der PS4 auch direkt auf die Daten der GDDR5 Speicher zugreifen (und beim Rendering ist Latenz wie schon erwähnt unwichtig ;) ) und die GPU kann auch dauerhaft "arbeiten".

(Übrigens gibts die DMAs in jeder AMD GPU, dienen ganz einfach dafür die Daten vom MainRAM in die Caches zu befördern, hat die PS4 also auch "Move Engines" in kleineren Ausmaßen)

Beim Rendering ist die Lösung der Ps4 einfach "besser", simpler und für Entwickler ganz sicher bevorzugt ;)
 
Also wenn man es streng genommen sieht, ist doch die Durango-Architektur eher noch "Konsolentypischer" als die der PS4 welche m.M.n eher in die "PC Ecke" driftet.

Auch verstehe ich Deine Frage nicht, warum MS sich für eSRAM entschieden hat? Ganz einfach um eine hohe Bandbreite & Bearbeitungsgeschwindigkeit samt Auslagerung zu ermöglichen. Die Latenzprobleme hat nicht der GDDR3 sonder der GDDR5. Man darf hierbei nicht vergessen, das Sony was den Arbeitsspeicher betrifft nachziehen musste um überhaupt ranzukommen was man bei der X3 vermutet.

Auch das CPU Upgarde kann aus der Sicht der ganzen Durango- Architektur erst recht auch der GPU zugutekommen ähnlich wie es bei der X360 schon der Fall ist.

Ich gehe jedenfalls stark davon aus, dass auch die GPU alles andere "Standard" sein wird und ebenfalls natlos auf die anderen Komponenten angepasst sein wird.
Im Grundegenommen geht MS zumindest was man bisher hört rein von der Architektur her einen X360 ähnlichen Weg und das kann am Ende genauso Überzeugen wie es die X360 schon getan hat :-)


Was die Speicherreservierung des OS betrifft, ist das momentan mein "einziges" grosses Fragezeichen.
Also entweder ist es bedeutend weniger als die Leaks es posaunen oder wenn es stimmt dann steht die große Frage FÜR WAS????

MS hat bei der X360 eine super Memorymanagement auf die Beine gestellt da kann ich kaum glauben, dass man es für simpele Multimediagedöns braucht.

Also wenn das stimmen sollte, muss das schon ein "heftiges" Feature sein ....

Wird daher noch sehr iteressant :-)
 
Also wenn man es streng genommen sieht, ist doch die Durango-Architektur eher noch "Konsolentypischer" als die der PS4 welche m.M.n eher in die "PC Ecke" driftet.

Auch verstehe ich Deine Frage nicht, warum MS sich für eSRAM entschieden hat? Ganz einfach um eine hohe Bandbreite & Bearbeitungsgeschwindigkeit samt Auslagerung zu ermöglichen. Die Latenzprobleme hat nicht der GDDR3 sonder der GDDR5. Man darf hierbei nicht vergessen, das Sony was den Arbeitsspeicher betrifft nachziehen musste um überhaupt ranzukommen was man bei der X3 vermutet.

Falsch, das eSRAM ist da, um eine geringe Latenz zu gewähren:

The difference in throughput between ESRAM and main RAM is moderate: 102.4 GB/sec versus 68 GB/sec. The advantages of ESRAM are lower latency and lack of contention from other memory clients—for instance the CPU, I/O, and display output. Low latency is particularly important for sustaining peak performance of the color blocks (CBs) and depth blocks (DBs).

eDRAM wäre für Bandbreite und vor allem Speichergröße um einiges effizienter. Und da, wie ich schon öfters erwähnt habe, moderne GPUs Latenz-tolerant sind, ist meine Frage also mehr als berechtigt.

Latenzen sind wohl eher interessant bei der CPU, skalare Daten etc.

Hast du dazu einen Link?

Auf die Schnelle nicht, das kam aber auch von einem Insider ausm GAF. (Aegis von Polygon)
Leider wurden die Dokumente nicht in Gesamtheit bisher gepostet, VGLeaks schreibt die auch immer um. :/
 
@Mandrion
Wieso setzt dann MS nicht auf 128MB eDRAM statt 32MB eSRAM? Wieso überhaupt diese Lösung statt einfach GDDR5 RAM zu nehmen?
 
Man kann die Sache auch aus einer anderen Perspektive sehen:

Sony war anscheinend gezwungen den Arbeitsspeicher aufzudoppeln. 8GB GDDR5 kosten 120-140$ und damit wohl mehr als CPU/GPU zusammen :o Sony wird sowas sicherlich nicht aus Lust und Laune machen.
 
Auf die Schnelle nicht, das kam aber auch von einem Insider ausm GAF. (Aegis von Polygon)
Leider wurden die Dokumente nicht in Gesamtheit bisher gepostet, VGLeaks schreibt die auch immer um. :/
Der Typ ist kein Entwickler. Hätte mich auch gewundert, so macht das relativ wenig Sinn. Der Framebuffer wird sicher als Ergebnis im Hauptspeicher liegen, da gehört er auch hin. Während des Aufbau des Bildes das allerdings da hin zu verlegen macht doch keinen Sinn. Während des Renderns braucht man hohe Bandbreite wegen Overdraw, Tests für Alpha und Tiefe. Sowas macht in einem schnell angebundenen Cache Sinn, wo man häufig auf die gleichen Daten zugreifen muss. Das in den gleichen Ram zu legen, aus dem man mit der gleichen beschränkter Bandbreite liest, erscheint mir doch sehr merkwürdig.
 
Falsch, das eSRAM ist da, um eine geringe Latenz zu gewähren:

eDRAM wäre für Bandbreite und vor allem Speichergröße um einiges effizienter. Und da, wie ich schon öfters erwähnt habe, moderne GPUs Latenz-tolerant sind, ist meine Frage also mehr als berechtigt.

Latenzen sind wohl eher interessant bei der CPU, skalare Daten etc.

Da irrst du dich ein wenig.
Das eSRAM ist zusätzlich zur Erhöhung der Bandbreite auch noch für eine geringe Latenz ggü. eDRAM vorhanden.
Nicht umsonst stand in den 2010 Dokus "32MB eDRAM mit der Option auf eSRAM"
Die Anbindung zum eDRAM zur GPU betrug übrigens bei der 360 nur 32GB. Intern hat es mit 256GB, also 2Tbit/sec gearbeitet.
Und so wird es wohl auch beim eSRAM aussehn.
Äußere Anbindung 102GB, intern schneller.
Auf das eSRAM kann wohl auch die CPU zugreifen weshalb wohl hier eine niedrige Latenz von Vorteil ist.

Ich sehe die Kombo DDR3 und eSRAM immer noch im Vorteil ggü. ausschließlich GDDR5 RAm.
 
Man kann die Sache auch aus einer anderen Perspektive sehen:

Sony war anscheinend gezwungen den Arbeitsspeicher aufzudoppeln. 8GB GDDR5 kosten 120-140$ und damit wohl mehr als CPU/GPU zusammen :o Sony wird sowas sicherlich nicht aus Lust und Laune machen.

Genau.
Vllt war hier schon wieder Epic das Zünglein an der Waage.
Die haben gesagt "hey Sony - wir haben Probleme die UE4 genauso gut aussehen zu lassen wie auf der x720. Da müsst ihr gegensteuern"
Also hat Sony einfach das gemacht, was M$ schon bei der 360 gemacht hat. Einfach den Speicher aufgestockt. Das ist wohl die einfachste Art um noch irgendwo Performance rauszuquetschen ohne die komplette Architektur über den haufen zu werfen.
 
Falsch, das eSRAM ist da, um eine geringe Latenz zu gewähren:



eDRAM wäre für Bandbreite und vor allem Speichergröße um einiges effizienter. Und da, wie ich schon öfters erwähnt habe, moderne GPUs Latenz-tolerant sind, ist meine Frage also mehr als berechtigt.

Latenzen sind wohl eher interessant bei der CPU, skalare Daten etc.



Auf die Schnelle nicht, das kam aber auch von einem Insider ausm GAF. (Aegis von Polygon)
Leider wurden die Dokumente nicht in Gesamtheit bisher gepostet, VGLeaks schreibt die auch immer um. :/

Natürlich gewährt er eine geringe Latenz als alle anderen Speicher nur im Vergleich zum eDRAM ist das Aufgabengebiet größer und weitaus flexiebeler! Die Gesamte Bandbreite durch DDR3 & eSRAM somit vollkommen ausreichend und die Anwendung ist auch weit einfacher als beim eDRAM.

Also rein von der Effizienz und den Kosten her ist das schon eine sehr elegante Lösung und muss sich keineswegs vor der GDDR5 Methode verstecken ;-)
 
Der Typ ist kein Entwickler. Hätte mich auch gewundert, so macht das relativ wenig Sinn. Der Framebuffer wird sicher als Ergebnis im Hauptspeicher liegen, da gehört er auch hin. Während des Aufbau des Bildes das allerdings da hin zu verlegen macht doch keinen Sinn. Während des Renderns braucht man hohe Bandbreite wegen Overdraw, Tests für Alpha und Tiefe. Sowas macht in einem schnell angebundenen Cache Sinn, wo man häufig auf die gleichen Daten zugreifen muss. Das in den gleichen Ram zu legen, aus dem man mit der gleichen beschränkter Bandbreite liest, erscheint mir doch sehr merkwürdig.

Es ist im Grunde egal, wie die Speicherlogik im Detail aussieht. Das eSRAM scheint dem eDRAM der 360 in mehreren Punkten überlegen zu sein.
- größer 32 anstatt 10MB
- schneller, extern 102,4GB anstatt 32GB
- niedirgere Latenz
- Zugriff auch auf Hauptspeicher und umgekehrt

Die Bandbreitenhungrigen Zugriffe werden über das eSRAM geregelt. Den Inhalt des Framebuffers in den Speicher zu schieben macht da auch nix aus.
Das sind Pinats. Bei 60fps und 1080p macht ein Zugriff auf den Hauptspeicher und wieder zurück bei 64bit Information pro Pixel nicht einmal ein GB/s aus. Da kann sogar mehrmals pro Bild der gesamte Framebuffer rumgeschoben werden ohne dass es eng wird. Richtig Bandbreite braucht eigentlich nur hochwertiges AA in Verbindung mit einer Auflösung jenseits von Full-HD.
Und genau hierfür ist ja das eSRAM zuständig.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom