Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
XDR hätte man ohne weiteres für die GPU verwenden können. Die Kosten waren hier der ausschlaggebender Faktor. GDDR3 ist günstiger.

Was hätte der XDR dem RSX gebracht? Kann ich dir sagen. NICHTS!
Die Achillesferse des RSX war nie die Bandbreite. Wer das behauptet, hat nicht viel Ahnung von der Materie.
 
Zumindest hat MS damals unausgereifte Hardware auf der Markt gehauen. Darüber dürften wir uns ja einig sein ;)
Wieso, ich musste meine 20GB Premium grade mal 5x einschicken? :ugly:

Was hätte der XDR dem RSX gebracht? Kann ich dir sagen. NICHTS!
Die Achillesferse des RSX war nie die Bandbreite. Wer das behauptet, hat nicht viel Ahnung von der Materie.
Dann würden die Multispiele wenigstens nicht mehr auf der Xbox 360 besser aussehen.
 
Nichts? Mensch, du bist ein Schlaufuchs. Wären wir doch gleich bei SDRAM geblieben, wieso auf DDR wechseln bzw. DDR2, DDR3 und bald auch noch DDR4? Wozu, ist doch sinnlos, bringt nichts. GDDR wird weiterentwickelt, wieso denn das? Muss doch nicht sein, bringt nichts.
 
Nichts? Mensch, du bist ein Schlaufuchs. Wären wir doch gleich bei SDRAM geblieben, wieso auf DDR wechseln bzw. DDR2, DDR3 und bald auch noch DDR4? Wozu, ist doch sinnlos, bringt nichts. GDDR wird weiterentwickelt, wieso denn das? Muss doch nicht sein, bringt nichts.

Kannst du uns dann näher erläutern, was der XDDR2 dem RSX gebracht hätte?
Du scheinst mächtig viel Ahnung zu haben. :)
 
Der Punkt ist, das es höchstens 1:1 Ports werden und man keine klaren Verbesserungen sehen wird trotz auf dem Papier stärkerer Hardware. Es lohnt sich einfach nicht auf die WiiU Architektur anzupassen, du sagst es ja selber, an diesen Ports arbeiten nur kleine Teams in kurzer Zeit.

Bei der Next Gen spielt das dann keine Rolle mehr, da wird der Leistungsunterschied so oder so zu groß sein, auch wenn PS720 bei der Architektur ähnliche Wege wie die WiiU gehen werden.

Wir reden hier aber von Launchports und gerade das AC 3 Team jammert wegen der Zeit. AC 3 ist schon einer der aufwändigsten Titel. Und fast alle Entwickler sagen, dass sie gerade erst beginnen die Hardware zu nutzen/zu verstehen. Denke schon, dass es besser wird, zumindest ein paar Teams werden ihren Code zukünftig besser anpassen und die Spiele "umschreiben". Liegt ja auch nicht alles an den Entwicklern, Nintendo war sehr spät dran, auch mit der Software. Anscheinend wird es aber selbst bei ein paar Launchtiteln noch Verbesserungen geben wie zumindest AA. 2013 dürften auch die 3rd Partys mehr zeigen. Dass proprietäre Engines das meiste aus der WiiU holen werden sollte aber klar sein, Spiele die von Grundauf für die WiiU entwickelt werden dürften grafisch schon Hingucker werden.

Bin auf Aliens gespannt, wenn die nicht nur Bockmist reden, dann sollte sich die WiiU Version schon abheben^^ Wie es mit PS4720 Ports aussieht muss man abwarten :) Die UE4 dürfte laufen. Wenn die Konkurrenz 4-5x WiiU ist, dann ist es selbst Powermäßig eine weit bessere Situation als bei der Wii, von den Features gar nicht zu reden. Denke auch, dass nicht jeder AAAA Titel kommen wird in ein paar Jahren, aber das ist noch Zukunftsmusik.

Die WiiU wird ein kleines aber feines Biest mit anderen Vorzügen, in einer Zeit in der Megaprojekte abnehmen werden, daran führt kein Weg vorbei und die Industrie und Geschäftsmodelle ändern sich. Wird spannend. Und sollte die WiiU am Ende sehr viele kleinere Exklusivtitel bekommen, mir wird es reichen, auch die Optik, gerade weil man ohnehin die Nintendogames hat, welche glänzen werden. Aber wir werden sehen, denke 2013 wird ein tolles Jahr für die WiiU.
 
Zuletzt bearbeitet:
Eine riesige Bandbreite. Außerdem ist es XDR, kein XDR2. Erst recht kein XDDR2.

XDR > GDDR3. XDR ist in Wahrheit sogar schneller als GDDR5. Sogar stromsparender, wenn ich mich jetzt nicht irre.

Der Nachteil: Teuer.
 
XDR ist teuer. In Wahrheit könnten die aktuellen GPUs sogar XDR2 gebrauchen. XDR2 ist wesentlich schneller als GDDR5.
7s8widik.jpg


Das ist ja Wahnsinn. Könnte man sowas nicht in die Nextgen verbauen? 1GB XDR2 und 2GB GDDR5 oder so?
 
1GB XDR2? Das würde wahrscheinlich viel mehr kosten als die GPU und CPU zusammen.
Aber eine schöne Grafik, GDDR3 kam nicht, weil es schneller ist, sondern weil es günstiger ist.
 
Kannst du uns dann näher erläutern, was der XDDR2 dem RSX gebracht hätte?
Du scheinst mächtig viel Ahnung zu haben. :)

würde vom meister auch gern wisssen welche unterschiede zwischen xdr und gddr3 liegen außer das er schneller ist

hast nicht gestern erst behauptet die ps3 hätte gar keinen xdr hat sondern nur ddr3 speicher
und heute
XDR hätte man ohne weiteres für die GPU verwenden können. Die Kosten waren hier der ausschlaggebender Faktor. GDDR3 ist günstiger.

ich vermisse hier zur zeit sowieso einige posts hier was los zensur oder wurden die noch schnell gelöscht bevor es peinlich wird?
 
würde vom meister auch gern wisssen welche unterschiede zwischen xdr und gddr3 liegen außer das er schneller ist

Das ist der ausschlaggebende Punkt bei RAMs. Es geht nur um "schneller, schneller und nochmal schneller". Ach ja, XDR ist meines Wissens auch stromsparender, müsste aber jetzt googeln, um nicht zu lügen.

ich vermisse hier zur zeit sowieso einige posts hier was los zensur oder wurden die noch schnell gelöscht bevor es peinlich wird?

Passt dir die Wahrheit nicht?

EDIT: Ich bilde mir eh ein, irgendwann mal gelesen zu haben, dass AMD in die HD7xxx-Reihe geplant hatte, XDR Speicher zu nehmen?

EDIT²: Weiß nicht, Cortana. Bin kein Einkäufer der Chips. :P Wird aber weiterhin deutlich teurer sein als "normaler Speicher".
 
Zuletzt bearbeitet:
XDR ist nicht nur prinzipiell sehr teuer (>2x DDR3-Preis), er benutzt differentielle Datenleitungen, welche eine Menge Platz benötigen. Differenzielle Signale werden aus der Differenz zweier Leitungen gebildet, was selbstverständlich von Vorteil ist weil Störsignale beide Leitungen betreffen und die Differenz somit unangetastet bleibt. Dabei wird das PCB und der Speichercontroller aber immens verkompliziert. Die Kosten hören beim Speicher selbst also nicht auf.

Mit einem kleinen Chip ist das vermutlich gar nicht machbar. Cell war für eine Konsole ja ein ziemlich großer Chip, so groß werden die diese Generation mit Sicherheit nicht. Schon alleine deshalb weil die CPU immer unwichtiger wird. Hohe Bandbreiten lassen sich wesentlich billiger mit einem ordentlichen eDRAM lösen. Ist auch von Vorteil weil die Latenz deutlich geringer ist. Allerdings sieht man daran, dass die Leute bei Sony damals irgendwas geraucht haben müssen. :lol:
 
Sorry. Natürlich rede ich von XDR bei der PS3.
Da ich in einem anderen Forum gleichzeitg poste, habe ich GDDR5 und XDR irgendwie gemischt.^^

Immernoch ändert das nichts an der Richtigkeit meiner Aussage bezüglich des wesentlichen schneller XDR, der dem RSX sogut wie nichts gebracht hat. Jedenfalls nicht genug um den enormen Kostenanstieg auch nur ansatzweise zu rechtfertigen.
Das grösste Problem der RSX war seine Fliesskommaleistung und die Pipelines (Pixel u. Vertex).
Was Nvidia erst mit der GeForce 8800 GTX bravorös änderte.
 
Das Negative ist, jetzt rate ich aber nur, dass der Preis für XDRs wahrscheinlich im Laufe der Zeit nicht wesentlich günstiger geworden ist, so dass man logischerweise auch nicht sehr mit dem Preis spielen kann. Solches Zeug, wo man die Lizenz von einer speziellen Firma benötigt, die auch noch von sich so was von überzeugt ist, bleibt preislich ziemlich stabil.

Aber eventuell weiß da ein anderer mehr darüber.
 
Besser 256-Bit-DDR3 Anbindung als 128-Bit-XDR. Selbstverständlich bekommt Sony einen ordentlichen Rabatt wenn sie 10 Millionen XDR DRAMs kaufen, billiger als DDR3 wird er dadurch aber trotzdem nicht und wie gesagt kann man DDR3 mit Sicherheit doppelt so breit anbinden zum gleichen Preis. Die Übertragungsrate pro Pin ist ja nicht entscheidend wenn jede Leitung bei XDR doppelt so viel kostet.
 
Zoramon089 Rumor: WiiU GPU is a modified Radeon E6760 [AMD: We haven't said anything]

I contacted AMD and Phil Hughes (Head of PR Product Team) responded. I asked him whether he could confirm these reports and he told me; “Kevin we can confirm that the Wii U will use AMD graphics but we have not provided any specifics on what silicon they will be using in the upcoming console.”
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom