PS4 vs. Wii U vs. Xbox One: Der große Current-Gen-War

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Hält sich immer noch das Gerücht, dass der Cell eine tolle CPU für eine Spielekonsole ist?:lol:
Ich denke, dass die CPU der WiiU mit dem Cell-Chip mithalten kann. Das ist heute aber auch keine Leistung mehr, das können die meisten CPUs seit 2007/8.

Was für ein Gerücht? Allein durch die gänzlich andere Architektur kann Cell in Dingen brillieren, bei denen andere CPUs nicht mitkommen, schlicht konzeptionsbedingt. Das viel der Rohleistung hier für typische GPU Aufgabenfelder verwendet werden kann, bleibt sich dabei egal, Nintendos freuen sich ja auch, dass die WiiU GPUgeneral purpose Code ausführen kann.
What's the difference?
 
Zuletzt bearbeitet:
Das doppelte von der aktuellen Generation und das dreifache, wenn Nintendo wirklich nochmal was freischaufeln kann. Ich denke, dass Sony und MS so bei 2-3gb Ram für Spiele landen werden. Mehr lohnt sich nur begrenzt, bzw würde man wohl von der Mehreistung nicht viel auf dem Bildschirm sehen.

Bringt leider nix, wenn man nur die Größe des Speichers angibt und nicht auch dessen Geschwindigkeit. Ich gehe davon aus, dass die PS4 2-3 GB VRAM haben wird, der aber deutlich schneller als der der Wii U ist, so dass man hier auf einen Faktor von 6-8x "RAM Power" gegenüber der U kommen wird.

Trotzdem muss man sagen, dass die jetzigen 1 GB halbwegs gut sind.
 
Naja, Rayman ist Pflicht, ZombiU wird beobachtet, da wär noch ein interessanter Titel nicht schlecht, denn Pikmin schafft es ja leider nich zum Launch.

Mit Rayman bin ich nie warm geworden, bei ZombieU fürchte ich sehr, dass das schwer verbockt wird... Ich werd mir das Ding ja vermutlich wegen der Abwärtskompatibilität kaufen (Xenoblade), weil meine Wii ja anderweitig vergeben ist...
 
Bringt leider nix, wenn man nur die Größe des Speichers angibt und nicht auch dessen Geschwindigkeit. Ich gehe davon aus, dass die PS4 2-3 GB VRAM haben wird, der aber deutlich schneller als der der Wii U ist, so dass man hier auf einen Faktor von 6-8x "RAM Power" gegenüber der U kommen wird.

Trotzdem muss man sagen, dass die jetzigen 1 GB halbwegs gut sind.

2 bis 3GB VRAM, ersteres vermutlich JA aber die 3GB kannst knicken, wo genau soll die PS4 noch mal liegen, bei 1.8TFlop oder?.
Das entspreche einer HD7850 und da sollen 3GB drauf, wäre overkill!
Kann ich mir nicht vorstellen, das der SPeicher aber schneller wird, ja aber max 2GB Vram, imo
 
Gibt es eigentlich irgendeinen Grund, warum jetzt plötzlich die Geschwindigkeit des RAMS in Frage gestellt wird. Ich meine, wenn Nintendo eines immer vebaut hat (selbst in der Wii), dann war das sauschneller RAM. :-?


Also ich bin mit dem Gesamtpaket zufrieden, auch wenn die Premium in Europa 350 kosten sollte.

Lieber wär mir noch ein Launch Spiel, das mein Interesse wecken würde.
Letzteres wäre sehr hilfreich. Da bin ich froh, dass die neuesten Infos zu NSMB U mein Interesse geweckt haben, Rayman Legends noch in diesem Jahr erscheinen soll und selbst Nintendo Land mir immer besser gefällt. Wenn Pikmin 3 nicht allzu lange auf sich warten lässt, bin ich sehr zufrieden mit dem Start-Lineup. Mit dem Preis (ich gehe von 300 Euro aus) sowieso.
 
Zuletzt bearbeitet:
2 bis 3GB VRAM, ersteres vermutlich JA aber die 3GB kannst knicken, wo genau soll die PS4 noch mal liegen, bei 1.8TFlop oder?.
Das entspreche einer HD7850 und da sollen 3GB drauf, wäre overkill!
Kann ich mir nicht vorstellen, das der SPeicher aber schneller wird, ja aber max 2GB Vram, imo

Kommt natürlich drauf an, ob der Speicher auch von der CPU angesprochen wird etc.- Das ist ja alles noch nicht ganz klar. Prinzipiell dürften 2 GB VRAM für die GPU sicher reichen, nur kommt dazu ja noch der Speicher, den die CPU braucht und (vermutlich) gibt es auch Speicher nur fürs OS.

Gut möglich, dass die PS4 2GB + 2GB hat, bei der 720 gehe ich von 2GB + 4 GB aus. Bin mir aber sicher, dass beide Hersteller ein leistungsbezogenes, "rundes" Gesamtpaket anbieten werden.
 
Gibt es eigentlich irgendeinen Grund, warum jetzt plötzlich die Geschwindigkeit des RAMS in Frage gestellt wird. Ich meine, wenn Nintendo eines immer vebaut hat (selbst in der Wii), dann war das sauschneller RAM. :-?

Wsippel sprach mal davon, dass sich die Bandbreite an der der 360 orientiert, wenn nicht gar darunter liegt, wurde heißen <= 22,4GiB/s, und nein, das wäre nicht viel.
 
hab grad gelesen der controller wird umgerechnet 170 Dollar kosten :o

Ich glaube unter 299 Euro werden wir da keine WiiU sehen...
 
Wsippel sprach mal davon, dass sich die Bandbreite an der der 360 orientiert, wenn nicht gar darunter liegt, wurde heißen <= 22,4GiB/s, und nein, das wäre nicht viel.
Ah ok, das hab ich nicht mitbekommen und mich deshalb gewundert, wieso das plötzlich diskutiert wird. ;)

hab grad gelesen der controller wird umgerechnet 170 Dollar kosten :o

Ich glaube unter 299 Euro werden wir da keine WiiU sehen...
Es sind 135 Euro umgerechnet und außerdem sollte man nicht von den völlig überhöhten Peripherie-Preisen auf den tatsächlichen Produktionspreis schließen. Nintendo lässt sich einfach was dafür bezahlen, dass die Fans das Pad seperat kaufen wollen. ;)
 
Zuletzt bearbeitet:
hab grad gelesen der controller wird umgerechnet 170 Dollar kosten :o

Ich glaube unter 299 Euro werden wir da keine WiiU sehen...

Das ist doch der Einzelverkaufspreis und sagt nichts über die Herstellungskosten aus.
Ein 360 Pad kostet auch keine 10 Dollar in der Herstellung und wird für 30-40 Dollar verkauft.
Wird beim Wii-U Pad genau so sein. Schließlich liegt eins bei und der Rest ist eben Zubehör, an dem die Hersteller natürlich satt verdienen wollen.
Man kann wohl davon ausgehen, dass das Pad dann ungefähr 50 Dollar in der Herstellung kosten wird.
Diesen Preis musst du also zugrunde legen wenn du die restliche Hardware berechnen willst.
 
Das ist doch der Einzelverkaufspreis und sagt nichts über die Herstellungskosten aus.
Ein 360 Pad kostet auch keine 10 Dollar in der Herstellung und wird für 30-40 Dollar verkauft.
Ja und? Kannste ja gleich so übertragen. Wenn ne Konsole 400 Euro kostet und die GPU 50% der Produktionskosten entspricht, kannste annehmen, dass du 200 Euro für die GPU bezahlst.

Genau so beim Controller. Wenn das WiiU Pad 170$ kostet und die WiiU inkl. Pad 400$, dann nimmt das Pad nahezu die Hälfte der Produktionskosten ein.
 
was kann denn diese gpgpu lösung jetzt an leistung bringen??

GPGPU bedeutet nur, dass die GPU Aufgaben übernehmen kann, die üblicherweise von der CPU getätigt werden.
Das bringt kein bisschen mehr an Grafikleistung und scheint ein weitverbreiteter Irrglaube hier zu sein.
Umgekehrt wird da ein Schuh raus.
Denn wenn die GPU für GPGPU Tätigkeiten genutzt wird, bleibt logischerweise weniger Ressourcen für die Grafikberechnungen übrig.

Zwar sind für GPGPU Berechnungen weitere Schaltkreise in der GPU vorhanden, trotzdem wird natürlich zusätzlich auf die Shader zugegriffen, denn sonst hätte das ja alles kenen Sinn :)
 
Das ist doch der Einzelverkaufspreis und sagt nichts über die Herstellungskosten aus.
Ein 360 Pad kostet auch keine 10 Dollar in der Herstellung und wird für 30-40 Dollar verkauft.
Wird beim Wii-U Pad genau so sein. Schließlich liegt eins bei und der Rest ist eben Zubehör, an dem die Hersteller natürlich satt verdienen wollen.
Man kann wohl davon ausgehen, dass das Pad dann ungefähr 50 Dollar in der Herstellung kosten wird.
Diesen Preis musst du also zugrunde legen wenn du die restliche Hardware berechnen willst.

Meinst die schlagen SOVIEL auf :o

Naja zuzutrauen ist es ihnen. ~70 Euro reingewinn je Pad, na dann mal los :ol:

Aber gut soviele werden sich eh kein zweites kaufen...

Edit: Also es verdichten sich die Gerüchte, dass Nintendo 3x Broadway CPU einsetzt, höher getaktet und den Rückstand zu Xenon und Cell per GPGPU wettmacht?
 
Zuletzt bearbeitet:
GPGPU bedeutet nur, dass die GPU Aufgaben übernehmen kann, die üblicherweise von der CPU getätigt werden.
Das bringt kein bisschen mehr an Grafikleistung und scheint ein weitverbreiteter Irrglaube hier zu sein.
Umgekehrt wird da ein Schuh raus.
Denn wenn die GPU für GPGPU Tätigkeiten genutzt wird, bleibt logischerweise weniger Ressourcen für die Grafikberechnungen übrig.

Zwar sind für GPGPU Berechnungen weitere Schaltkreise in der GPU vorhanden, trotzdem wird natürlich zusätzlich auf die Shader zugegriffen, denn sonst hätte das ja alles kenen Sinn :)
Eigentlich geht es eher darum, dass damit die eventuell nicht allzu starke CPU erklärt wird. Macht nämlich dann Sinn, wenn die CPU bestimmte Aufgaben nicht erledigen muss, sondern dies die GPU übernimmt. Und das erklärt auch, wieso schnelle Ports so ihre Probleme haben. Das ist nämlich eine andere Hernagehensweise als bspw. bei Xbox 360.

Auf jeden Fall ist das keine altbackende Architektur, wie hier gerne getan wird, sondern eine sehr moderne, die allerdings auf geringe Leistungsaufnahme getrimmt ist.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom