Wii U Wii U

Status
Nicht offen für weitere Antworten.
hmm naja, ich vermute mal, dass Nintendo mit der Wii U versucht, diesmal beide Zielgruppen vollständig abzugrasen, sprich: Die Casuals genauso (oder sogar noch mehr) anzusprechen wie mit der Wii und gleichzeitig auch für Coregamer wieder interessanter werden. Man will wohl den Spagat schaffen, den auch die PS2 damals hinbekommen hat, quasi bei beiden Zielgruppen megaerfolgreich zu sein.

Dass Nintendo die Casuals fallen lässt mit der Wii U, halte ich, sorry, für Blödsinn. Sonst hätten sie nicht Namen und Design beibehalten, würden nicht weiterhin Games wie New Super Mario Bros. usw. entwickeln und würden nicht, wie im E3-Trailer weiterhin glückliche Familien und das Zusammenleben im Wohnzimmer zeigen. Ohne den Casualmarkt ist bislang noch kein Gerät Marktführer geworden und die richtig fetten Gewinne, gabs auch nur durch die Casuals..

Ich habe auch nicht gesagt, dass sie die Casuals fallen lassen. Die werden sie nebenher bedienen, aber den Focus auf die Core Gamer legen. Nur muss man davon ausgehen, dass gerade zum Start der Konsole die Core Gamer die Konsole kaufen und nicht die Casual Gamer. Die werden dann etwas später folgen, wenn die Konsole günstiger wird.
 
hmm ja das mag sein, wobei die Wii sich ja auch von Anfang an bei Casuals top verkauft hat, obwohl sie mit 249 Euro die immerhin teuerste Nintendokonsole bis dato war. Aber we´ll see, die Frage nach den Starttiteln find ich nach wie vor am spannendsten :D
 
Wichtig für den Kauf der Konsole ist eh immer die Software.Was bringt mir die beste Konsole, ohne ein gescheites Spiel.Gar nix.Und ich würd sagen, dass es schon genug Titel am Anfang gibt(Darksiders 2 etc.)Ist zwar n Port, aber besser als nix.Es werden sicher auch gute 1st Partie Spiele kommen von Nintendo.Obwohl wenn man sich den Launch des 3DS anschaut.....aber ich denke, sie haben draus gelernt^^
 
Du musst mir hier nicht Wörter in den Mund legen die ich so nie gesagt habe.
Ich sprach von der Wii-U nie von einer Technikkrücke sondern wehre mich nur gegen völlig übertriebene Vorstellungen. Und das leite ich eben aus den bisher bekannten Gesamtfaktoren ab. Andere picken sich einen dieser Faktoren heraus um darauf dann ihre Vorstellungen zu begründen. Das ist meiner Ansicht nach eben der falsche Weg.

Du bist da auch nicht besser.
Kaum ist von Power 7 Technologie die Rede und schon steckt in der Wii-U ein Power 7, dem natürlich dann eine Mega-GPU zur Seite gestellt werden muss. Es geht um die Technologie, und die kann man in jeden Taschenrechner einbauen wenn man möchte. Es ist doch überhaupt nicht detailliert erklärt was genau davon überhaupt in der Wii-U CPU Verwendung findet.
In der 360 CPU steckt auch Technologie der damals aktuellsten Power PC Technologie. Trotzdem ist es natürlich kein vollwertiger Power PC. Ist auch überhaupt nicht nötig und würde auch in einer Konsole keinen Sinn machen allein vom Preis/Leistungsfaktor auf dieses Anwendungsfeld bezogen.

Was ist denn von der CPU der Wii-U bekannt ?
Höchstwahrscheinlich ein Dreikerner wie bei der 360 mit 10% höherem Takt. Dazu noch vermutlich eDRAM als L3 Speicher.
Bei dreifacher Komplexität und Leistung der einzelnen Kerne sowie besserer Effizienz wären wir bei der von mir erwarteten vier bis fünffachen 360 CPU Leistung.

Und die GPU ?
Davon wissen wir nur, was ungefähr in den Dev-Kits steckt.
Um das als kompletten Unsinn abzustempeln wird dann wieder argumentiert, dass Nintendo doch keinen steinalten RV770 verbaut. Und für die weniger technikversierten macht das durchaus Sinn.
Nur behauptet das ja überhaupt niemand.
Nintendo kann logischerweise nur das in den Dev-Kits verbauen, was damals eben verfügbar war. Und wenn die ersten Dev-Kits wirklich schon so alt sind konnte vermutlich eben nur Karten der HD 4000 Serie dort eingesetzt werden. Die HD 5000 Karten erschienen erst September 2009 und dass die ersten Dev-Kits älter sind ist durchaus nachvollziehbar.

ABER:
Und hier kommt dann der Punkt an dem man ansetzt, um mit den Spekulationen bzgl. der finalen Leistung zu beginnen.
Schon die HD 4000 Serie ließ sich zu zweit betreiben.
Laut den Gerüchten steckt aber nur eine Karte in den Dev-Kits und dabei soll es sich auch nicht um eine vollausgestattete, also mit 800 Streamingprozessoren, der Höchstzahl des RV 770/790, handeln.

Ein Alpha Dev-Kits muss nicht klein sein und auch nicht schön aussehen. Zur Not nimmt man ein PC-Gehäuse und steckt die erforderlichen Komponenten dort hinein. Das ist eigentlich die gängige Praxis.

Die Frage lautet also nun.
Warum verbaut Nintendo nicht die maximale verfügbare GPU Leistung in die Dev-Kits, wenn die finale Hardware doch so viel stärker sein soll ?
Diese Frage gilt es zu beantworten und wer hierauf eine einleuchtende Erklärung hat, darf sie gerne Kundtun. Aber kommt mir bitte nicht mit Verlustleistung oder der Gehäusegröße oder ähnlichem. Denn das ist wie erwähnt für ein Dev-Kit völlig unwichtig. Ein Dev-Kit muss nichts fürs Auge sein und auch nicht im Wohnzimmer des Entwicklers stehen. Es muss vielmehr so nah als möglich an der finalen Hardware liegen damit die Entwickler sich ein ungefähres Bild von der letztendlichen Konsolenleistung machen können.

Da ich vermute, dass hierauf wieder jemand die schwache Leistung des 360 Dev-kits zur Begründung anführt, obwohl das auch schon zigmal durchgekaut wurde, noch einmal dazu.
Auch MS konnte nur das in die Alpha-Kits verbauen, was damals auf dem Markt war. Und diese Radeon Karten konnte man auch nicht im SLI bzw. Crossfire-Betrieb nutzen. Sie haben also die stärkste verfügbare ATI Karte, eine Radeon 9800XT in die Alpha Dev-Kits gepackt. Mehr war nicht möglich.
Nur teilten den Entwicklern auch mit, dass die fertige 360 über ein vielfaches deren Grafikleistung verfügen wird.
Von den Entwicklern, die mit den Wii-U Dev-Kits arbeiten hört man aber mit keinem Wort, dass ähnliches auch auf die Wii-U zutrifft.

Wieso sollte Nintendo die Entwickler im Unklaren darüber lassen was die Wii-U letztendlich für eine Leistung bereit hält ? Das ergibt doch überhaupt keinen Sinn.

Zum Schluss noch etwas zur Beruhigung.
Die angebliche Directx 10.1 Diskussion halte ich für überflüssig. Die HD 4000 Serie beherrscht nur Directx 10.1. In der Wii-U wird aber selbstverständlich eine GPU mit aktueller ATI Technik stecken und die dann höchste Directx Variante beinhalten. Klar wird man sie nicht über die Software-Directx-schnittstelle ansprechen sondern den direkten Weg über die Hardware gehen bevor jetzt wieder der Satz" Nintendo nutzt gar kein Directx" kommt. Es geht allein um die Hardwarefähigkeiten der Karte und nicht um die Art, wie diese Angesprochen werden.

Ja genau und in dem X3 DevKit stecken die zwei leistungsstärksten GPU's mit vollem Takt in Crossfire Konfiguration... Du redest immer von "Seht die Fakten" und "Ich bin so objektiv und ihr verblendet", aber haust dann so einen Mist raus, was noch größere Spekulation als bei der WiiU ist (und preislich total unrealistisch).
 
Ja genau und in dem X3 DevKit stecken die zwei leistungsstärksten GPU's mit vollem Takt in Crossfire Konfiguration... Du redest immer von "Seht die Fakten" und "Ich bin so objektiv und ihr verblendet", aber haust dann so einen Mist raus, was noch größere Spekulation als bei der WiiU ist (und preislich total unrealistisch).

Den x3 lern sollte schon klar sein, das es nur Platzhalter sind. Schon aus Kostengründen wird's nachher nur noch eine hochwertige GPU werden, da bekanntlich 2 GPU mehr Speicher brauchen und ihn limitieren.
 
Ja genau und in dem X3 DevKit stecken die zwei leistungsstärksten GPU's mit vollem Takt in Crossfire Konfiguration... Du redest immer von "Seht die Fakten" und "Ich bin so objektiv und ihr verblendet", aber haust dann so einen Mist raus, was noch größere Spekulation als bei der WiiU ist (und preislich total unrealistisch).

Du machst es schon wieder, mir Wörter in den Mund zu legen die ich so nie gesagt habe.
Ich habe gesagt, dass es albern wäre in ein Dev-Kit zwei Mittelklassekarten einzubauen, wenn die gleiche Leistung auch mit einer Karte erzielt werden kann. Insbesondere deine Annahme, in den X3 Dev-Kits würden vermutlich zwei Karten stecken, die einzeln nicht einmal ein Viertel der Leistung des Flagschiffs der eingebauten GPU-Serie erbringen.
Wenn also schon zwei Karten eingebaut wurden dann doch nur deshalb, weil man mit einer Karte die Leistung nicht erzielen konnte die man mit der finalen X3 zu beabsichtigen gedenkt.
Ich habe nicht behauptet dass es sich um die stärksten Karten handelt denn das wäre wirklich reine Spekulation.
 
Den x3 lern sollte schon klar sein, das es nur Platzhalter sind. Schon aus Kostengründen wird's nachher nur noch eine hochwertige GPU werden, da bekanntlich 2 GPU mehr Speicher brauchen und ihn limitieren.

Natürlich sind es nur "Platzhalter". Niemand hat was anderes behauptet.
Es geht um die Dev-Kits. Dort stecken eben zwei GPUs drin so wie in den Dev-Kits der PS3 auch zwei Nvidia GPUs steckten.
In der finalen X3 wird nur eine GPU stecken, die dann mindestens die Leistung dieser beiden Dev-Kits GPUs besitzt.
 
ABER:
Und hier kommt dann der Punkt an dem man ansetzt, um mit den Spekulationen bzgl. der finalen Leistung zu beginnen.
Schon die HD 4000 Serie ließ sich zu zweit betreiben.
Laut den Gerüchten steckt aber nur eine Karte in den Dev-Kits und dabei soll es sich auch nicht um eine vollausgestattete, also mit 800 Streamingprozessoren, der Höchstzahl des RV 770/790, handeln.

hier würde ich gerne einhaken
ich bin auf dem gebiet definitiv kein experte, also korrigiere mich falls ich falsch liege, aber ich frage mich ob eine zweite GPU im devkit die architektur nicht vollkommen verändert hätte, so dass diese sich im endeffekt zu stark vom finalen produkt unterschieden hätte
ich meine der speicher muss zwischen den karten aufgeteilt werden, bandbreiten ebenfalls
die cpu muss mit beiden kommunizieren, die last verteilt werden etc.
für mich klingt es einfacher, das spiel am ende grafisch noch ein wenig aufzuhübschen (frameraten, auflösungen, weitsicht etc. anpassen) als es quasi am ende auf ein anderes system zu übertragen
 
Ausnahmen bestätigen die Regel :D

Außerdem würde ich die Dreamcast nicht automatisch hinter der PS2 einordnen. Viele Dreamcast-Spiele waren optisch der PS2 überlegen...

Hatte aber nicht mit der Hardwareleistung zu tun, sondern schlicht mit der Zugänglichkeit, Sega hatte sich nach dem Saturn Debakel stark auf eine einfach zu handhabene Platform konzentriert, Sony ist einen ganz anderen Weg gegangen und ein ziemlich krankes Konstrukt entwickelt, welche eine lange Anlaufzeit benötigte, und den Abstand der Leistugsfähigkeit später auch mehr als deutlich zeigte, wird dir auch jeder Dev bestätigen können.
 
ich bin jetzt nicht so der Technikexperte, aber ich frag mich eh, wie man die Leistung noch großartig hochschrauben soll.

PS3 und Xbox360 haben ja beide nen 3-Kern-Prozessor mit jeweils 3,2 Ghz. Viel mehr Ghz kann man auf einen Kern doch echt nicht takten, weil man sonst ein Kühlungsproblem bekommt. 4,0 Ghz dürfte so ziemlich das Höchste sein, was man mit normaler Kühlung hinbekommt. Und man wird ja auch sicherlich keine 12 Kerne oder so nen Schabernack in die neuen Konsolen einbauen, insofern kann man die bisherige CPU doch eh nicht in so einem hohen Maße übertreffen oder? Lediglich bei Arbeitsspeicher usw. kann man gut was draufhauen, aber der Prozessor der jetzigen HD-Konsolen dürfte sich doch eh nicht solch großem Maße steigern lassen oder liege ich damit falsch?
 
ich bin jetzt nicht so der Technikexperte, aber ich frag mich eh, wie man die Leistung noch großartig hochschrauben soll.

PS3 und Xbox360 haben ja beide nen 3-Kern-Prozessor mit jeweils 3,2 Ghz. Viel mehr Ghz kann man auf einen Kern doch echt nicht takten, weil man sonst ein Kühlungsproblem bekommt. 4,0 Ghz dürfte so ziemlich das Höchste sein, was man mit normaler Kühlung hinbekommt. Und man wird ja auch sicherlich keine 12 Kerne oder so nen Schabernack in die neuen Konsolen einbauen, insofern kann man die bisherige CPU doch eh nicht in so einem hohen Maße übertreffen oder? Lediglich bei Arbeitsspeicher usw. kann man gut was draufhauen, aber der Prozessor der jetzigen HD-Konsolen dürfte sich doch eh nicht solch großem Maße steigern lassen oder liege ich damit falsch?

du solltest die leistung eines chips nicht unbedingt an seiner taktung festmachen
 
naja gut, aber es ist doch schon die maßgebliche Größe.

Ich kann mir halt echt nicht vorstellen, dass in der Xbox 3 (oder den anderne beiden neuen Konsolen) ein Prozessor drinsteckt, der 10mal so stark sein sollte, wie der in der Playstation 3. Das ist von den puren Werten her doch schon nicht möglich heutzutage...
 
naja gut, aber es ist doch schon die maßgebliche Größe.

Ich kann mir halt echt nicht vorstellen, dass in der Xbox 3 (oder den anderne beiden neuen Konsolen) ein Prozessor drinsteckt, der 10mal so stark sein sollte, wie der in der Playstation 3. Das ist von den puren Werten her doch schon nicht möglich heutzutage...
Nein

Doch

:awesome:
 
naja wieso doch? Sicherlich ist die Taktrate nicht das einzige was zählt, aber es ist ja schon eine der bestimmenden Größen.
Ein 3 Ghz-Prozessor ist in der Regel stärker als ein 2Ghz-Prozessor usw.
Wie man da die Power der aktuellen HD-Konsolen um große Faktoren übertreffen will, erschließt sich mir wirklich nicht so ganz...
 
hier würde ich gerne einhaken
ich bin auf dem gebiet definitiv kein experte, also korrigiere mich falls ich falsch liege, aber ich frage mich ob eine zweite GPU im devkit die architektur nicht vollkommen verändert hätte, so dass diese sich im endeffekt zu stark vom finalen produkt unterschieden hätte
ich meine der speicher muss zwischen den karten aufgeteilt werden, bandbreiten ebenfalls
die cpu muss mit beiden kommunizieren, die last verteilt werden etc.
für mich klingt es einfacher, das spiel am ende grafisch noch ein wenig aufzuhübschen (frameraten, auflösungen, weitsicht etc. anpassen) als es quasi am ende auf ein anderes system zu übertragen

Die Aufteilung macht der Treiber. Da hat der Entwickler nix mit zu tun. Für ihn verhalten sich diese beiden GPUs wie eine. Sonst würde das im PC Sektor auch nicht funktionieren. Sicherlich kann man sich auch mit einer GPU behelfen und dann die finale Leistung hochrechnen. Aber dann gibt man den Entwicklern diese Info mit an die Hand. Z.b. liefen die die Launchgames der 360 auf den Dev-Kits nur mit 5-10 Frames. Die Entwickler wussten aber, dass die finale 360 ca. die sechfache Leistung dieser Dev-Kits haben wird und deshalb konnten sie die Dev-Kits Leistung hochrechnen und Spiele mit so niedriger Framerate entwickeln.
Das scheint aber bei den Wii-U Dev-kits nicht der Fall zu sein.
Ich jedenfalls habe davon noch nichts gelesen. Wer da andere Infos hat, immer her damit.
 
@Konsolenbaby
Wobei hier die Entwickler auch den Vorteil der DX API haben, dadurch die Entwicklung für die X3 und dem PC doch recht gleich sind. Da kannst Du glaub ich fast alles als Dev-Kit verkaufen. Bei Sony und BigN dürfte es anders aussehen. Lieber erstmal weniger und später auf Reserven zurück greifen.
 
Zuletzt bearbeitet:
Die Aufteilung macht der Treiber. Da hat der Entwickler nix mit zu tun. Für ihn verhalten sich diese beiden GPUs wie eine. Sonst würde das im PC Sektor auch nicht funktionieren. Sicherlich kann man sich auch mit einer GPU behelfen und dann die finale Leistung hochrechnen. Aber dann gibt man den Entwicklern diese Info mit an die Hand. Z.b. liefen die die Launchgames der 360 auf den Dev-Kits nur mit 5-10 Frames. Die Entwickler wussten aber, dass die finale 360 ca. die sechfache Leistung dieser Dev-Kits haben wird und deshalb konnten sie die Dev-Kits Leistung hochrechnen und Spiele mit so niedriger Framerate entwickeln.
Das scheint aber bei den Wii-U Dev-kits nicht der Fall zu sein.
Ich jedenfalls habe davon noch nichts gelesen. Wer da andere Infos hat, immer her damit.


nun, wenn das so stimmt wie du es sagst dann gibt es eigentlich nur 3 möglichkeiten

1. du hast recht mit deiner ausführung und es gibt nur einen leichten anstieg bei der grafik
2. nintendo wollte die reaktionen auf den controller abwarten und hat die hardware erst nach der e3 wirklich festgelegt, nimmt damit aber auch in kauf, dass die launchspiele deutlich schlechter als spätere titel aussehen könnten
3. die entwickler sind zur zurückhaltung verpflichtet, was aussagen zur leistung angeht (sind sie sowieso) aber ich meine eher in die richtung von nicht zu sehr beschweren aber auch nicht zu sehr loben

ich persönlich erwarte nach wie vor einen moderaten bis ordentlichen sprung
ähnlich wie damals dreamcast zu N64, wobei man die unterschiede heutzutage natürlich weniger deutlich sehen wird
 
ich bin jetzt nicht so der Technikexperte, aber ich frag mich eh, wie man die Leistung noch großartig hochschrauben soll.

PS3 und Xbox360 haben ja beide nen 3-Kern-Prozessor mit jeweils 3,2 Ghz. Viel mehr Ghz kann man auf einen Kern doch echt nicht takten, weil man sonst ein Kühlungsproblem bekommt. 4,0 Ghz dürfte so ziemlich das Höchste sein, was man mit normaler Kühlung hinbekommt. Und man wird ja auch sicherlich keine 12 Kerne oder so nen Schabernack in die neuen Konsolen einbauen, insofern kann man die bisherige CPU doch eh nicht in so einem hohen Maße übertreffen oder? Lediglich bei Arbeitsspeicher usw. kann man gut was draufhauen, aber der Prozessor der jetzigen HD-Konsolen dürfte sich doch eh nicht solch großem Maße steigern lassen oder liege ich damit falsch?

Der Takt lässt sich wirklich nicht mehr großartig erhöhen. Wenn es schon nicht an der größeren Kühlung scheitert dann doch an den physikalischen Limitierungen wie der Lichtgeschwindigkeit. Signale verbreiten sich in Metall mit ca. zweidrittel der Lichtgeschwindigkeit. Und damit in einem Chip nichts durcheinander gerät muss da vieles synchron laufen. Das geht aber nciht, wenn manche Signale einen Takt später ankommen als andere. Und da bei einer Takt von 5GHz das Signal im Chip gerade mal noch vier Zentimeter zurück legt, ist irgendwann der Arsch ab. Bei den gängigen Chipgrößen wird man wohl bei 10-15Ghz komplett am Ende sein. Das ist zwar immer noch eine Steigerung bis zum Faktor vier ggü. den derzeitig üblichen Takten, aber ein Furz ggü. den Steigerungen in der Vergangenheit.

Ein Chip besteht aus immer mehr Transistoren, die eben in mehr Rechenwerke investiert werden.
Einfachstes Beispiel die GPU. Bei ihr werden einfach immer mehr Streamingprozessoren auf den Chip gepackt. Ohne Takterhöhung steigt hier die Leistung linear mit zunehmender Anzahl an.
Bei einer CPU werden einerseits die Kerne erhöht und andererseits die einzelnen Kerne komplexer gestaltet. So leistet jeder einzelne Kern bei gleichem Takt mehr.
Und genau das wird ja auch bei der Wii-U gemacht.
Nach deiner Vorstellung dürfte die Wii-U CPU nur ca. 10% besser sein als die der 360. Denn sie besteht aus ebenso vielen Kernen die nur mit ca. 10% höher getaktet werden.
Dem ist aber nicht so.
Die einzelnen Kerne sind komplexer und damit auch leistungsfähiger.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom