Wii U Wii U

Status
Nicht offen für weitere Antworten.
Ich wünsch mir für die WiiU wieder ein normales Zelda. Während ich sehr lange suchen muss, bis ich was finde, das mir an irgendeinem Zelda nicht gefallen hat, ist der völlig übertriebene Einsatz von Bewegungssteuerung bei Skyward Sword wirklich total was für den Allerwertesten...

Sieht aus, als müsstest du dir eine andere Serie suchen oder auf Handheld umsatteln. Aber dein Leid ist meine Freud, falls dich das tröstet ;-)
 
Sieht aus, als müsstest du dir eine andere Serie suchen oder auf Handheld umsatteln. Aber dein Leid ist meine Freud, falls dich das tröstet ;-)

Na, erstmal abwarten ... bis das nächste Zelda kommt, wird wohl noch einige Zeit vergehen und ich kann mir nicht wirklich vorstellen, dass man den Tablet-Controller bei einem so wichtigen Titel wie Zelda einfach so links liegen lässt.
 
insgesamt ist es trotzdem billiger geworden. Und Anfang 2004 hat man eine 6600gt noch für 150€ ca. bekommen. Und die war nichtmal High-End.
Desweiteren kostet eine GTX590 keine 920€ http://www.idealo.de/preisvergleich/ProductCategory/16073F936868.html
Und es gibt auch wesentlich billigere High-End Karten. Die HD 6990 ist z.B. nochmal billiger http://www.idealo.de/preisvergleich/MainSearchProductCategory.html?q=hd+6990
Logisch, da sie von ATI kommt und diese vom P/L meistens besser sind. Konsolenhersteller werden auch keine NVIDIA-Karten kaufen. Nintendo auf jeden Fall nicht. Die waren schon seit dem GC auf der ATI Schiene. Keine Ahnung, wie es davor war.

Dass eine Grafikkarte heute wichtiger ist, als früher stimmt natürlich. Aber wen interessiert das schon, wenn die Systeme insgesamt billiger werden?

Wohl wahr.. Hardware wird immer billiger, das ganz neu Sache für eine Zeit natürlich sehr Teuer sind ist normal, aber sobald es mehr konkurrenz gibt und die nächste Version in den startlöchern steht purzeln die Preise.

Wenn man Multicore mit Single Core GPUs vergleicht (vom Preis) muss man im prinzip auch Multicore gegen Karten im SLI vergleichen. War ja zu der Zeit auch das beste was möglich war. Und dann vergleich mal die Preise ;)

Zudem sollte man die Abwertung von Währung bei solchen vergleichen nicht aus der Acht lassen... das spielt imo eine sehr große Rolle.
Als die ersten PCs auf den Marktkamen konnte sich sowas kaum wer leisten, heute hat jeder einen zuhause stehen.
Sind die PCs von heute billiger? Nein viel teurer, aber man kann auch einfach nicht die Preise von damals und heute vergleichen.
Fragt mal eure Eltern oder Großeltern was in ihrer Kindheit eine Kugel Eis gekostet hat ;)


Klar kostet die Entwicklung neuer Hardware immer etwas und auch die Anfange des Herstellungsprozesses aber dann gehts ganz schnell runter (massenfertigung). Nicht jeder Teil einer neuen Grafikkarte ist ja auch wirklich neu. Da sind ja auch genug ältere Komponenten Verbaut die noch aktuell sind aber der Preis halt schon gravierend gesunken.


Und das damals alles eigen Enwicklung waren ist so auch nicht richtig. Jede verbaute hardware in Konsolen gabs es schon in anderen Geräten davor. Das sich das ganze heute mehr an PC annähert hat auch einfach mit der Entwicklung an sich zu tun und das zb mehr und mehr architekturen die es früher noch gab langsam aussterben oder ausgestorben sind.
Klar wurde hardware immer etwas modifiziert aber es gab da keine Komplett neuentwicklungen, aufjedenfall nicht in dieser Gen der Gen davor oder auch davor ;)
Die Original Xbox war wohl das nächste am PC was es je gab. Aber die 360 ist schon wieder gut entfernt und genauso eine eigen entwicklung wie damals der N64 oder davor der Mega Drive.
 
Zuletzt bearbeitet:
Ohhhhh, ich kann mich noch an Zeiten erinnern, da waren die Konsolen (wenn man das so nennen konnte) weiter entwickelt als ein PC.
:)
 
Es handelte sich bei den modellen um die schnellste erhaeltliche grafikkarte, heute ist das eben ne dualcore, damals wars ne singlecore.
Aendert nix daran das es die spitzenmodelle sind.
Und wie ich bereits schrieb, ist diese preisentwicklung 1:1 auf das middle und low segment uebertragbar.

Natuerlich zahlen die hersteller nicht den retailpreis, aber der einkaufspreis wird sich wohl äquivalent zum retailpreis entwickeln, wobei wir immernoch bei einer verdopplung der kosten waeren.

Und ob dem oder euro spielt ja mal garkeine rolle, es ging um die preisentwicklung an sich.

Du meinst aber nicht die in der PS3 oder Wii ?
 
Wohl wahr.. Hardware wird immer billiger, das ganz neu Sache für eine Zeit natürlich sehr Teuer sind ist normal, aber sobald es mehr konkurrenz gibt und die nächste Version in den startlöchern steht purzeln die Preise.

Wenn man Multicore mit Single Core GPUs vergleicht (vom Preis) muss man im prinzip auch Multicore gegen Karten im SLI vergleichen. War ja zu der Zeit auch das beste was möglich war. Und dann vergleich mal die Preise ;)

Zudem sollte man die Abwertung von Währung bei solchen vergleichen nicht aus der Acht lassen... das spielt imo eine sehr große Rolle.
Als die ersten PCs auf den Marktkamen konnte sich sowas kaum wer leisten, heute hat jeder einen zuhause stehen.
Sind die PCs von heute billiger? Nein viel teurer, aber man kann auch einfach nicht die Preise von damals und heute vergleichen.
Fragt mal eure Eltern oder Großeltern was in ihrer Kindheit eine Kugel Eis gekostet hat ;)


Klar kostet die Entwicklung neuer Hardware immer etwas und auch die Anfange des Herstellungsprozesses aber dann gehts ganz schnell runter (massenfertigung). Nicht jeder Teil einer neuen Grafikkarte ist ja auch wirklich neu. Da sind ja auch genug ältere Komponenten Verbaut die noch aktuell sind aber der Preis halt schon gravierend gesunken.


Und das damals alles eigen Enwicklung waren ist so auch nicht richtig. Jede verbaute hardware in Konsolen gabs es schon in anderen Geräten davor. Das sich das ganze heute mehr an PC annähert hat auch einfach mit der Entwicklung an sich zu tun und das zb mehr und mehr architekturen die es früher noch gab langsam aussterben oder ausgestorben sind.
Klar wurde hardware immer etwas modifiziert aber es gab da keine Komplett neuentwicklungen, aufjedenfall nicht in dieser Gen der Gen davor oder auch davor ;)
Die Original Xbox war wohl das nächste am PC was es je gab. Aber die 360 ist schon wieder gut entfernt und genauso eine eigen entwicklung wie damals der N64 oder davor der Mega Drive.

1. Sli gibt es erst seit 2003
2. Abwertung von waehrung?

1 dollar entsprach 1,70 mark das waeren dann umgerechnet in euro ca. 0,85 eurocent in 2001
Heute ist 1 dollar gleich 0,77 eurocent.


Du siehst also, die waehrung ist heute nur marginal schwaecher wie damals.
Bitte informier dich etwas besser bevor du immer ewig lange texte mit halbwahrheiten schreibst. Danke.

@betavison

Wie ist diese frage zu verstehen?
Habe in dem text lediglich vergleiche mit pc hardware gezogen, und nachgewiesen das diese teurer geworden ist.
Und wenn diese hardware fuer den endverbraucher teurer wird, wird sie auch fuer einen konsolenhersteller teurer.
 
Zuletzt bearbeitet:
1. Sli gibt es erst seit 2003

Stimmt nicht ganz. 3Dfx hat mit der Voodoo2 schon SLI gehabt und das war glaube ich '99.
Dann wurde es erst einmal ruhig um SLI. nVidia hat zwar ende 2000 alle Patente von 3dfx gekauft, aber erst um ca. 2003 so richtig damit Erfolg gehabt.

Aber jetzt mal ab von all dem geblubber. Warum reden wir hier immer wieder von diesen SLI karten?

Wenn wirklich solche Karten in den DevKits stecken, dann eher weil die WiiU mit ihrem (meiner Meinung nach) Single Chip GPU, wohl das HD Zeitalter ohne Kanten auf den Konsolen einführen will. Denn das Aliasing auf den aktuellen Konsolen ist stellenweise schon recht nervig. Ohne das "Geflimmer" entsteht schon der Eindruck eines viel schöneren Spiels.
 
Stimmt nicht ganz. 3Dfx hat mit der Voodoo2 schon SLI gehabt und das war glaube ich '99.
Dann wurde es erst einmal ruhig um SLI. nVidia hat zwar ende 2000 alle Patente von 3dfx gekauft, aber erst um ca. 2003 so richtig damit Erfolg gehabt.

Aber jetzt mal ab von all dem geblubber. Warum reden wir hier immer wieder von diesen SLI karten?

Wenn wirklich solche Karten in den DevKits stecken, dann eher weil die WiiU mit ihrem (meiner Meinung nach) Single Chip GPU, wohl das HD Zeitalter ohne Kanten auf den Konsolen einführen will. Denn das Aliasing auf den aktuellen Konsolen ist stellenweise schon recht nervig. Ohne das "Geflimmer" entsteht schon der Eindruck eines viel schöneren Spiels.

Die sli disskusion hatte nix mit den devkits zu tun :)
Und ja, 3dfx hatte eine sli loesung, allerdings gabs 3dfx ab 2002 praktisch nicht mehr.

Ist ja aber auch wurst.
 
ja ist wurst.

ich lese ja schon lange mit, aber die hardwarediskussionen überflieg ich meistens, da hier keiner von uns hellsehen kann ;)
aber irgendwie bin ich an deinem kommentar hängen geblieben.
 
Wo bleibt eigentlich Pitti mit seiner alltäglich überoptimistischen Einstellung?
 
Stimmt nicht ganz. 3Dfx hat mit der Voodoo2 schon SLI gehabt und das war glaube ich '99.
Dann wurde es erst einmal ruhig um SLI. nVidia hat zwar ende 2000 alle Patente von 3dfx gekauft, aber erst um ca. 2003 so richtig damit Erfolg gehabt.

Aber jetzt mal ab von all dem geblubber. Warum reden wir hier immer wieder von diesen SLI karten?

Wenn wirklich solche Karten in den DevKits stecken, dann eher weil die WiiU mit ihrem (meiner Meinung nach) Single Chip GPU, wohl das HD Zeitalter ohne Kanten auf den Konsolen einführen will. Denn das Aliasing auf den aktuellen Konsolen ist stellenweise schon recht nervig. Ohne das "Geflimmer" entsteht schon der Eindruck eines viel schöneren Spiels.

Es ging wohl eher darum, dass die stärkste Grafiklösung heute aus mehreren Karten besteht.
Eine SLI oder Crossfire Lösung in diversen Konsolen-Dev-Kits besteht nur, weil die finale Hardwre stärker ist/wird als der beim zusammen basteln des Dev-kits stärkste Einzel-GPU-Chip.
In der verkauffertigen Konsole steckt dann logischerweise nur eine GPU.

Was AA angeht. Das verbraucht immer Leistung. Und deshalb wird es auch immer Spiele auf Konsolen geben, die mehr oder weniger AA nutzen. Denn manche Entwickler stecken die Leistung lieber in noch bessere Effekte. Je nach Game ist eine höhere Auflösung auch wichtiger als AA und umgekehrt. Da es viele verschiedene Arten von Rendertechniken gibt kann man auch nicht jedwede Art von Antialiasing durch zusätzliche Hardware, wie z.B. das eDRAM der 360 mit seiner AA Funktionalität, bewerkstelligen.

Das ist ähnlich wie mit der ständig wiederkehrenden Forderung, zukünftige Next-Gen spiele sollten alle in 60Hz laufen.
Auch das wird es nicht geben, sondern je nach Game entscheiden die Entwickler, ob 60fps oder hübschere Grafik wichtiger sind.
 
Eine SLI oder Crossfire Lösung in diversen Konsolen-Dev-Kits besteht nur, weil die finale Hardwre stärker ist/wird als der beim zusammen basteln des Dev-kits stärkste Einzel-GPU-Chip.
In der verkauffertigen Konsole steckt dann logischerweise nur eine GPU.

Wenn Loop entgegen deiner Beteuerungen 2 Grafikkarten aus dem mittleren Bereich verbaut hat, dann werde ich einen Tag lang ein Dauergrinsen aufsetzen und dir widmen ;) Glaube einfach nicht daran, dass der heute stärkste Chip dafür nicht ausreichen würde, im Gegenteil, außer Loop erscheint erst sehr spät.
 
@konsolenbaby
Zum ersten Abschnitt.
Könnte auch eine Theory sein. Aber wie lang sind die Devkits denn schon im Umlauf?
Denn die Karten die hier genannt wurden sind nicht gerade die stärksten und waren auch zu der Zeit als sie aktuell waren nicht die stärksten. Also hätte man auch die damals stärkste single GPU nehmen können. Aber ich glaube das stand hier auch schon einmal....
 
Wenn Loop entgegen deiner Beteuerungen 2 Grafikkarten aus dem mittleren Bereich verbaut hat, dann werde ich einen Tag lang ein Dauergrinsen aufsetzen und dir widmen ;) Glaube einfach nicht daran, dass der heute stärkste Chip dafür nicht ausreichen würde, im Gegenteil, außer Loop erscheint erst sehr spät.

Darfst du gerne :)
Ich sprach vom stärksten Chip, der zur Zeit der Dev-Kit Auslieferung zu haben war.
Da nicht bekannt ist, wie alt die X3 Dev-Kits sind, kann man natürlich auch nicht sagen, welche GPUs da drin stecken.

Jedenfalls bleibe ich dabei. Es ist völliger Unsinn zwei mittelklasse GPUs in ein Dev-Kit zu packen wenn auch eine einzige Karte das packt. Die Nachteile bei einer zwei Karten Lösung überwiegen bei weitem deren geringe Vorteile (Die meiner Ansicht nach eh nicht existieren)
Ich sprach auch nicht von den stärksten GPUs sondern davon, dass beide Karten zusammen stärker sein müssten als die stärkste Einzel-GPU-karte. Denn erst dann macht es eben Sinn, zwei Karten zu verbauen.

Ich kann ja nichts dafür wenn Nintendo nur eine GPU in ihre Dev baut und somit die finale Hardwareleistung der Wii-U bereits ziemlich gut absteckt.
 
@konsolenbaby
Zum ersten Abschnitt.
Könnte auch eine Theory sein. Aber wie lang sind die Devkits denn schon im Umlauf?
Denn die Karten die hier genannt wurden sind nicht gerade die stärksten und waren auch zu der Zeit als sie aktuell waren nicht die stärksten. Also hätte man auch die damals stärkste single GPU nehmen können. Aber ich glaube das stand hier auch schon einmal....

Welche Dev-Kits meinst du denn ?
Die Wii-U Dev-Kits bestehen nur aus einer GPU und die der X3 laut Gerüchten aus zwei. Aber es existiert keinerlei Infos, um was für Karten es sich handelt. Die reine Logik verbiete es aber davon auszugehen, es steckten zwei Karten drin, die zusammen nicht einmal die Leistung der Top-Karte aus der gleichen Serie erzielen.
 
Darfst du gerne :)
Ich sprach vom stärksten Chip, der zur Zeit der Dev-Kit Auslieferung zu haben war.
Da nicht bekannt ist, wie alt die X3 Dev-Kits sind, kann man natürlich auch nicht sagen, welche GPUs da drin stecken.

Jedenfalls bleibe ich dabei. Es ist völliger Unsinn zwei mittelklasse GPUs in ein Dev-Kit zu packen wenn auch eine einzige Karte das packt. Die Nachteile bei einer zwei Karten Lösung überwiegen bei weitem deren geringe Vorteile (Die meiner Ansicht nach eh nicht existieren)
Ich sprach auch nicht von den stärksten GPUs sondern davon, dass beide Karten zusammen stärker sein müssten als die stärkste Einzel-GPU-karte. Denn erst dann macht es eben Sinn, zwei Karten zu verbauen.

Ich kann ja nichts dafür wenn Nintendo nur eine GPU in ihre Dev baut und somit die finale Hardwareleistung der Wii-U bereits ziemlich gut absteckt.

Nichts gegen dein Wissen, aber was für Microsoft Sinn macht, das werden wir ohnehin noch erfahren. Dir widersprechen schon ein paar technisch versierte User hier und vielleicht spart es einfach Strom und ermöglicht trotzdem ne gute leistung, wenn man niedrig taktet und dafür "2 GPUs" verbaut. Vielleicht wirds ne Art Fusion mit 2 GPUs. Wir wissen eben kaum was, ich würde mich da nicht festlegen, weil es auf den ersten Blick logisch erscheint. Sollten in der finalen Box 2 GPUs verbaut sein, dann wird sich das auch auf das Devkit auswirken.

Und keine Sorge, ich beschwere mich nicht über die WiiU, gehe selbst von 3-5x Current Gen aus insgesamt, tippe halt darauf, dass die Next Box auch kleiner und sexy wird.
 
Nichts gegen dein Wissen, aber was für Microsoft Sinn macht, das werden wir ohnehin noch erfahren. Dir widersprechen schon ein paar technisch versierte User hier und vielleicht spart es einfach Strom und ermöglicht trotzdem ne gute leistung, wenn man niedrig taktet und dafür "2 GPUs" verbaut. Vielleicht wirds ne Art Fusion mit 2 GPUs. Wir wissen eben kaum was, ich würde mich da nicht festlegen, weil es auf den ersten Blick logisch erscheint. Sollten in der finalen Box 2 GPUs verbaut sein, dann wird sich das auch auf das Devkit auswirken.

Und keine Sorge, ich beschwere mich nicht über die WiiU, gehe selbst von 3-5x Current Gen aus insgesamt, tippe halt darauf, dass die Next Box auch kleiner und sexy wird.

Wenn man nichts genaues hat muss man spekulieren. Das ist nun mal so.
Aber bei den Spekulationen sollte man auch von empirschen Daten ausgehen und von den statistisch wahrscheinlichsten.
Und wenn man das macht kommt man zu dem Schluss, dass zwei GPUs in einem Dev-Kits nur Sinn machen, wenn sie zusammen mehr leisten als eine einzelne Karte. Klar kann man sagen, möglich ist dies und das, nur wie wahrscheinlich ist es ?
Und da muss ich feststellen, dass von mancher Seite hier gerne mal das unwahrscheinlichste Szenario angenommen wird, sowohl was die finale Hardware der Wii-U als auch der X3 angeht.

Die hier angeführten Argumente des niedrigeren Stromverbrauchs zweier Karten sind schon mal totaler Schwachsinn und das habe ich auch schon mehrfachs widerlegt. Sie verbrauchen bei gleichen Daten nicht weniger Strom als eine einzelne, eher umgekehrt. Außerdem spielt der Stromverbrauch bei einem Dev-Kits mal so was von überhaupt keine Rolle.
Jeder 08/15 User schafft es einen PC mit einer hochgezüchteten GPU stabil zum laufen zu bringen. High-End Gamer PCs besitzen gar zwei der stärksten GPUs. Und die X3 Alpha-Dev-Kits werden, wie schon die der 360, aus ganz normalen Tower Gehäusen bestehen. Da ist genug Platz um ordendliche Verlustleistung abzuführen.
Da will mir hier echt jemand erzählen MS wäre nicht in der Lage ein Dev-Kit zu fertigen, was mit nur einer High-End Karte stabil läuft ?
Das ist doch kompletter Kokolores.

Der einzige Grund beim PC mit zwei schwächeren GPUs zu arbeiten ist der, dass man schon eine GPU-Karte besitzt und sich für kleines Geld eine zweite dazu kauft. Oder eben dass beide Karten zusammen mehr leisten als das Flagschiff und dabei nicht mehr kosten.
Beides trifft auf Dev-Kits aber mit nichten zu.
Vielleicht stecken ja in den X3 Dev-Kits überhaupt keine zwei GPUs. Aber wenn, dann sind sie auch stärker als das Flagschiff. Wer etwas anderes behauptet sollte das mit konkreten und vor allem auch plausiblen Gründen belegen.
 
Zuletzt bearbeitet:
Wenn man nichts genaues hat muss man spekulieren. Das ist nun mal so.
Aber bei den Spekulationen sollte man auch von empirschen Daten ausgehen und von den statistisch wahrscheinlichsten.
Und wenn man das macht kommt man zu dem Schluss, dass zwei GPUs in einem Dev-Kits nur Sinn machen, wenn sie zusammen mehr leisten als eine einzelne Karte. Klar kann man sagen, möglich ist dies und das, nur wie wahrscheinlich ist es ?
Und da muss ich feststellen, dass von mancher Seite hier gerne mal das unwahrscheinlichste Szenario angenommen wird, sowohl was die finale Hardware der Wii-U als auch der X3 angeht.

Die hier angeführten Argumente des niedrigeren Stromverbrauchs zweier Karten sind schon mal totaler Schwachsinn und das habe ich auch schon mehrfachs widerlegt. Sie verbrauchen bei gleichen Daten nicht weniger Strom als eine einzelne, eher umgekehrt. Außerdem spielt der Stromverbrauch bei einem Dev-Kits mal so was von überhaupt keine Rolle.
Jeder 08/15 User schafft es einen PC mit einer hochgezüchteten GPU stabil zum laufen zu bringen. High-End Gamer PCs besitzen gar zwei der stärksten GPUs. Und die X3 Alpha-Dev-Kits werden, wie schon die der 360, aus ganz normalen Tower Gehäusen bestehen. Da ist genug Platz um ordendliche Verlustleistung abzuführen.
Da will mir hier echt jemand erzählen MS wäre nicht in der Lage ein Dev-Kit zu fertigen, was mit nur einer High-End Karte stabil läuft ?
Das ist doch kompletter Kokolores.

Der einzige Grund beim PC mit zwei schwächeren GPUs zu arbeiten ist der, dass man schon eine GPU-Karte besitzt und sich für kleines Geld eine zweite dazu kauft. Oder eben dass beide Karten zusammen mehr leisten als das Flagschiff und dabei nicht mehr kosten.
Beides trifft auf Dev-Kits aber mit nichten zu.
Vielleicht stecken ja in den X3 Dev-Kits überhaupt keine zwei GPUs. Aber wenn, dann sind sie auch stärker als das Flagschiff. Wer etwas anderes behauptet sollte das mit konkreten und vor allem auch plausiblen Gründen belegen.

Lassen wir mal die ewigen Fraktionenvorwürfe weg^^

Wir wissen nichtmal ob das Gerücht stimmt und wenn es stimmt kann es eben viel bedeuten. Wer sagt denn, dass MS überhaupt die gleichen Daten wie eine absolute highend karte ansteuert? Vielleich ist der Aufbau der Konsole anders, als du es dir vorstellst? Du gehst imo zu sehr vom PC aus. Wobei ich gar nicht sage das du unrecht hast, mir gefällt nur der Absolutheitsanspruch nicht wirklich. Kannst du verneinen, dass man mit 2 kleinen GPUs die weit niedriger getaktet sind, abwärme, Strom whatever spart? Was ist mit 2 GPus gemeint, da gibts auch verschiedene Lösungen oder? Auch schwebt immer noch das Fusion Gerücht über den Next Gen Konsolen. Ich würde einfach nichts ausschließen, bevor wir es nicht wirklich wissen.

Du begründest deine Spekulationen gut, muss man anrechnen, aber ich sehe wie viele andere eben auch Microsofts Situation, die 360er verkauft sich extrem in Amerika und das nicht nur wegen den Cores und Casualshootern ;) Klar werden sie 2 SKUs veröffentlichen, aber imo mit den selben Spezifikationen, eine halt abgespeckt wie bei der 360er (vielleicht extremer ohne Laufwerk).

Wie auch immer, ich nehme nichts als Fakt hin, bis es auf dem Papier steht.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom