Wii U Wii U

Status
Nicht offen für weitere Antworten.
Der Sinn meiner Aussage war, die Probleme mit der Verlustleistung gab es mit dem DevKit 2, wir sind jetzt bei 4 und laut Ankeingo sogar bei 5. Könntest du alles da unten lesen irgendwo lesen.

Frohe Weihnachten ...

Ach so,
Dann haben sie also in den neuen Dev-Kits schwächere Hardware eingebaut damit sie die Hitzeprobleme in den Griff bekommen, oder wie habe ich das zu verstehen ;)
 
Ach so,
Dann haben sie also in den neuen Dev-Kits schwächere Hardware eingebaut damit sie die Hitzeprobleme in den Griff bekommen, oder wie habe ich das zu verstehen ;)

Dazu gibt es Dutzende Theorien, eine ist diese, ja. Speziell runtergetaktet etc. findest Du häufiger.

Mein Vorschlag ist allerdings, dass die Hitze mit 40nm/32 nm keine Rolle mehr spielt, aber such Dir eine aus ;-)
 
@Mell@ce

Also dann noch ein Allerletztesmal, wir bzw. du weisst es nicht, und falsch verstandene Äußerungen sollte man präzisieren, da sich Iwata bereits über einen Preis von über 250 Dollar äußerte, was die Annahme es handle sich um einen Preis von über 150 Dollar zwar bestätigt, die Lowbudgetwünschträume bzw. Schwachhardwareträume der Xbox-Fraktion, jedoch zerbröseln lässt, und Reggies Äußerungen, das sind was sie sind, ein Hinweis auf eine starke Hardware. ;-)

Ich habe auch lediglich gesagt, dass Reggie sich bei dem Preis auf den aktuellen Wii Preis und nicht auf den Einführungspreis bezog. Damit habe ich nicht impliziet einen Preis angenommen der unter diesem liegt sondern nur denjenigen den Wind aus den Segeln genommen welche direkt auf einem astronomisch hohen Preis spekulierten um dann aufgrund dessen auf eine Monsterhardware zu schließen.


Und eine komplette PC-Grafikkarte, mit einem aus den Chips bestehendem Komplettsystem zu vergleichen, zeigt ,das immer noch nicht verstanden wird, das das 2 paar Schuhe sind, dannach hätte es die 360 so nie geben können, aber lassen wir das, die Realität wird es zeigen. ;-)

Worauf ist das denn bezogen?
Sicherlich nicht auf meine Kommentare.

Genau das gleiche Geschwafel wie 2005 über die Xbox"2" in den PC-Foren, Triplecore geht nicht, Unified Shader, niemals kommt erst im PC-Bereich, bla bla blubb. :lol:


Das stimmt, ist aber mit der Wii-U Situation überhaupt nicht zu vergleichen.
 
Dazu gibt es Dutzende Theorien, eine ist diese, ja. Speziell runtergetaktet etc. findest Du häufiger.

Mein Vorschlag ist allerdings, dass die Hitze mit 40nm/32 nm keine Rolle mehr spielt, aber such Dir eine aus ;-)

Irgendwie kann oder will man mich nicht verstehen.
Das war natürlich Ironie, weil du mit deiner Äußerung ja genau das bestätigst, was ich gesagt habe. Nur ist dir das nicht bewusst :)

Wenn in den ersten und/oder zweiten Dev-Kits HD 4850 Karten drin stecken, dann sind diese auch in 55nm gefertigt oder, als RV 740 Version mit weniger Streamingprozessoren, in 40nm.
Und dass diese Karten in einem kleinen Gehäuse zu Hitzeproblemen führen ist nur selbstverständlich.

In den aktuellen Kits sind entweder neuere Karten verbaut oder es wurde das Gehäuse vergrößert oder die Lüftung verbessert oder was auch immer.

Ich frage mich nur, was für eine Logik das sein muss, aus den Hitzeproblemen der ersten Dev-Kits eine höhere Leistung für die späteren Dev-Kits zu folgern, weil die über keine Hitzeprobleme mehr verfügen.
Das verstehe ich eben nicht.

Und um die Wii-U Situation mit der X3 zu vergleichen.
Das einzige Gerücht über die X3 besteht darin, dass es erste Dev-Kits gibt in denen die zur Zeit der Auslieferung stärksten AMD GPUs verbaut wurden und zwar in doppelter Ausführung.
Also genau so, wie bei den ersten 360 Dev-Kits.

Wenn diese Dev-Kits schwächer sind als die finale X3 dann ist das ohne Probleme zu verstehen, denn mehr einbauen, als aktuelle möglich ist, geht eben nicht.
Und genau hier liegt der Unterschied zu den Wii-U Dev-Kits.
Denn dort stecken eben nicht zwei der zur Zeit der Auslieferung stärksten AMD GPUs drin, sondern nur eine, und laut diversen Gerüchten noch nicht einmal das damalige Flagschiff. Deshalb ist es meiner bescheidenen Meinung nach auch nicht verständlich, warum von manch einem aufgrund dieser Tatsachen von einer signifikaten Steigerung der finalen Wii-U Hardware ggü. den Dev-Kits ausgegangen wird.
 
Zuletzt bearbeitet:
Irgendwie kann oder will man mich nicht verstehen.
Das war natürlich Ironie, weil du mit deiner Äußerung ja genau das bestätigst, was ich gesagt habe. Nur ist dir das nicht bewusst :)

Wenn in den ersten und/oder zweiten Dev-Kits HD 4850 Karten drin stecken, dann sind diese auch in 55nm gefertigt oder, als RV 740 Version mit weniger Streamingprozessoren, in 40nm.
Und dass diese Karten in einem kleinen Gehäuse zu Hitzeproblemen führen ist nur selbstverständlich.

In den aktuellen Kits sind entweder neuere Karten verbaut oder es wurde das Gehäuse vergrößert oder die Lüftung verbessert oder was auch immer.

Ich frage mich nur, was für eine Logik das sein muss, aus den Hitzeproblemen der ersten Dev-Kits eine höhere Leistung für die späteren Dev-Kits zu folgern, weil die über keine Hitzeprobleme mehr verfügen.
Das verstehe ich eben nicht.

Und um die Wii-U Situation mit der X3 zu vergleichen.
Das einzige Gerücht über die X3 besteht darin, dass es erste Dev-Kits gibt in denen die zur Zeit der Auslieferung stärksten AMD GPUs verbaut wurden und zwar in doppelter Ausführung.
Also genau so, wie bei den ersten 360 Dev-Kits.

Wenn diese Dev-Kits schwächer sind als die finale X3 dann ist das ohne Probleme zu verstehen, denn mehr einbauen, als aktuelle möglich ist, geht eben nicht.
Und genau hier liegt der Unterschied zu den Wii-U Dev-Kits.
Denn dort stecken eben nicht zwei der zur Zeit der Auslieferung stärksten AMD GPUs drin, sondern nur eine, und laut diversen Gerüchten noch nicht einmal das damalige Flagschiff. Deshalb ist es meiner bescheidenen Meinung nach auch nicht verständlich, warum von manch einem aufgrund dieser Tatsachen von einer signifikaten Steigerung der finalen Wii-U Hardware ggü. den Dev-Kits ausgegangen wird.

MS ist nicht BigN!
 
????
Verstehe ich nicht.

Gibs auf mellace....
Man will es hier nicht verstehen.
Und selbst wenn es so kommt wie du es sagst, oder wenn es gar richtig schlimm kommt und die hardware ueberteuerter schrott wird, die nintendo fans werden blind dem teil huldigen....wie auch beider wii: grafik ist dann wieder nicht mehr so wichtig....nach 500 seiten fast nur grafikdiskussionund hardwaretraeumereien im wiiu thread :-)
 
eigentlich sollte man den thread erst zur e3 wieder aufmachen. vorher ist doch eh alles nur wildes spekulieren im nebel der zeit :hmm:

gibt eh nur 2 extrem meinungen,

typ A "das ding hat mehr leistung als nen handelsüblicher todesstern"

Typ B "wird nicht mal an der 360 kratzen"

:hmm:
 
Gibs auf mellace....
Man will es hier nicht verstehen.
Und selbst wenn es so kommt wie du es sagst, oder wenn es gar richtig schlimm kommt und die hardware ueberteuerter schrott wird, die nintendo fans werden blind dem teil huldigen....wie auch beider wii: grafik ist dann wieder nicht mehr so wichtig....nach 500 seiten fast nur grafikdiskussionund hardwaretraeumereien im wiiu thread :-)

Du schnallst es auch nicht oder, befindest dich hier im Nintendo Bereich und kommst mit grenzwertigen Beiträgen an und huldigst deiner ROD Box nach, das kein Schrott ist für dich..
Vor allem weil du eh schon bewiesen hast, das du dich bei dem Thema nicht besonders gut auskennst.
Vor allem weil Ihr, die tru Next Gen Fraktion, ziemlich doof dastehen werdet, eure PS720 wird auch weit unter den Wahnvorstellungen zurück liegen..
 
Du schnallst es auch nicht oder, befindest dich hier im Nintendo Bereich und kommst mit grenzwertigen Beiträgen an und huldigst deiner ROD Box nach, das kein Schrott ist für dich..
Vor allem weil du eh schon bewiesen hast, das du dich bei dem Thema nicht besonders gut auskennst.
Vor allem weil Ihr, die tru Next Gen Fraktion, ziemlich doof dastehen werdet, eure PS720 wird auch weit unter den Wahnvorstellungen zurück liegen..


Ich hab nichmal ne xbox :ugly:


Aber um ontopic zu bleiben: die wiiu wird toll, aber imo eben grafisch nur durchschnitt
 
Irgendwie kann oder will man mich nicht verstehen.
Das war natürlich Ironie, weil du mit deiner Äußerung ja genau das bestätigst, was ich gesagt habe. Nur ist dir das nicht bewusst :)

Wenn in den ersten und/oder zweiten Dev-Kits HD 4850 Karten drin stecken, dann sind diese auch in 55nm gefertigt oder, als RV 740 Version mit weniger Streamingprozessoren, in 40nm.
Und dass diese Karten in einem kleinen Gehäuse zu Hitzeproblemen führen ist nur selbstverständlich.

In den aktuellen Kits sind entweder neuere Karten verbaut oder es wurde das Gehäuse vergrößert oder die Lüftung verbessert oder was auch immer.

Ich frage mich nur, was für eine Logik das sein muss, aus den Hitzeproblemen der ersten Dev-Kits eine höhere Leistung für die späteren Dev-Kits zu folgern, weil die über keine Hitzeprobleme mehr verfügen.
Das verstehe ich eben nicht.

Und um die Wii-U Situation mit der X3 zu vergleichen.
Das einzige Gerücht über die X3 besteht darin, dass es erste Dev-Kits gibt in denen die zur Zeit der Auslieferung stärksten AMD GPUs verbaut wurden und zwar in doppelter Ausführung.
Also genau so, wie bei den ersten 360 Dev-Kits.

Wenn diese Dev-Kits schwächer sind als die finale X3 dann ist das ohne Probleme zu verstehen, denn mehr einbauen, als aktuelle möglich ist, geht eben nicht.
Und genau hier liegt der Unterschied zu den Wii-U Dev-Kits.
Denn dort stecken eben nicht zwei der zur Zeit der Auslieferung stärksten AMD GPUs drin, sondern nur eine, und laut diversen Gerüchten noch nicht einmal das damalige Flagschiff. Deshalb ist es meiner bescheidenen Meinung nach auch nicht verständlich, warum von manch einem aufgrund dieser Tatsachen von einer signifikaten Steigerung der finalen Wii-U Hardware ggü. den Dev-Kits ausgegangen wird.

Natürlich habe ich Dein Augenzwinkern gesehen, aber ich dachte ich mach Dir eine weihnachtliche Freude und gebe Dir Recht, tut mir leid wenn das nicht geklappt hat. Natürlich verstehe ich die Argumentation, das ist ja die gleiche, wie von KOnsolenbaby.

Ich glaube Sie nur nicht ;-)

Das Problem ist die Zeitachse, das DevKit mit den Hitzeproblemen ist jetzt schon so alt, dass ich nicht glaube, dass das die Zielplattform ist, tut mir leid, das DevKit 2 wird zum Zeitpunkt der Veröffentlichung der Wii U ca. 3 Jahre alt sein. Du kannst für das Geld, was damals ein RV770 gekostet hat heute was ganz anderes bauen. Ich glaube einfach nicht an Eure "Nintendo ist doof Theorie", ich bin immer gut damit gefahren, andere nicht für dumm zu halten.
Ich glaube immer noch, dass die Veröffentlichung der Wii U auf der E3 eine Kurzschlussreaktion aus den stark sinkenden Verkäufen der Wii und dem schlechten Absatz des 3DS war. Zu der Frage warum sie das nicht korrigieren, ist meine Antwort, warum sollten sie ?

Die Leistung des 3DS wurde doch auch zum Schluss noch mal verdoppelt wegen 3D und ich denke das werden sie hier auch tun, schließlich gibt es keine Batterie-Laufzeit zu berücksichtigen. Ich meine mal ehrlich zum Start gibt es doch eh nur billige Ports, da tut es auch die diskutierte Leistung. Zum Schluss wird die Leistung dann ca. verdoppelt und man erhält eine 3-4 mal so schnelle Plattform wie aktuell und das reicht für die nächsten 4-5 Jahre. Außerdem glaube ich, dass das eh die letzte klassische Konsolengeneration wird...
 
Zuletzt bearbeitet:
Haben eigentlich frühe Devkits schon die ungefähren Ausmaße einer finalen Konsole? Das macht doch überhaupt keinen Sinn. Wenn man eh normale Grafikkarten benutzt kann man doch auch einfach nen PC-Gehäuse verwenden und siehe da, keine Hitzeprobleme mehr...
 
Haben eigentlich frühe Devkits schon die ungefähren Ausmaße einer finalen Konsole? Das macht doch überhaupt keinen Sinn. Wenn man eh normale Grafikkarten benutzt kann man doch auch einfach nen PC-Gehäuse verwenden und siehe da, keine Hitzeprobleme mehr...

Vielleicht werden so schon Schwächen im Alltag erprobt! Ich weiß nicht wie BigN seine Hardware testet, aber so hat man gleichzeitig auch eine Betaplattform und später kein ROD
 
Frohe Weihnachten an alle! :)

Und nur zum allgemeinen Verständnis, die Größe der Dev.Kits hat sehr wenig mit der größe der finalen Hardware zu tun! :)
Eigentlich sollten dies die angeblichen Experten hier wissen! ;)
 
Und um die Wii-U Situation mit der X3 zu vergleichen.
Das einzige Gerücht über die X3 besteht darin, dass es erste Dev-Kits gibt in denen die zur Zeit der Auslieferung stärksten AMD GPUs verbaut wurden und zwar in doppelter Ausführung.
Also genau so, wie bei den ersten 360 Dev-Kits.
Das Gerücht besagt, dass irgendeine AMD-GPU in doppelter Ausführung drin ist. Zur Leistung oder wenigstens Modellreihe der GPUs gibt's nix. Könnten zwei 6570 sein, wer weiß. Top-of-the-Line kann ich mir beim besten Willen nicht vorstellen, weil die nächste Xbox ohne Flüssigkühlung ausgeliefert werden wird, und so viel reißen 28nm auch nicht (zumal die nächste Xbox zudem wohl kleiner und billiger als die 360 werden soll, und ein weiteres RRoD-Disaster will Microsoft ganz sicher auch nicht). Will damit sagen: Wenn zwei GPUs drin sind, sind's im Zweifel GPUs der Mittelklasse, je um die 60W. Energieverbrauch und entsprechend Abwärme steigen linear zur Transistorzahl, aber quadratisch zum Takt.
 
Zuletzt bearbeitet:
Das Gerücht besagt, dass irgendeine AMD-GPU in doppelter Ausführung drin ist. Zur Leistung oder wenigstens Modellreihe der GPUs gibt's nix. Könnten zwei 6570 sein, wer weiß. Top-of-the-Line kann ich mir beim besten Willen nicht vorstellen, weil die nächste Xbox ohne Flüssigkühlung ausgeliefert werden wird, und so viel reißen 28nm auch nicht (zumal die nächste Xbox zudem wohl kleiner und billiger als die 360 werden soll, und ein weiteres RRoD-Disaster will Microsoft ganz sicher auch nicht). Will damit sagen: Wenn zwei GPUs drin sind, sind's im Zweifel GPUs der Mittelklasse, je um die 60W. Energieverbrauch und entsprechend Abwärme steigen linear zur Transistorzahl, aber quadratisch zum Takt.

Macht total Sinn zwei Mittelklasse GPUs in ein Dev-Kit zu verbauen anstatt einer vernünftigen, hast recht.
 
Macht total Sinn zwei Mittelklasse GPUs in ein Dev-Kit zu verbauen anstatt einer vernünftigen, hast recht.
Mindestens so viel Sinn wie 'ne 1000W-Konsole mit Peltier-Kühlung. :lol:

In der Vita (und den Devkits) ist auch 'ne SGX543MP4 drin. Warum keine viermal so hoch getaktete Singlecore GPU? Weil's eben durchaus einen Unterschied macht. Für mehr Shaderunits mit niedrigerem Takt entwickelt man anders als für wenige Units mit höherem Takt. Baut Microsoft also breiter statt höher (mehr Execution Units bei geringerem Takt), was ich mal annehmen würde, sollte das in den Devkits reflektiert werden. Was genau für GPUs drin stecken ist natürlich irrelevant. Können auch massiv untertaktete Top-Modelle sein. Aber anzunehmen, die Leistung entspräche dem aktuellen Spitzenmodell in Crossfire-Konfiguration... Eher nicht.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom