Irgendwie kann oder will man mich nicht verstehen.
Das war natürlich Ironie, weil du mit deiner Äußerung ja genau das bestätigst, was ich gesagt habe. Nur ist dir das nicht bewusst
Wenn in den ersten und/oder zweiten Dev-Kits HD 4850 Karten drin stecken, dann sind diese auch in 55nm gefertigt oder, als RV 740 Version mit weniger Streamingprozessoren, in 40nm.
Und dass diese Karten in einem kleinen Gehäuse zu Hitzeproblemen führen ist nur selbstverständlich.
In den aktuellen Kits sind entweder neuere Karten verbaut oder es wurde das Gehäuse vergrößert oder die Lüftung verbessert oder was auch immer.
Ich frage mich nur, was für eine Logik das sein muss, aus den Hitzeproblemen der ersten Dev-Kits eine höhere Leistung für die späteren Dev-Kits zu folgern, weil die über keine Hitzeprobleme mehr verfügen.
Das verstehe ich eben nicht.
Und um die Wii-U Situation mit der X3 zu vergleichen.
Das einzige Gerücht über die X3 besteht darin, dass es erste Dev-Kits gibt in denen die zur Zeit der Auslieferung stärksten AMD GPUs verbaut wurden und zwar in doppelter Ausführung.
Also genau so, wie bei den ersten 360 Dev-Kits.
Wenn diese Dev-Kits schwächer sind als die finale X3 dann ist das ohne Probleme zu verstehen, denn mehr einbauen, als aktuelle möglich ist, geht eben nicht.
Und genau hier liegt der Unterschied zu den Wii-U Dev-Kits.
Denn dort stecken eben nicht zwei der zur Zeit der Auslieferung stärksten AMD GPUs drin, sondern nur eine, und laut diversen Gerüchten noch nicht einmal das damalige Flagschiff. Deshalb ist es meiner bescheidenen Meinung nach auch nicht verständlich, warum von manch einem aufgrund dieser Tatsachen von einer signifikaten Steigerung der finalen Wii-U Hardware ggü. den Dev-Kits ausgegangen wird.