Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
weiß denn eigentlich jemand wie es im konsolenbereich mit werksspionage bestellt ist???
wenn ich mir so überlege das die ungefähren hardwarepläne der hersteller ja auch an die ganzen multi-entwickler weitergegeben werden, und das ja auch frühzeitig, dann kann ich mir kaum vorstellen das ms, nintendo und sony nicht, zumindest im groben, jetzt schon bescheid wissen wie es bei den anderen aussieht!
 
weiß denn eigentlich jemand wie es im konsolenbereich mit werksspionage bestellt ist???
wenn ich mir so überlege das die ungefähren hardwarepläne der hersteller ja auch an die ganzen multi-entwickler weitergegeben werden, und das ja auch frühzeitig, dann kann ich mir kaum vorstellen das ms, nintendo und sony nicht, zumindest im groben, jetzt schon bescheid wissen wie es bei den anderen aussieht!

Davon kann man wohl zweifelsfrei ausgeben.
Nur wird der jeweilige Konsolenhersteller einen Teufel tun um das zu bestätigen :)
 
Davon kann man wohl zweifelsfrei ausgeben.
Nur wird der jeweilige Konsolenhersteller einen Teufel tun um das zu bestätigen :)

das ist mir schon klar, nur mein ich das nicht...:-D

wundert mich nur immer wieder wie einige fanboys davon reden wie überrascht die anderen hersteller sein werden wenn nintendo alle fakten auf den tisch legt!
 
das ist mir schon klar, nur mein ich das nicht...:-D

wundert mich nur immer wieder wie einige fanboys davon reden wie überrascht die anderen hersteller sein werden wenn nintendo alle fakten auf den tisch legt!

Mein Eindruck ist schon, dass Bug N diesmal ziemlich pokert. Ich denke, die wissen, was in den Devkits drin ist. Aber Iwata hat doch selbst gesagt, dass er noch nicht weiss wieviel Speicher in die Wii U reinkommt. Genau so die 4850 in den Devkits alleine durch den Shrink auf 40 nm sollte das Ding eigentlich 30 % schneller werden...
 
Mein Eindruck ist schon, dass Bug N diesmal ziemlich pokert. Ich denke, die wissen, was in den Devkits drin ist. Aber Iwata hat doch selbst gesagt, dass er noch nicht weiss wieviel Speicher in die Wii U reinkommt. Genau so die 4850 in den Devkits alleine durch den Shrink auf 40 nm sollte das Ding eigentlich 30 % schneller werden...

Es wird Nintendo-intern bis zu einer gewissen Zeitspanne abgewartet und dann entschieden - einerseits positiv, da man so noch evtl. für weniger Geld mehr Leistung bekommt, aber andererseits auch negativ, da man so auch den 3rds zeigt, dass man selbst nicht wirklich etwas bereits zu 100% durchdacht hat.

Ist zwar in der Branche üblich, aber gerade Nintendo war meist so gestrickt, dass sie relativ früh alles technische abgesteckt hatten, um möglichst finale Hardware-Specs für die Spiele-Entwicklung zu haben.
 
Wobei es bei der Spieleentwicklung (vor allem bei den ersten, welche eh nie die Hardware anständig ausnutzen) relativ egal ist ob jetzt am Ende etwas mehr RAM und eine etwas stärkere Version der ursprünglichen GPU in der Konsole landen.
Es wird eher die Hardwarefraktion sein (Lieferanten, Layouter,....) welche bei einer verpäteten Finalisierung unter Druck gerät.
 
Wobei es bei der Spieleentwicklung (vor allem bei den ersten, welche eh nie die Hardware anständig ausnutzen) relativ egal ist ob jetzt am Ende etwas mehr RAM und eine etwas stärkere Version der ursprünglichen GPU in der Konsole landen.
Es wird eher die Hardwarefraktion sein (Lieferanten, Layouter,....) welche bei einer verpäteten Finalisierung unter Druck gerät.

Sicher, eine gewisse Deadline kann man nicht überziehen - aber bis diese nicht zu 100% feststeht, ist natürlich noch alles in der Schwebe.
 
Nintendo wandert natürlich auf einem schmalen Pfad. Sie müssen quasi vorlegen, das kann einerseits gut sein (zeitlicher Vorsprung), lässt andererseits der Konkurrenz natürlich die Chance entsprechend zu reagieren. Desweiteren haben sie einfach den Punkt, dass das Thema Subvention bei ihnen eine sehr heikle Sache ist. Kann gut gehen, kann aber auch gewaltig schief gehen. Und wenn es schief geht, geht es bei Nintendo schiefer als bei Sony oder MS.
 
Nintendo wandert natürlich auf einem schmalen Pfad. Sie müssen quasi vorlegen, das kann einerseits gut sein (zeitlicher Vorsprung), lässt andererseits der Konkurrenz natürlich die Chance entsprechend zu reagieren. Desweiteren haben sie einfach den Punkt, dass das Thema Subvention bei ihnen eine sehr heikle Sache ist. Kann gut gehen, kann aber auch gewaltig schief gehen. Und wenn es schief geht, geht es bei Nintendo schiefer als bei Sony oder MS.

Ich sehe eigentlich nur MS in einer entspannten Situation, die haben ihre Hausaufgaben gemacht und Bargeld ohne Ende. Sony und Nintendo haben beide Stärken und Schwächen..
 
Sie müssen quasi vorlegen, das kann einerseits gut sein (zeitlicher Vorsprung), lässt andererseits der Konkurrenz natürlich die Chance entsprechend zu reagieren.

Mittlerweile kann man ja kaum noch von einem nennenswerten Vorsprung ausgehen. Sieht alles danach aus, dass die nächste XBOX nur knapp später kommt. Nintendo wäre vielleicht gut beraten, mal wieder einer Konsole einen Mario-Teil als Starttitel beizulegen. Das könnte die Konsolenverkäufe ordentlich anschieben. Aber bisher gibt's ja noch gar keine Spieleankündigungen. Schwer zu sagen, ob das ein gutes, oder schlechtes Zeichen ist...
 
Auch wie ich finde interessant, aus dem NeoGaf, von lheere und Wsippel:

First I want to know why the people think about R7XX family all the time. I'm not sure if it was press people or where this rumor comes from but I think any dev said nothing about a R7XX model or any particular model. I can't said too much about it (specific details) but in the docs exists a detail that people can interpret that is a R7XX card, but it can be anything at all. But nothing in the documentation (as I said before) speaks about any specific models, clocks speeds, etc. So at this moment is a bit premature to say one thing or another.
I'm sure my info comes from the second version of the devkits at least (third if we count internal-alpha hardware in nintendo quarters that didn't go to licensees). I'll try to gather new info (i'm curious too XD).

Sorry to be so vague

Someone told me that an early devkit supposedly used an off-the-shelf RV770LE. But that chip would certainly not be used in the final hardware either way.

http://www.neogaf.com/forum/showpost.php?p=29863782&postcount=4627


Sprich es wäre sogar möglich das entweder, wirklich kein RV770 verbaut ist sondern nur eine Datei darauf vermuten lässt?
Oder es ist in den frühen Dev Kits ein RV770LE verbaut aber die Finale Hardware basiert dann vieleicht doch auf RV1000 (HD7000).
 
Mein Eindruck ist schon, dass Bug N diesmal ziemlich pokert. Ich denke, die wissen, was in den Devkits drin ist. Aber Iwata hat doch selbst gesagt, dass er noch nicht weiss wieviel Speicher in die Wii U reinkommt. Genau so die 4850 in den Devkits alleine durch den Shrink auf 40 nm sollte das Ding eigentlich 30 % schneller werden...

Wieso sollte ein Shrink das Teil schneller machen ?
Bei der Schrumpfung von 55 auf 40nm könnte man bei gleicher Verlustleistung sicherlich den Takt um einiges erhöhen und damit auch die Leistung.
Aber Nintendo zielt ja so wie es aussieht wieder auf eine Low-Verlustleistungskonsole ab, was man ja schon anhand des Gehäuses sieht.
Demnach nutzen sie wohl die Shrinkverkleinerung eher dazu, weniger Strom zu verbrauchen
Eine HD 4850 Karte verbraucht immerhin über 100 Watt. Der reine Chip natürlich etwas weniger da hier auch Speicher und sonstige Elektronik der Karte mit eingerechnet sind. Aber 80 Watt wird der Chip bei den angegebenen 625Mhz wohl verbraten.

Bei 40nm sinkt die Verlustleistung dann vermutlich auf ca. 45-50 Watt bei gleichem Takt.
Alle Komponenten der Wii-U dürften dann wohl auf etwas über 100 Watt kommen und mehr ist mit dem Gehäuse wohl auch nicht drin.
Zum Vergleich.
Die Wii, selbst das Launchmodell, begnügte sich mit 19 - in Worten Neunzehn- Watt.

Sollte also die Wii-U GPU nicht doch noch in einem kleineren Verfahren als 40nm gefertigt werden dann kann ich beim besten Willen nicht die von einigen vermutete Leistung mit der Größe des Gehäuses und der gängigen Low-Verlustleistungsstrategie seitens Nintendos in Einklang bringen.
 
Ich sehe eigentlich nur MS in einer entspannten Situation, die haben ihre Hausaufgaben gemacht und Bargeld ohne Ende. Sony und Nintendo haben beide Stärken und Schwächen..

Na ja, MS muss auch noch viel machen, sonst wäre nicht die PS3 die Konsole die sich weltweit am besten verkauft. Der RRoD hat viele abgeschreckt, MS muss höllisch aufpassen dass ihnen nicht nochmal so ein Qualitätsdesaster passiert (was wiederum auch ne Milliarde Verlust brachte). Natürlich haben sie Geld ohne Ende im Hintergrund, aber letztlich hilft das auch nur bedingt... ein Zune konnten sie z.B. auch nie durchdrücken.
 
Auch wie ich finde interessant, aus dem NeoGaf, von lheere und Wsippel:

http://www.neogaf.com/forum/showpost.php?p=29863782&postcount=4627


Sprich es wäre sogar möglich das entweder, wirklich kein RV770 verbaut ist sondern nur eine Datei darauf vermuten lässt?
Oder es ist in den frühen Dev Kits ein RV770LE verbaut aber die Finale Hardware basiert dann vieleicht doch auf RV1000 (HD7000).

Also ich gehe auch nicht davon aus, dass sich in der Wii-U ein RV770 irgendwas befindet.
ABER:
Der in den DEV-Kits höchstwahrscheinlich eingesetzte Chip wird wohl die endgültige Leistung der finalen GPU in groben Zügen repräsentieren. Man kann ja nichts einbauen was es noch nicht gibt. Aber man kann etwas gleichwertiges einbauen insbesondere, wenn das finale Produkt rein von der Rohpower sich nicht großartig unterscheidet.

Und wer sich jetzt fragt warum denn was neues entwickeln wenn die Power doch schon in einem bereits erhältlichen Produkt vorhanden ist dem seien nur die beiden Wörter Kostenreduzierung und Effizienzsteigerung nahe gebracht.
Die Wii-U GPU wird wohl so viel leisten wie die GPU in den derzeitigen Dev-Kits.
Aber sie wird
1. in einem kleineren Fertigungsprozess gefertigt
2. eine effizientere und wohl aktuelle Architektur verwenden.

Beides führt dazu dass sie weniger kostet und weniger Verlustleistung verbrät. Das führt zu einer einfacheren und günstigeren Kühlung und einem schlankeren Gehäuse.
So jedenfalls würde es zur derzeitigen Nintendostrategie passen.

Mir war noch nicht bekannt dass sich in den Dev-Kits ein LE Vertreter befinden soll. Wenn das der Fall sein sollte bestätigt das noch mehr meine Ausführungen. Denn bei der LE Version handelt es sich um einen leicht abgespeckten RV770 der anstatt 800 nur 640 Streamingprozessoren beherbergt.
Wenn also Nintendo vor hätte in der Wii-U eine leistungsfähigere GPU einzubauen als es die HD 4850 ist, dann ist sicherlich die Frage berechtigt warum sie in die Dev-Kits eine schwächere einbauen obwohl die HD 4850 schon lange vor den ersten Wii-U Dev-Kits zu haben war und die HD 4000 Serie sogar im Zweierverbund verbaut werden kann.

Für mich jedenfalls wäre es eine echte Überraschung wenn sich die finalen Daten von den oben angegebenen stark unterscheiden würden. Der Speicher kann sicherlich noch variieren aber sowohl CPU als auch GPU Daten dürften bis auf kleine Änderungen in der Taktfrequenz wohl schon lange feststehen.
 
Na ja, MS muss auch noch viel machen, sonst wäre nicht die PS3 die Konsole die sich weltweit am besten verkauft. Der RRoD hat viele abgeschreckt, MS muss höllisch aufpassen dass ihnen nicht nochmal so ein Qualitätsdesaster passiert (was wiederum auch ne Milliarde Verlust brachte). Natürlich haben sie Geld ohne Ende im Hintergrund, aber letztlich hilft das auch nur bedingt... ein Zune konnten sie z.B. auch nie durchdrücken.

Bei Zune bin ich bei Dir, trotzdem kann man der XBox 360 einen Achtungserfolg nicht absprechen, wenn sie diesmal das Qualitätsproblem in den Griff kriegen und Kinnect direkt integrieren, dazu vielleicht noch irgendwas ala Move. Dann sind sie im Spiel...
 
Wieso sollte ein Shrink das Teil schneller machen ?
Bei der Schrumpfung von 55 auf 40nm könnte man bei gleicher Verlustleistung sicherlich den Takt um einiges erhöhen und damit auch die Leistung.
Aber Nintendo zielt ja so wie es aussieht wieder auf eine Low-Verlustleistungskonsole ab, was man ja schon anhand des Gehäuses sieht.
Demnach nutzen sie wohl die Shrinkverkleinerung eher dazu, weniger Strom zu verbrauchen
Eine HD 4850 Karte verbraucht immerhin über 100 Watt. Der reine Chip natürlich etwas weniger da hier auch Speicher und sonstige Elektronik der Karte mit eingerechnet sind. Aber 80 Watt wird der Chip bei den angegebenen 625Mhz wohl verbraten.

Bei 40nm sinkt die Verlustleistung dann vermutlich auf ca. 45-50 Watt bei gleichem Takt.
Alle Komponenten der Wii-U dürften dann wohl auf etwas über 100 Watt kommen und mehr ist mit dem Gehäuse wohl auch nicht drin.
Zum Vergleich.
Die Wii, selbst das Launchmodell, begnügte sich mit 19 - in Worten Neunzehn- Watt.

Sollte also die Wii-U GPU nicht doch noch in einem kleineren Verfahren als 40nm gefertigt werden dann kann ich beim besten Willen nicht die von einigen vermutete Leistung mit der Größe des Gehäuses und der gängigen Low-Verlustleistungsstrategie seitens Nintendos in Einklang bringen.

Ein Shrink der RV770 entspricht im GPU-Teil einer RV870. Der hat zwar noch DX11 drin und Terascale II Architektur, aber beides ist in ihrem Einfluss auf die tatsächliche Spieleoperformance zumindest umstritten. Der RV870 lief mit 850 MHz, Du und viele andere nehmen automatisch an, dass Nintendo automatisch wieder eine Lowend-Architektur aufbaut. Ich persönlich tippe auf eine Medium-Performance-Architektur OK, mal sehen ;-)
 
Ein Shrink der RV770 entspricht im GPU-Teil einer RV870. Der hat zwar noch DX11 drin und Terascale II Architektur, aber beides ist in ihrem Einfluss auf die tatsächliche Spieleoperformance zumindest umstritten. Der RV870 lief mit 850 MHz, Du und viele andere nehmen automatisch an, dass Nintendo automatisch wieder eine Lowend-Architektur aufbaut. Ich persönlich tippe auf eine Medium-Performance-Architektur OK, mal sehen ;-)

Also auf meine Argumente bist da da aber nicht sonderlich eingegangen :)
 
Jetzt soll es gar nur ein RV770LE sein?
Ich bin ja langsam davon ausgegangen dass Nintendo bei einen Release Ende 2012 nicht einen Chip setzt der dann bereits viereinhalb Jahre auf den Buckel hat, sondern den halt erstmal reingebaut hat um....keine Ahnung, vielleicht die DevKits klein und schicke zu halten.
Das man nun in den DevKits selbst noch die Version dieses Chips reinpflantz welcher mit GDDR3 arbeitetund ein 128bit Interface hat, gegenüber dem RV770 der mit GDDR5 werkelt und dem 256bit zur verfügung stehen, ist für die Erklärung unlogisch, da dies für die Wärme nicht viel unterschied macht, oder man per Software locker die Taktzahl des GDDR5 runtertakten hätte können wenn es zu Wäremproblemem gekommen wäre.
Lustigerweis ist der R770 gar eher erschienen als der R770LE.
 
Bei Zune bin ich bei Dir, trotzdem kann man der XBox 360 einen Achtungserfolg nicht absprechen, wenn sie diesmal das Qualitätsproblem in den Griff kriegen und Kinnect direkt integrieren, dazu vielleicht noch irgendwas ala Move. Dann sind sie im Spiel...

Kein Thema, mit der X360 ist MS einen guten Schritt vorangekommen und die Chancen für die Zukunft sind nicht schlecht. Sony und MS haben (auch) dank ihrer Online-Dienste schon eine gute Grundlage für die nächste Generation.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom