Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Es geht doch nicht darum ob man mit einem kleineren Shrink höhere Takraten erzielen kann denn in der Wii-U wird kein RV770LE verbaut sein. Dieser Chip wird nur nahe an den Leistungsdaten liegen, die Nintendo für die Wii-U GPU vorgesehen haben wird.
Und dabei spielt es überhaupt keine Rolle wie viele Shader der Chip hat und wie hoch er getaktet wird.

Vielleicht verbaut Nintendo einen Chip mit weniger Shadern als der RV770LE Chip. Dafür wird er aber höher getaktet und ist aufgrund neuerer Architektur effizienter.
Oder es werden ein paar Shader mehr verwendet aber dafür die Taktfrequenz ggü. des RV770LE etwas abgesenkt.
Und das hat nichts damit zu tun ob auf diesem neuen Chip mehr Shader plaziert werden könnte oder ob er höher getaktet werden könnte. Denn beides ist natürlich der Fall.

Eine GPU, welche die gleiche Chipfläche belegt und die gleiche Taktfrquenz besitzt wie ein RV770E, dabei aber in 40nm anstatt 55nm gefertigt wird, leistet ca. 80% mehr und verbraucht dazu auch noch weniger Watt.
Bei gleichem Wattverbrauch ist wohl etwas mehr als die doppelte Leistung drin.

Nur kostet so ein Chip eben mehr, verbraucht mehr Strom und braucht deshalb auch eine aufwändigere Kühlung.
Das ist der Grund, warum Nintendo das eben nicht verwenden wird.
Sie nutzen den kleineren Fertigungsprozess dafür dieses zu verhindern.

Und sollte wirklich nur eine LE Version des R770 in den Dev Kits stecken dann wäre das ein eindeutiger Beweis für diese These.

Sorry Du verwirrst mich, vor kurzem wurde hier gepostet, dass nur in den ursprünglichen Alpha-Kits, die älter sind als ein Jahr eine 4850 drin ist. Du behauptest, dass in den aktuellen ein 4850 LE drin ist. Es tut mir leid, das sind so oder so nur Spekulationen.

Selbst wenn es so wäre, warum nimmst Du an, dass die finale HW genau so viel Power hat, wie die DevKits. Die normale Vernunft würde doch davon ausgehen, dass die finale HW mehr Power hat, denn schließlich will man nicht darunter kommen. Sorry ich sehe da immer noch kein Argument. Du hast natürlich das gleich Recht zu spekulieren wie jedermann, aber ...
 
Für BetaVersion;

Auch wie ich finde interessant, aus dem NeoGaf, von lheere und Wsippel:

First I want to know why the people think about R7XX family all the time. I'm not sure if it was press people or where this rumor comes from but I think any dev said nothing about a R7XX model or any particular model. I can't said too much about it (specific details) but in the docs exists a detail that people can interpret that is a R7XX card, but it can be anything at all. But nothing in the documentation (as I said before) speaks about any specific models, clocks speeds, etc. So at this moment is a bit premature to say one thing or another.
I'm sure my info comes from the second version of the devkits at least (third if we count internal-alpha hardware in nintendo quarters that didn't go to licensees). I'll try to gather new info (i'm curious too XD).

Sorry to be so vague
Someone told me that an early devkit supposedly used an off-the-shelf RV770LE. But that chip would certainly not be used in the final hardware either way.

http://www.neogaf.com/forum/showpost...postcount=4627



Konsolenbaby geht hier gezielt auf die zweite Passage ein, wo das eben heist, die von Wsippel kommt.
Den Rest ignoriert er aber, selbst in Wsippel Post steht das der Finale Chip nichts am hut haben wird mit dem RV770LE, was sich eben auch auf die Leistung beziehen lässt!
Vor allem aber der erste Passage, von Lherre ausm Gaf ist interessant, den es kann sein, das es nicht einmal ein RV770 ist, in den Dev Kits..
 
Sorry Du verwirrst mich, vor kurzem wurde hier gepostet, dass nur in den ursprünglichen Alpha-Kits, die älter sind als ein Jahr eine 4850 drin ist. Du behauptest, dass in den aktuellen ein 4850 LE drin ist. Es tut mir leid, das sind so oder so nur Spekulationen.

Selbst wenn es so wäre, warum nimmst Du an, dass die finale HW genau so viel Power hat, wie die DevKits. Die normale Vernunft würde doch davon ausgehen, dass die finale HW mehr Power hat, denn schließlich will man nicht darunter kommen. Sorry ich sehe da immer noch kein Argument. Du hast natürlich das gleich Recht zu spekulieren wie jedermann, aber ...

Es geht darum, dass zum Zeitpunkt des "Zusammenschraubens" der ersten Wii-U Dev-Kits es stärkere PC GPUs gab als die dort verbauten.
Und meiner Logik nach wäre es unverständlich nicht diese Karten einzubauen wenn die finale Wii-U Hardware wesentlich stärker sein soll.

Also angenommen, Nintendo möchte mit der Wii-U ca. 1,5 facher HD 4850 (800 Shadereinheiten, 625Mhz) erzielen, dann ergibt es doch überhaupt keinen Sinn, in die Dev eine Karte einzubauen die sowohl weniger Shader besitzt (640) als auch niedriger getaktet wird (575Mhz).
Vielmehr würde man mindestens das Flagschiff der HD 4000 Serie, also die HD 4890 (800 Shader, 850Mhz verfügbar seit April 2009) oder zumindest eine HD 4870 (gleiche Werte 750Mhz und bereits seit Mitte 2008 erhältlich).
Oder man baut eben zwei HD 4000 Karten ein die zusammen gerechnet eben diese Leistung erzielen.

Und in keinem Gerücht wurde bisher erwähnt, dass in den Wii-U Dev-Kits sich zwei GPU befinden.
Es gibt auch kein Gerücht einer sehr starken Einzel-GPU in den Alpha-Dev-Kits.

Und aus diesem Grund komme ich eben zu den von mir geäußerten Annahmen.
 
Konsolenbaby:

Und was ist wen der Grund simpel ist und BigN, laut Gerüchten sollen die Dev Kits die Gröse der Wii U haben, einfach nichts schnelleres einbauen kann?
Kann man auch stark annehmen, falls überhaupt ein RV770 drin steckt, siehe post oben, BigN einfach auf den Fertigungsprozess wartet sprich 28nm.
Nach den Aussagen von Iwata weis man aktuell nicht einmal, ob man Verlust machen wird, klingt das für dich nach einer Hardwarekonfig, die bereits feststeht und in Stein gemeiselt ist?

Wer weis vieleicht stimmt das ja:

My gut is telling me that it has:

4-core Power7 CPU, with approximately 2.1-2.6Ghz and 32MB of eDRAM
A surprisingly modern GPU that is only remotely related to the RV7XX with at least 640 SPU/600Mhz
At least 1.5GB of RAM - I guess GDDR3 which with some novel Nintendo magic will be faster than expected.

http://www.neogaf.com/forum/showpost.php?p=32854289&postcount=12506


Übrigens, sagt dieser auch das die GPU nur entfernt was mit der RV770 zu tun hat und Modern ist, GCN vieleicht?
 
Konsolenbaby:

Und was ist wen der Grund simpel ist und BigN, laut Gerüchten sollen die Dev Kits die Gröse der Wii U haben, einfach nichts schnelleres einbauen kann?
Kann man auch stark annehmen, falls überhaupt ein RV770 drin steckt, siehe post oben, BigN einfach auf den Fertigungsprozess wartet sprich 28nm.
Nach den Aussagen von Iwata weis man aktuell nicht einmal, ob man Verlust machen wird, klingt das für dich nach einer Hardwarekonfig, die bereits feststeht und in Stein gemeiselt ist?

Wer weis vieleicht stimmt das ja:

My gut is telling me that it has:

4-core Power7 CPU, with approximately 2.1-2.6Ghz and 32MB of eDRAM
A surprisingly modern GPU that is only remotely related to the RV7XX with at least 640 SPU/600Mhz
At least 1.5GB of RAM - I guess GDDR3 which with some novel Nintendo magic will be faster than expected.

http://www.neogaf.com/forum/showpost.php?p=32854289&postcount=12506


Übrigens, sagt dieser auch das die GPU nur entfernt was mit der RV770 zu tun hat und Modern ist, GCN vieleicht?

Jetzt denk doch bitte mal eine Sekunde darüber nach was du hier annimmst.
Du glaubst also den Entwicklern ist die Größe ihrer Dev-Kits wichtiger als die in ihr schlummernden technischen Daten?
Ich denke einfach mal es interessiert die Entwickler nen feuchten Furz wie groß das Gehäuse ihrer Alpha-Dev Kits sind und wie viel Strom sie schlucken.
Sie wollen mit dem Teil arbeiten und es nicht als Deko auf den Tisch stellen.

Und die GPU in deinem Post entspricht eben nur einem RV770LE Chip.
 
Zuletzt bearbeitet:
Jetzt denk doch bitte mal eine Sekunde darüber nach was du hier annimmst.
Du glaubst also den Entwicklern ist die Größe ihrer Dev-Kits wichtiger als die in ihr schlummernden technischen Daten?
Ich denke einfach mal es interessiert die Entwickler nen feuchten Furz wie groß das Gehäuse ihrer Alpha-Dev Kits sind und wie viel Strom sie schlucken.
Sie wollen mit dem Teil arbeiten und es nicht als Deko auf den Tisch stellen.


Es geht hier um Nintendo, die unberechnbar sind, die Entwicklern 2 Wii Dev Kits gaben eines das ungefähr die Power von PS360 hatte und das andere.
Den 3DS kurzer Hand mit 3D ausgestattet haben und dadurch die Power verdoppelten, wusste davor auch keiner..

Wir reden hier nicht über MS/Sony, die so noch nie mit den Devs umging und sie so im Dunkel lassen ;)
 
Wieso war die extra Energie nicht bei den 360-Betakits schon mit drin? :lol:

Weil sie noch nicht alles hatten, wer sagt denn, das das beim Wii U nicht auch der Fall ist?
 
Zuletzt bearbeitet:
ist doch klar wie das abläuft
die hersteller senden den devs zuerst kits die soviel leisten wie eine wii
und dann überraschen sie diese mit 360 power
 
Mmh, dann frag ich mich, warum das in etwa genauso bei der 360 damals abgelaufen ist?

Ganz einfach, nach dem Ps3-Renderhype brauchte man nichtmehr Rumzuprotzen, und nur die ganz normale Entwicklung vorrantreiben, man wusste, das Sony sich von ganz alleine entzaubert. :lol:
 
Es geht darum, dass zum Zeitpunkt des "Zusammenschraubens" der ersten Wii-U Dev-Kits es stärkere PC GPUs gab als die dort verbauten.
Und meiner Logik nach wäre es unverständlich nicht diese Karten einzubauen wenn die finale Wii-U Hardware wesentlich stärker sein soll.

Also angenommen, Nintendo möchte mit der Wii-U ca. 1,5 facher HD 4850 (800 Shadereinheiten, 625Mhz) erzielen, dann ergibt es doch überhaupt keinen Sinn, in die Dev eine Karte einzubauen die sowohl weniger Shader besitzt (640) als auch niedriger getaktet wird (575Mhz).
Vielmehr würde man mindestens das Flagschiff der HD 4000 Serie, also die HD 4890 (800 Shader, 850Mhz verfügbar seit April 2009) oder zumindest eine HD 4870 (gleiche Werte 750Mhz und bereits seit Mitte 2008 erhältlich).
Oder man baut eben zwei HD 4000 Karten ein die zusammen gerechnet eben diese Leistung erzielen.

Und in keinem Gerücht wurde bisher erwähnt, dass in den Wii-U Dev-Kits sich zwei GPU befinden.
Es gibt auch kein Gerücht einer sehr starken Einzel-GPU in den Alpha-Dev-Kits.

Und aus diesem Grund komme ich eben zu den von mir geäußerten Annahmen.

Sehr gut Sherlock ;-)

Nur sind das genau so Annahmen wie alle anderen auch.

@Brubi vielen Dank, aber ich habe das auch gefunden, es gibt nur eine einzige Referenz zum Thema Wii U und HD 4850 LE, das war also recht einfach...

Gestern Abend wurde im Neogaf übrigens über eine 4870 spekuliert ...

Ich persönlich halte das alles für Spekulation, einfach weil es keinen Sinn macht, eine echte 4xxx GPU zu nehmen. Die Kosten bei einer Chip-Produktion bei festgelegten sonstigen Parametern wie zum Beispiel die Auflösung wird durch zwei Faktoren bestimmt, die Fehlerrate und die Größe des Chips. Wenn die Fehlerrate 1 Fehler/cm2 ist und meine Chips sind 1 cm2 groß, dann sind statistisch gesehen alle meine Chips hin und es wird eben teuer :awesome: . Ist dagegen der Chip nur 0,5 cm2 groß dann erhalte ich ca. 50% Ausbeute was OK ist.
Ab einer Ausbeute von ca. 60 - 70% lohnt es sich die Chips größer zu machen, denn die Chips werden gesägt und je weniger Sägekanten desto besser. Außerdem benötigen Übergänge über die Chipkanten viel Strom (=großflächige Treiber) und sind langsam. Das heißt es lohnt sich die Chips so groß wie möglich zu machen. Da ich jetzt mal von 40 nm (= sehr ausgereifte Technologie) ausgehe, bekommen wir, wenn Nintendo nicht komplett bescheuert ist, einen SoC der mind. 2 Mrd. Transistoren hat, wahrscheinlich mehr. Denn wenn man ihn kleiner macht, wird er halt nicht mehr viel billiger und wenn ich ihn auf 2 Chips verteile wird er deutlich teurer !

Das heißt entweder es gibt einen Chip mit CPU und GPU auf einer Fläche, was AMD aktuell sehr propagiert oder aber wir bekommen eine CPU und GPU jeweils mit viel RAM sowie integrierten I/O Systemen (z.B. die Wii, Sound...). Sollte es tatsächlich eine CPU/GPU Kombi werden, dann macht die 4850 Diskussion wieder Sinn, denn man braucht schließlich Fläche für die CPU. ABER eine solche Kombination lässt sich nur schwer/kaum mit den Einzelchips vergleichen und ich würde trotzdem eine aktuellere Architektur nehmen, sie müsste eben nur von der Fläche/Leistung vergleichbar sein !
Sollte es aber eine CPU und GPU mit jeweils viel RAM geben, dann macht es Null, Null Sinn eine 4850 einzubauen, denn es wäre nicht teuerer eine 6870 ohne ein paar Spezialfunktionen zu nehmen...

Alles natürlich pure Spekulation und total imho ;-)
 
Zuletzt bearbeitet:
Ich glaub nicht an alte R700 GPU Varianten, das ist so schwachsinnig, das ist Alles das frühe Devkit, aus dem sich diese Info bis Heute speist.

AMD ist mitten in der Massenfertigung für Grafic Core Next, und ich bin mir sehr sicher, das Nintendo ein Angebot für diese neue Architektur von AMD bekommen hat, die entwickeln doch GCN nicht erst seit gestern.

Ich glaube sogar, das das ein Hauptgrund für die Verzögerung der finalisierten Devkits ist. ;-)
 
Zuletzt bearbeitet:
Crysis 2/Battlefield 3 PC Version in 1080P, mit 60fps und allem Anti-Aliasing Schnickschnack. Mehr nicht. Ok, DX11-Effekte und evtl. Physikspielereien wie Nvidia Physix.

Mehr wirds nicht geben.

Würde ich nicht sagen. Fakt ist, dass Konsolen inzwischen die Hauptplattform sind... selbst bei einem BF3. Das letzte Spiel, dass auf PC wirklich "optimiert" wurde, ist nach wie vor Crysis... und man sieht, was geht. Wenn die neuen Konsolen mit entsprechender Power kommen, dann wird der Sprung ruckzuck kommen und Battlefield 3 wird dagegen alt aussehen. Wenn ich mir ein Killzone 3 oder Uncharted 3 ansehe (klar, kleinere Level) und es dann in Relation zu BF3 setze... ein kleiner Sprung. Wenn man sich aber die Hardware anschaut, die das jeweilige Spiel antreiben tut, ein Höllenunterschied. Den PC kann man aber hier nicht mehr als Maßstab nehmen.
 
Würde ich nicht sagen. Fakt ist, dass Konsolen inzwischen die Hauptplattform sind... selbst bei einem BF3. Das letzte Spiel, dass auf PC wirklich "optimiert" wurde, ist nach wie vor Crysis... und man sieht, was geht. Wenn die neuen Konsolen mit entsprechender Power kommen, dann wird der Sprung ruckzuck kommen und Battlefield 3 wird dagegen alt aussehen. Wenn ich mir ein Killzone 3 oder Uncharted 3 ansehe (klar, kleinere Level) und es dann in Relation zu BF3 setze... ein kleiner Sprung. Wenn man sich aber die Hardware anschaut, die das jeweilige Spiel antreiben tut, ein Höllenunterschied. Den PC kann man aber hier nicht mehr als Maßstab nehmen.

Die Hardware hat sich seit Release von PS360 um gut 15 fache gesteigert, seit 2007 sind die PS360 aber schon veraltet im Bezug auf Spielegrafik, da kam ja Crysis auf dem Markt das aber(!) auch jeden PC in die Knie zwang.
Selbst heute braucht man noch richtig dicke Hardware um Crysis ordentlich spielen zu können und dennoch, der Unterschied ist da aber nicht gewaltig!
Die Sprünge werden kleiner, wen du erwartest das die PS420 deutlich bessere Ergebnisse liefern als Battlefiel 3/Crysis Optik und das bei 1080P und 60 FPS wirst du enttäuscht...

Carmack sagte ja schon das die Sprünge kleiner werden, 2018/19 haben wir wohl dann ein Niveau erreicht, das dem Fotorealismuss sehr nahe kommt.
Vermute das ab 2016/17 neue Technologien kommen wo GPUs mit 2GHZ Taktungen fahren und CPUs weit über 6GHZ ;)
 
Also wenn der standart nächste gen, das wird was die meisten Top Games raushauen, dann reicht das. Nur will ich wirklich dafür auch technisch saubere Titel und gerne Physik das sich richtig gut anfühlt. Zudem sollen die Entwickler lieber mehr an Details arbeiten, das hab ich zb an Batman und Uncharted geliebt, weil da richtig liebe drin steckt. Auch bei Assasins Creed, obwohl das spiel quasi jährlich kommt, passt vieles, okay gameplay wird nichts neues gemacht, aber wenn man sich die Städte etc anschaut dann denkt man sich, ned schlecht.
 
Mmh, dann frag ich mich, warum das in etwa genauso bei der 360 damals abgelaufen ist?

Ganz einfach, nach dem Ps3-Renderhype brauchte man nichtmehr Rumzuprotzen, und nur die ganz normale Entwicklung vorrantreiben, man wusste, das Sony sich von ganz alleine entzaubert. :lol:

Was ist wie bei der 360 abgelaufen ?

Die ersten 360 Dev-Kits brachten nur ca. ein Drittel der Leistung von der finalen Hardware.
Aber das war nicht deshalb so weil MS da ein ganz raffiniertes Versteckspiel sich ausgedacht hat.
Vielmehr steckte in den Devs die damals stärkste PC Hardware die zu dem Zeitpunkt verfügbar war.
ATI GPUs ließen noch nicht zu zweit koppeln so dass man nur eine ATI GPU einbauen konnte. Und die war eben ggü. der finalen 360 GPU sehr schwach. Als CPU kamen zwei Power PC CPUs zum Tragen weil es keine normalen Mainboards gab für mehr als zwei Prozessoren.

Somit ist es völlig verständlich warum die Alpha Kits der 360 so schwach auf der Brust waren. Und wie auch schon öfters erwähnt war das den Entwicklern bekannt da MS sie diesbezüglich eben nicht im Unklaren gelassen hat.

Aber bei der Wii-U ist das eben ander, nur wollen das hier die üblichen Verdächtigen aufs Biegen und Brechen nicht kapieren egal wie einfach man es ihnen auch erklärt.
Sorry, aber so ist eine Diskussion einfach nicht möglich wenn hier immer und immer wieder Dinge zu widerlegen versucht werden, die überhaupt nicht Thema der Diskussion sind.

Es steht nicht zur Diskussion ob ein irgendwie gearteter RV7XX Chip (also die HD 4000 Serie) in der Wii-U steckt.
Und es steht genau so wenig zur Debatte dass man mit kleinerer Fertigungstechnik mehr Leistung aus einem Chip holen kann oder mehr Transistoren auf ihm verbaut.
Darum geht es überhaupt nicht aber irgendwie scheinen das manche hier einfach nicht zu kapieren.
Statt dessen wird man als Hater, Unwissender oder wer weiß was abgestempelt wenn man aus den bisherigen Gerüchten und Fakten einigermaßen plausible Rückschlüsse zieht.

Wer mit dem Spruch kommt
"Wir wissen ja alle nicht was Nintendo letztendlich verbaut" entzieht einer solchen Diskussion natürlich sämtliche Berechtigungsgrundlage.
 
Die Hardware hat sich seit Release von PS360 um gut 15 fache gesteigert, seit 2007 sind die PS360 aber schon veraltet im Bezug auf Spielegrafik, da kam ja Crysis auf dem Markt das aber(!) auch jeden PC in die Knie zwang.
Selbst heute braucht man noch richtig dicke Hardware um Crysis ordentlich spielen zu können und dennoch, der Unterschied ist da aber nicht gewaltig!
Die Sprünge werden kleiner, wen du erwartest das die PS420 deutlich bessere Ergebnisse liefern als Battlefiel 3/Crysis Optik und das bei 1080P und 60 FPS wirst du enttäuscht...

Ich glaube nicht das ich enttäuscht werden, im Gegenteil. Von PC-Leistung und erhaltener Grafik auszugehen ist der falsche Weg und führt einen dann natürlich auch zu einer falschen Schlussfolgerung. Klar konnte man mit Crysis jeden PC in die Knie zwingen, aber auch schon damals war es sehr gut möglich Crysis damit mit höchsten Detaisl flüssig zu spielen. Was geht zeigt ja auch der Port auf PS360. Der PC wird nicht ansatzweise ausgenutzt und die meiste Leistung verpufft, dass ist einfach so. Daher klaffen Papier und Realität dabei so auseinanders. Wäre eine Konsole heute mit dem ausgestattet was ein aktueller PC hat, würde man über BF3 nur schmunzeln können.

Carmack sagte ja schon das die Sprünge kleiner werden, 2018/19 haben wir wohl dann ein Niveau erreicht, das dem Fotorealismuss sehr nahe kommt.
Vermute das ab 2016/17 neue Technologien kommen wo GPUs mit 2GHZ Taktungen fahren und CPUs weit über 6GHZ ;)

Also, das widerspricht sich doch sehr. Es kann nicht sein, dass einerseits die Sprünge kleiner werden und dann in 5 bis 6 Jahren plötzlich Photorealismus nahe kommt... das wäre nämlich nochmal ein ganz gewaltiger Sprung.
 
Sehr gut Sherlock ;-)

Nur sind das genau so Annahmen wie alle anderen auch.

@Brubi vielen Dank, aber ich habe das auch gefunden, es gibt nur eine einzige Referenz zum Thema Wii U und HD 4850 LE, das war also recht einfach...

Gestern Abend wurde im Neogaf übrigens über eine 4870 spekuliert ...

Ich persönlich halte das alles für Spekulation, einfach weil es keinen Sinn macht, eine echte 4xxx GPU zu nehmen. Die Kosten bei einer Chip-Produktion bei festgelegten sonstigen Parametern wie zum Beispiel die Auflösung wird durch zwei Faktoren bestimmt, die Fehlerrate und die Größe des Chips. Wenn die Fehlerrate 1 Fehler/cm2 ist und meine Chips sind 1 cm2 groß, dann sind statistisch gesehen alle meine Chips hin und es wird eben teuer :awesome: . Ist dagegen der Chip nur 0,5 cm2 groß dann erhalte ich ca. 50% Ausbeute was OK ist.
Ab einer Ausbeute von ca. 60 - 70% lohnt es sich die Chips größer zu machen, denn die Chips werden gesägt und je weniger Sägekanten desto besser. Außerdem benötigen Übergänge über die Chipkanten viel Strom (=großflächige Treiber) und sind langsam. Das heißt es lohnt sich die Chips so groß wie möglich zu machen. Da ich jetzt mal von 40 nm (= sehr ausgereifte Technologie) ausgehe, bekommen wir, wenn Nintendo nicht komplett bescheuert ist, einen SoC der mind. 2 Mrd. Transistoren hat, wahrscheinlich mehr. Denn wenn man ihn kleiner macht, wird er halt nicht mehr viel billiger und wenn ich ihn auf 2 Chips verteile wird er deutlich teurer !

Das heißt entweder es gibt einen Chip mit CPU und GPU auf einer Fläche, was AMD aktuell sehr propagiert oder aber wir bekommen eine CPU und GPU jeweils mit viel RAM sowie integrierten I/O Systemen (z.B. die Wii, Sound...). Sollte es tatsächlich eine CPU/GPU Kombi werden, dann macht die 4850 Diskussion wieder Sinn, denn man braucht schließlich Fläche für die CPU. ABER eine solche Kombination lässt sich nur schwer/kaum mit den Einzelchips vergleichen und ich würde trotzdem eine aktuellere Architektur nehmen, sie müsste eben nur von der Fläche/Leistung vergleichbar sein !
Sollte es aber eine CPU und GPU mit jeweils viel RAM geben, dann macht es Null, Null Sinn eine 4850 einzubauen, denn es wäre nicht teuerer eine 6870 ohne ein paar Spezialfunktionen zu nehmen...

Alles natürlich pure Spekulation und total imho ;-)

Eine SoC Lösung in 40nm würde weniger leisten als alles was hier bisher diskutiert wurde.
Schau dir doch mal die ach so tollen SoC ALUs von Intel und AMD an.
Die liegen mit ihren Topmodell gerade mal leicht über 360 Niveau und das bei 40nm.

Weiterhin sind meiner Meinung nach 2Mrd Transistoren für diesen Nintendo SoC bei 40nm viel zu hoch gegriffen.
Vergleichbar wäre z.B der RV940. Verfügt über 1.7 Mrd Transistoren bei 40nm und verbrät mal eben 156 Watt.
Und das ist nur eine GPU. Eine SoC mit CPU und GPU verbraucht bei gleicher Transistorenanzahl noch mehr Watt da CPUs auf gleicher Fläche weniger Transistoren besitzen.

Kleine Umrechnung.
CPU und GPU der 360 wurden in 90nm gefertigt.
Die CPU der 360 besaß 165Mio Transistoren
und die GPU inklusive eDRAM kam auf 337Mio Transistoren.

Macht zusammen ziemlich genau 500Mio Transistoren.
Die Schrumpfung von 90 auf 40nm ergibt ca. Faktor 5.0

In 40nm Technik passen also ungefähr fünf Mal so viele Transistoren auf die gleiche Chipfläche wie bei 90nm.
Ein SoC mit 2Mio Transistoren in 40nm hätte also fast die gleiche Chipfläche wie CPU und GPU der 360.
Nur das diese eben auf zwei getrennten Chips lagen, dazu mächtig heiß wurden und auch recht teuer waren.

Ne, das passt nicht.
Dann müsste das Gehäuse der Wii-U aufgrund der aufwändigen Kühlung schon einiges größer sein und vor allem würde er auch wohl teurer als die Launch 360 werden und Nintendo würde dann immer noch etwas subventionieren müssen.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom