Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Bei den WiiU Specs war eine Quad Core CPU, und es gab auch keine Angaben zu einen eDRAM für die GPU oder Bandbreite.

also ich bin kein technik-guru, aber ich glaub so gewaltig wie bei wii zu ps360 werden die unterschiede in der nächsten generation dann echt nicht sein!
ich glaube ms könnte dann sogar preislich nintendo in die enge treiben, sofern sie nicht auch ein teures pad als controller verwenden...
 
also ich bin kein technik-guru, aber ich glaub so gewaltig wie bei wii zu ps360 werden die unterschiede in der nächsten generation dann echt nicht sein!

Dann wurde Nintendo das Unmögliche möglich machen.
Wenn an den Hardwareleaks von WiiU und NeXBox aber was dran sein sollte, wäre noch immer ein größerer Unterschied vorhanden.
 
Angebliche Daten der NeXBox:



Quelle: http://s3gal3aks.wordpress.com/2011/11/15/world-exclusive-xbox-ten-spec-sheet/#comments

Mit ein paar Interpretationen wäre das schonmal ein wirklich dickes Ding. Eine Hexa CPU mit einen Takt von 3,73GiHz lässt zwar auf einen eher schlechten IpC schließen, aber das hat die 360 auch nicht gestört.
Und wenn die Bandbreite zum Main-RAM schon 256GiB/s sein sollte, will ich gar nicht die angebliche Bandbreite des duchaus großen eDRAm wissen.
Ist natürlich mit Vorsicht zu genießen, ließt sich aber nach einer sehr guten Weiterentwicklung.

Du hast ja bekanntlich Ahnung. Wie sehe so eine Hexa-Core CPU im Vergleich zu einem Cell bzw. modifiziertem Cell aus, der im Bereich des möglichem liegt?
Und wie wahrscheinlich ist eine Dual-Core GPU wirklich - auch in einer PS4?
 
Dann wurde Nintendo das Unmögliche möglich machen.
Wenn an den Hardwareleaks von WiiU und NeXBox aber was dran sein sollte, wäre noch immer ein größerer Unterschied vorhanden.


Dann sag mal die Daten zur Wii U, ich kenne keine genauen Daten, auser das eine HD4850 verbaut sein sollte zumindest in den frühen Dev kits..
Und welche GPU ist in der Next Box, steht nicht dort auser das es eine Dual GPU ist, HD6990 mit Sicherheit nicht, ergo liegen näher zusammen, als sich das manche Wünschen!
 
Zuletzt bearbeitet:
sind das nicht die daten die auch schon für die wii-u im umlauf waren????

Ne, bei weitem nicht.
Bei der Wii-U war von einer vierkern CPU - aber auch auf Basis eines Power 7- die Rede.
Die GPU war mehr spezifiziert und auf Basis einer älteren Radeon Architekur.
Speicherbandbreite war überhaupt nicht genannt


Das sind eh Daten aus denen man mehr oder weniger ableiten kann.

Aber betreiben wir es mal wie bei den Wii-U Grüchten.

Die CPU-
Power7 sagt nur, dass es grundsätzlich auf einem solchen Prozessor aufbaut. In keiner Weise darf man aber hier den Schluss ziehen, diese CPU wäre bis auf Kleinigkeiten mit der PC Power7 CPU identisch.
Es wird deren neueste Architektur verwendet und auf Konsolenverhältnisse angepasst.
Dazu gehört auch, dass sie mächtig abgespeckt wird. Zum Teil, weil man viele Funktionen einfach nicht in einer Konsole braucht und zum Zweiten weil der Chip sonst unbezahlbar würde.
Es muss ein optimales Preis/Leistungsverhältnis zustande kommen.

6 Kerne halte ich für ein sehr realistisches Szenario.
Die 3 Kerne der 360 lassen sich heute schon sehr effizient programmieren, der nächste Schritt auf sechs ist somit logisch.
Vier wären zu wenig und mehr als sechs wohl ineffizient.
Da man die Taktfrequenz nicht mehr großartig erhöhen kann und auch die Komplexität einer CPU ihre Grenzen hat und bei Steigerung ineffizient wird, muss man auch hier das optimale Verhältnis von Komplexität und Anzahl der Kerne finden.
Und hier scheinen sechs Kerne mit mittelprächtiger Komplexität wohl für die nächsten Jahre die optimale Kombination zu sein.

Die GPU -
Custom AMD Radeon HD Graphics sagt natürlich erst einmal überhaupt nix aus.
Configuration : Single Die Dual Core kann ich mir eigentlich nicht vorstellen.
Das bedeutet, zwei GPUs auf einem Chip. Wo liegt da der Sinn ?
Eventuell ist das aus Leaks von bereits existierenden Alpha Kits abgeleitet, in denen zwei GPUs stecken.
Aber man wird sehen.
Könnte aber auch aufgrund der schlechten Chipausbeute begründet sein.
Denn bei schlechter Ausbeute ist es natürlich günstiger zwei Skalierbare GPUs zu verbauen als eine.
Anders wie im PC Sektor muss man hier jede defekte GPU ja wegschmeißen. Beim PC wird einfach der defekte Teil deaktiviert und die GPU wird als günstigeres Modell verkauft.
Schon Sony hat das ja schon beim Cell so gemacht. Einfach eine SPE standardmäßig deaktiviert so dass auch Cells verbaut werden konnten, die in einer SPE Defekte aufwiesen.
Bei einer Konsolen-GPU wäre das natürlich auch möglich - also einfach mehr Recheneinheiten verbauen als letztendlich genutzt würde - nur hätte man dann natürlich Leistungsbeschränkungen und beim Cell existierte der ja sowieso, da er nicht nur in der PS3 eingsetzt wurde.
Die Taktfrequenz würde um 50% über jender der 360GPU liegen. Pro Shader ist sie also auch um 50% schneller.


- Speicherbrandbreite
256MiB wären natürlich schon mächtig. Wäre ca. die zehnfache Bandbreite der 360.
Dazu noch eDRAM. Mit 100MiB auch zehn Mal so groß wie bei der 360.
100MiB sind schon ordendlich, aber es könnten wohl doch ein wenig mehr sein. Denn die Next-Gen dürfte wohl auch in der Farbtiefe zulegen. Dann würden 100MiB aber recht eng werden wenn man zumindest vierfach AA ohne Tiling damit bewerkstelligen wollte.
Mit diversen PostProzessing Operationen erhöht man die Framebuffergröße auch noch.
Ich meine mal gelesen zu haben das Crysis 2 auf den Konsolen mit 720p und temporärem AA einen Framebuffer schon von über 60MB besitzt. Bei höherer Farbtiefe, 1080p und vernünftigem AA kommt man auf jeden Fall ohne Tiling auch bei 100MiB eDRAM nicht aus.

Speichergröße:
2 GiB sind genug, könnten aber ruhig ein wenig mehr sein.
Man darf aber nicht vergessen, dass es sich hier um sauschnelles Ram handelt. Vergleichbar mit dem schnellsten auf derzeitigen GPUs.
Also nicht zu vergleichen mit normalem Standardram im PC.

Mein Tip lag ja zwischen 2 und 4 GiB.
Aber keine Sorge, auch wenn der ein oder andere Entwickler bereits rumheult, sind zwei Gigabyte ne Menge Holz für eine Konsole.
 
Angebliche Daten der NeXBox:

Quelle: http://s3gal3aks.wordpress.com/2011/11/15/world-exclusive-xbox-ten-spec-sheet/#comments

Mit ein paar Interpretationen wäre das schonmal ein wirklich dickes Ding. Eine Hexa CPU mit einen Takt von 3,73GiHz lässt zwar auf einen eher schlechten IpC schließen, aber das hat die 360 auch nicht gestört.
Und wenn die Bandbreite zum Main-RAM schon 256GiB/s sein sollte, will ich gar nicht die angebliche Bandbreite des duchaus großen eDRAm wissen.
Ist natürlich mit Vorsicht zu genießen, ließt sich aber nach einer sehr guten Weiterentwicklung.
Indeed. Vorallem dieses Gerücht von der Seite hier hört sich sehr glaubwürdig an:

Even whilst using the revolutionary and no doubt costly PowerVR RTX, Sega is still targeting a $299.99 launch price point for it’s next generation home video entertainment platform.

:ugly:
 
Warum nehmt ihr diesen blog überhaupt ernst lol..


Ich zitiere mal ne andere "News" davon:
Sega Still Shooting For A $299.99 Launch Price Point

Even whilst using the revolutionary and no doubt costly PowerVR RTX, Sega is still targeting a $299.99 launch price point for it’s next generation home video entertainment platform.

Latest news suggests that SEGA SAMMY is willing to take a hit per unit sold in order to build a commanding lead before the arrival of Microsoft’s XBox 720 and Sony’s PlayStation 4.

Both systems are expected to struggle against Sega’s as of yet unnamed console, as they shall lack the necessary on board circuitry for real-time ray tracing. If Sega also undercut’s them on price, then Sega may find themselves with a market monopoly.

- Zach Morris

Ups ich war langsam xD
 
Zuletzt bearbeitet:
Du hast ja bekanntlich Ahnung. Wie sehe so eine Hexa-Core CPU im Vergleich zu einem Cell bzw. modifiziertem Cell aus, der im Bereich des möglichem liegt?
Und wie wahrscheinlich ist eine Dual-Core GPU wirklich - auch in einer PS4?


Ich schätze fast, dass diese dual Core GPU nur in den ersten DevKits zu finden ist, ähnlich wie bei den ersten PS3 DevKits, die hatten auch zwei nVidia 6800 im SLI geschaltet, da es die 7800 schlicht noch nicht gab, man aber schonmal einen Ausblick auf die Performance geben wollte. Den gleichen Grund wurde ich bei den angeblichen aktuellen NeXBox DevKits sehen.

Was einen spekulativen Cell2 angeht im Vergleich zu dem oben genannten, da lässt sich eigentlich nichts zu sagen, bin da auch nicht gut genug in der Materie drin um jetzt gut mit Daten spekulieren zu können, da wäre wohl Code oder Hazuki gute Ansprechpartner für.
Im Endeffekt weiß man auch nicht inwieweit der Power7 Kern kastriert wurde, 6 vollwertige mit 3,73GiHz können es definitiv nicht sein.
Aber ein Quad Power7 mit einer guten Anzahl an SPEs wurde ich sehr interessant finden, wichtig wäre jedenfalls dass das Verhältnis zwischen den eigentlichen Kernen und den SPEs besser bestellt ist. Das ist die Achillesferse des in der PS3 verwendeten Cells. Die SPEs sind zwar wieselflink, aber halt nicht in allen Bereichen. Da ihnen in der PS3 nun aber ein eher schwacher Kern und eine eher schwächere GPU gegenübergestellt wurde, sind sie eher damit beschäftigt die Defizite der anderen Komponenten auszugleichen, als sich auf Bereiche zu konzentrieren in denen sie prallen könnten. Diese Auslagerung auf die SPEs stellt ja auch die Herausforderung bei der PS3 Programmierung dar. Wenn Sony hier also ansetzen wurde, könnte man mit dem oben erwähnten Cell den Hexa Kern wohl übertrumpfen, gerade in Physiksimulationen. In wie weit sowas heute aber noch nötig wäre, steht bei der Multiplatformentwicklung heute aber natürlich in Frage.

Dann sag mal die Daten zur Wii U, ich kenne keine genauen Daten, auser das eine HD4850 verbaut sein sollte zumindest in den frühen Dev kits..
Und welche GPU ist in der Next Box, steht nicht dort auser das es eine Dual GPU ist, HD6990 mit Sicherheit nicht, ergo liegen näher zusammen, als sich das manche Wünschen!

Die Antwort auf deine Frage ist schon in den von dir zitierten Teil zu finden, gleich im Nebensatz des zweiten Satz.
Also, wenn sich die Daten bewahrheiten, steckt in der NexBox schonmal eine gutes Stück stärkerere CPU, und weit mehr eDRAM in der GPU. Und diesen beiden Komponenten wurde MS wohl keine GPU gegenüberstellen welche sich dann auf dem Niveau der WiiU Specs bewegt.

Indeed. Vorallem dieses Gerücht von der Seite hier hört sich sehr glaubwürdig an:



:ugly:

Wenigstens Stoff um den Thread zu füllen :D
 
Zuletzt bearbeitet:
Dann sag mal die Daten zur Wii U, ich kenne keine genauen Daten, auser das eine HD4850 verbaut sein sollte zumindest in den frühen Dev kits..
Und welche GPU ist in der Next Box, steht nicht dort auser das es eine Dual GPU ist, HD6990 mit Sicherheit nicht, ergo liegen näher zusammen, als sich das manche Wünschen!

Natürlich liegen sie näher zusammen als Wii zu PS360. Denn zwischen denen liegt der Faktor ZEHN.
PS360 sind (mindestens) zehn Mal leistungsfähiger als die Wii. So einen großen Abstand wird es natürlich nicht mehr geben.
Aber gut dreifache Leistung erwarte ich von der 720 ggü. der Wii-U auf jeden Fall.
Dafür sprechen schon solche Dinge wie
- späterer Launch
- kein teures Tablet-Pad
- kein Gewinn an der Hardware zu Beginn
- zusätzliche Subventionen.
 
Natürlich liegen sie näher zusammen als Wii zu PS360. Denn zwischen denen liegt der Faktor ZEHN.
PS360 sind (mindestens) zehn Mal leistungsfähiger als die Wii. So einen großen Abstand wird es natürlich nicht mehr geben.
Aber gut dreifache Leistung erwarte ich von der 720 ggü. der Wii-U auf jeden Fall.
Dafür sprechen schon solche Dinge wie
- späterer Launch
- kein teures Tablet-Pad
- kein Gewinn an der Hardware zu Beginn
- zusätzliche Subventionen.

Ja eben mehr sag ich ja nicht, so ungefähr erwarte ich es, wobei eher Faktor 2, aber eine Frage, wie genau wirkt sich "edram" aus?
Ich vergleiche ja nur rein PC Hardware die ja kein "edram" besitzen, wo genau macht sich "edram" bezahlt, gratis FullHD mit AA was ich so höre aber WIE o_0
 
Wenn Schwarzmalerei nicht ok ist, warum denken dann recht viele Sony-Fanboys hier, dass die WiiU nicht einmal 360-Power erreicht und die anderen Konsolen garantiert (sehr viel) stärker sein werden? xD

Da nimmt sich niemand was :)

Und ja, die 3DS-Akkulaufzeiten sind arg grenzwertig bis nicht ok. Aber die Vita unterbietet das, das musst du dir immer vor Augen halten. Sony selbst hat wenige Tage nach der Präsentation einen Zusatzakku für einen horrenden Preis angekündigt, sie haben damit sogar kalkuliert, dass die Leute Zusatzhardware kaufen, damit die Vita komplett ist. Selbe Sache mit den Speicherkarten. Eine "ausgewogene" Hardware sieht imho anders aus, selbst eine "offene" Hardware sieht imho anders aus.

Wie gesagt, wenn sie die Vita-Fehler auf die PS4 übertragen, kann man sich auf einige Dinge durchaus einstellen :)
So fehlerfrei ist die Vita auch nicht.

Aber ja, bei der Vita hat Sony auf die Rendertrailer verzichtet, bleibt halt nur noch ihre Arroganz und der typischen "Ach, wir sind ein anderer Markt, wir brauchen uns nicht zu vergleichen..."-Attitüde und die Sache, dass sie Hardwarezahlen zurückhalten... aber jetzt nur auf die Spiele und so bezogen, haben sie schon gut dazugelernt und alles. Jetzt müssen sie nur noch den Vita-Support länger als 2 Jahre (so lang hat's bei der PSP gehalten) sicherstellen und nicht alles auf i-Device-Spielklone und PSN-Minigames setzen und die Vita hat ihre Nische :)

Man kann doch vernünftig miteinander reden und muss doch nicht die Spielchen mitmachen.

Nun 360 Power würde ich mal auch annehmen für die WiiU. Was die Leistung der anderen Beiden angeht, tja stärker jup, aber bin doch kein Hellseher. Man kann halt nur davon ausgehen, dass MS und Sony auf Leistung setzen werden. Wieviel stärker dies dann ist wird man sehen.

Nun die Speicherkartengeschichte ist wirklich leidig und nicht ansatzweise praktisch gelöst. Wird einfach im Konzept drinstehen, dass man spezielle Speicherkarten anbietet um 1. Geld zu verdienen und 2. die Raubkopierproblematik der PSP weithin zu unterbinden.
Man sieht doch auch was Sony die PSP Go gebracht hat, ein schniekes überteuertes und teilweise nicht unterstütztes Handheld. Folglich hat Sony um auch Kosten zu sparen keinen Flashspeicher verbaut (Idioten^^).

Die Softwareunterstützung wollen sie diesmal auch besser planen, aber da kam bei der PSP natürlich auch ungünstig die PS3 Strauchelei in die Quere.

Ich bin mir aber nicht sicher, ob es nun ein Nachteil ist auch auf seichtere Games zu setzen oder zumindest vom Smartphonebereich zu profitieren, wenn dies denn Sony gelinge. Dass dann immer noch die größeren Titel kommen kann man wohl von ausgehen.

Wenn dann wirklich die Portung von Vita und PS3 leicht von statten geht, naja dann sind zumindest weitgehende Ports wie bereits angekündigt eine Möglichkeit. Wieviel es bringt wird man dann sehen.
 
Ja eben mehr sag ich ja nicht, so ungefähr erwarte ich es, wobei eher Faktor 2, aber eine Frage, wie genau wirkt sich "edram" aus?
Ich vergleiche ja nur rein PC Hardware die ja kein "edram" besitzen, wo genau macht sich "edram" bezahlt, gratis FullHD mit AA was ich so höre aber WIE o_0

eDRAM ist ein Speicher der auf dem Grafikchip liegt.
Sein Vorteil ist die extrem hohe Bandbreite.
Die 360 hat z.B. 10MiB an eDRAM mit einer Speicherbandbreite von 32GB zum eDRAM und im eDRAM dann von 256GB.
Die normale Speicheranbindung zwischen Hauptspeicher und Speicherbus liegt bei 22,4 GB.

Normalerweise werden die Grafikdaten mehrere Male von der GPU zum Speicher und zurück geschoben bis ein Bild erzeugt wird. Das belastet natürlich den Speicherbus.
Mit eDRAM kommen die Grunddaten vom Hauptspeicher in die GPU. Dort werden sie bearbeitet und gelangen ins eDRAM. Dort werden dann diverse weitere Operationen -dazu gehört auch das AA - ausgeführt. Eventuell gelangen sie auch zwischendurch noch mal in die GPU und wieder zurück ins eDRAM.
Erst am Ende aller Berechnungen gelangen sie dann wieder über den normalen Bus in den Hauptspeicher, wo sie im Frontframebuffer abgelegt werden und bereit zur Ausgabe sind.
Der normale Speicherbus wird also wesentlich weniger belastet als bei einer herkömmlichen Lösung.

Deshalb kann man die Speicherbandbreite der 360 auch nicht direkt mit derer einer normalen PC GPU vergleichen.
Denn beim PC findet dieser ständige Transfer zwischen GPU und deren Speicher (nicht dem Hauptpspeicher) ständig statt. Und deshalb muss auch der Speicher einer PC GPU eine wesentlich höhere Bandbreite besitzen als die der 360 um auf gleiche Ergebnisse zu kommen,

Wenn also die 720 schon eine normale Speicherbandbreite von 256GB haben sollte - was jener aktueller PC GPUs entspricht - so macht das in Kombination mit dem eDRAM eine irrsinnige Gesamtspeicherbandbreite aus, an die aktuell jedenfalls kein PC System heran reicht.

PS: Natürlich darf nicht verschwiegen werden dass in der 360 ein gemeinsamer Speicher für CPU und GPU verwendet wird. Und da beide Chips auf den Speicher zugreifen muss relativ gesehen die Bandbreite dieses Speichers höher sein als die bei getrenntem Speicher für jeden Chip.
Den Hauptanteil des Speicherzugriffs hat aber die CPU und bei einem PC ist der Hauptspeicher auch um einiges langsamer als der Grafikkartenspeicher.
 
Zuletzt bearbeitet:
Die GPU -

Configuration : Single Die Dual Core kann ich mir eigentlich nicht vorstellen.
Das bedeutet, zwei GPUs auf einem Chip. Wo liegt da der Sinn ?

Ist doch heute normal bei Dual GPU Karten meine alte GTX 290 hatte auch 2 GPUs auf einer Die , glaub das bedeutet das beide GPus auf einer platine sind.
Gab nämlich auch ne billigere variante der GTX 290 da waren die GPUs jeweils auf seperaten platinen.

Und bezieht sich doch eh auf die devkits oder?
 
Zuletzt bearbeitet:
Ist doch heute normal bei Dual GPU Karten meine alte GTX 290 hatte auch 2 GPUs auf einer Die glaube, glaub das bedeutet das beide GPus auf einer platine sind.
Gab nämlich auch ne billigere variante der GTX 290 da waren die GPUs jeweils auf seperaten platinen.

Und bezieht sich doch eh auf die devkits oder?

Die Zweifel liegen eher daran, dass man es für umwahrscheinlich hält, dass die Next Konsolen GPUs eine Performance erreichen welche über denen liegt was eine High End Single Chip GPU leisten könnte.
Daher die Vermutung dass es einfach nur an den Prototypen liegt, heißt dass man erstmal solch eine Lösung nutzt weil es noch keine GPUs gibt welche die schlussendliche für 2012/13 angedachte Leistung besitzen, ähnlich wie es anfänglich bei der PS3 der Fall war, aber selbst das wurde mich überraschen.
Eine andere Möglichkeit wäre auch die Wärmeentwicklung. Zwei niedrig getaktete Chips erzeugen weniger Wärme als ein doppelt so hoch getakteter Singlecore Chip. Oder das ganz wäre dem Marketing zuzuschreiben, Multicore Lösungen sind nach dem Taktwahn ja das nächste große Vermakrungsding :-)
 
Die Zweifel liegen eher daran, dass man es für umwahrscheinlich hält, dass die Next Konsolen GPUs eine Performance erreichen welche über denen liegt was eine High End Single Chip GPU leisten könnte.
Daher die Vermutung dass es einfach nur an den Prototypen liegt, heißt dass man erstmal solch eine Lösung nutzt weil es noch keine GPUs gibt welche die schlussendliche für 2012/13 angedachte Leistung besitzen, ähnlich wie es anfänglich bei der PS3 der Fall war, aber selbst das wurde mich überraschen.
Eine andere Möglichkeit wäre auch die Wärmeentwicklung. Zwei niedrig getaktete Chips erzeugen weniger Wärme als ein doppelt so hoch getakteter Singlecore Chip. Oder das ganz wäre dem Marketing zuzuschreiben, Multicore Lösungen sind nach dem Taktwahn ja das nächste große Vermakrungsding :-)

Da steht nix von zwei getrennten Chips sondern von zwei DIEs auf einem Chip.
Somit bleibt es wärmetechnisch das gleiche.
Wie gesagt könnte es an der erhöhten Ausbeute von kleineren Chips liegen.
So bestanden ja die GPUs der 360 bis zur Zusammenführung in der Slim aus zwei Chips auf einem Die.
Die eigentliche GPU und das eDRAM. Eben weil man nicht jeden Chip wegschmeißen musste der entweder in der GPU oder in der eDRAM Sektion einen Fehler aufgewiesen hätte, hätte man beide in einen Chip "gegossen".

Dass die Seite einfach falsch spekuliert und diese Aussage auf zwei GPU Karten in den ersten Alpha Kits zurück führt, ist aber wohl wahrscheinlicher.
In den 360 Alpha Kits steckten zwar nur eine ATI Karte (die stärkste, die zur Zeit lieferbar war), die Kits waren aber auch nur ein Drittel so stark wie die entgültige Hardware.
Das wurde den Entwicklern aber mitgeteilt so dass sie ihre Games auf diese Leistung hochrechnen konnten.

Und jetzt kommen wieder die Wii-U Gerüchte ins Spiel.
Hier wird ja auch von manchem spekuliert, dass die finale Hardware um einiges stärker sein wird als die derzeitigen Alpha Kits.
Nur liegt für diese Behauptung eben überhaupt kein Grund vor.
Denn erstens würde Nintendo den Entwickler das wohl sagen wenn sie mit mehr Leistung zu rechnen hätten, was aber eben wohl nicht gemacht wurde und zweitens, was wichtiger ist, die GPUs in den Alpha-Kits reizen die Chipspezifikationen in keiner Weise aus. Man hätte also ohne Probleme stärkere Chips einbauen können um die finale Leistung emulieren zu können.
Hat man aber auch nicht gemacht.
Somit sehe ich keinen Grund warum die finale Wii-U von der Leistung sich signifikant von derer in den derzeitigen Dev-Kits unterscheinden sollte.
Zumal ja schon die zweite oder gar dritte Revision dieser Kits im Umlauf sind und außer diverser Fehlerbereinigung sich an der reinen Leistung nach Aussage einiger Entwickler nix getan haben soll.
 
Zuletzt bearbeitet:
warum so pessimistisch hier vor erscheinen der final 360 daten hat auch kaum einer dran geglaubt das die 360 nen drei kern mit 3GHz bekommt
und bei der gpu wahren sie auch relativ aktuell und teilweise wegweisend
 
Da steht nix von zwei getrennten Chips sondern von zwei DIEs auf einem Chip.
Somit bleibt es wärmetechnisch das gleiche.

Man nimmt im mobilen Bereich, in dem die Wärmeentwicklung eine große Rolle spielt, auch lieber mehrer Kerne auf einen Chip als wenige mit hohen Takt. Deswegen hat sich beim Takt seit gut 18 Monaten in dem Sektor nicht viel getan, höchstens eine Erhöhung um 40%, demgegenüber wurde die Anzahl der Kerne um 100% erhöht und die Quadcores stehen bevor, bei praktischen gleichen Takt.

Und jetzt kommen wieder die Wii-U Gerüchte ins Spiel.
Hier wird ja auch von manchem spekuliert, dass die finale Hardware um einiges stärker sein wird als die derzeitigen Alpha Kits.
Nur liegt für diese Behauptung eben überhaupt kein Grund vor.
Denn erstens würde Nintendo den Entwickler das wohl sagen wenn sie mit mehr Leistung zu rechnen hätten, was aber eben wohl nicht gemacht wurde und zweitens, was wichtiger ist, die GPUs in den Alpha-Kits reizen die Chipspezifikationen in keiner Weise aus. Man hätte also ohne Probleme stärkere Chips einbauen können um die finale Leistung emulieren zu können.
Hat man aber auch nicht gemacht.
Somit sehe ich keinen Grund warum die finale Wii-U von der Leistung sich signifikant von derer in den derzeitigen Dev-Kits unterscheinden sollte.
Zumal ja schon die zweite oder gar dritte Revision dieser Kits im Umlauf sind und außer diverser Fehlerbereinigung sich an der reinen Leistung nach Aussage einiger Entwickler nix getan haben soll.

Genau das habe ich hier auch schon mehrfach geschrieben, warum ich es für weit hergeholt halte die im Umlauf befindliche WiiU Leistung auf die Alpha Kits zu schieben. Wenn Nintendo nicht vorhat sich in dem Korridor zu bewegen, könnten sie ohne Probleme schon stärkere Karten einbauen, völlig unabhängig davon ob ihre bestellten Chips schon fertig sind oder nicht.
Die 360 hatte wie du geschrieben hast, auch eine X700 drin, mehr gab es 2004 bei ATi noch nicht, auch kein Crossfire. Bei der PS3 gab es 6800, nVidia hatte aber schon SLI im Angebot, also gab es gleich zwei in den Kits.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom