Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Mächtig ist relativ, im Gegensatz zu den GPUs von PS3 und 360 ja, die haben aber auch schon 7 Jahre auf den Buckel. Gering bleibt die Leistung aus heutiger Sicht trotzdem, und wenn das Ding noch einer schwachbrüstige CPU aushelfen soll und noch Reserven für ein Tablet haben muss, bleibt da nicht viel übrig.

Genau darum geht es. Der Vergleich bezieht sich auf die derzeitigen HD Konsolen und da ist eine doppelt bis dreifach so starke GPU natürlich als mächtig anzusehen. Die Gesamtleistung relativiert sich dann wieder etwas nach unten durch andere Komponenten - wie wohl die CPU - , die nicht diesen Leistungssprung besitzen.

Ich gehe schon davon aus, dass die Wii-U für sich allein betrachtet, ein sehr effizientes System ist mit sehr gutem Preis / Leistungsverhältnis, auf die Herstellungskosten bezogen. Auf die gesamte Marktsituation bezogen hätte es aber schon ein wenig mehr Power sein dürfen.

Man darf auch nicht vergessen, dass die Wii-u nicht subventioniert wird (Laut N-Führung) und mit ihr von Day 1 an Profit (mit der Hardware) erzielt werden soll. Das ist natürlich nichts verwerfliches, sollte aber immer in die mögliche Herstellungskostenrechnung mit einbezogen werden.
Ich gehe ganz klar davon aus, dass das Basissystem der Wii-U Nintendo maximal 200 Dollar kosten wird. Mit den Vertriebs- und Händlermargen wird es dann für 300 Dollar verkauft und für Big-N bleibt dabei auch noch etwas übrig.
MS dachte in dem geleakten Dokument an, die X3 mit ca. 6-8facher 360 Leistung auf den Markt zu werfen inklusive Kinect 2.0, Blu-Ray Laufwerk inklusive der nötigen Lizenzen sowie einer Festplatte und ging von einem Herstellungspreis von 225 Dollar insgesamt dafür aus.

Wenn man das dem Wii-U System gegenüberstellt kann man nur zu dem Schluss kommen, dass die veranschlagten 200 Dollar für die Wii-U sogar noch zu hoch gegriffen sein dürften.
Auf der einen (Wii-U) Seite haben wir als Mehrwert das Tablet
Auf der anderen (X3) die um einiges höhere Leistung, die Festplatte, die Blu-Ray/DVD Lizenzen und kinect 2.0. Und ein Standardkontroller steckt ja auch noch mit in der Packung :)

PS: Bei beiden Systemen sind die Entwicklungskosten nicht berücksichtig.
 
@squall: Zählt dann auch für die "quantum leap"-Sager. ;)

Du weißt wohl auch nicht in welchen Zusammenhang von Quantensprung gesprochen wird, oder was ein Quantensprung überhaupt ist?
Orbis und Durango werden weit stärkere CPUs haben, weit stärkere GPUs und auch modernere Architekturen, bei denen GPGPU effizienter genutzt werden kann. Bisherige Physik Demos, die man auf GPU gezeigt hatte, liefen in bescheidener Optik auf Grafikchips, welche allein schon locker die 2-3 fache Leistung der WiiU GPU hatten. da kannst du dir vorstellen, welche Wunder du dir von der GPGPU Fähigkeiten der WiiU GPU erhoffen kannst, die verstärkt damit beschäftigt ist noch eine annehmbare Optik auf den Bildschirm zu zaubern.
Eine Gammel CPU zu verbauen, und diese mit den GPGPU Fähigkeiten einer bescheidenen GPU entkräften zu wollen, leuchtet mir jedenfalls nicht ein.
 
Damit wir wieder in der Realität ankommen, eine HD7850(1,75Tflops, ca. das was für PS4 vor Monaten vermutet wurde) schluckt unter Last bei Crysis 2, allem auf Max 227 Watt! - Inkl. Highend CPU(übertaktet), RAM, Laufwerk, alles was in so nem PC halt steckt ;)

Testkonfiguration schrieb:
Prozessor
Intel Core i7 2600k (übertaktet per Multiplikator auf 4,5 GHz, Quad-Core)
CPU-Kühler
Noctua NH-U12P
Motherboard
MSI Z68A-GD80 (Intel Z68, BIOS-Version: 7672IMS V17.4)
Arbeitsspeicher
4x 2.048 MB OCZ DDR3-1600 (8-8-8-24)
Netzteil
Seasonic X-Series X-660 (660W, Semi-Passiv-Betrieb, 80 Plus Gold)
Peripherie
Pioneer BDC-202BK SATA Blu-ray-Laufwerk
Intel 510 SSD mit 250 GB, SATA III (Windows inklusive sämtlicher Benchmarks)
Western Digital Caviar Black mit 1.000 GB und 32 MB Cache, SATA II (Test-Tools)
Gehäuse
Corsair Obsidian 800D (2 x 120-mm-Lüfter mit 750 Umdrehungen pro Minute)

Sollte zum Nachdenken geben, immerhin ist da ein wesentlich potenterer CPU drinnen als was man in Konsolen antrifft. Die erste Xbox360 zB. verbrauchte bei Halo 3 knapp 180 Watt. Siehe da, nur 40 Watt weniger als ein PC mit absolut absurder CPU und GPU die 8x soviele Gigaflops rausballert.

Rufen wir uns nochmal die geleakte Tabelle in Erinnerung:

AMD_Radeon_HD8870_HD8850.png


Jetzt wird auch klar, warum ich die HD7850 als Beispiel genommen habe, gleiche TDP Angabe 70% mehr Flöppse :D

Es kann natürlich sein, dass die HD8850 etwas mehr als die 7850 zieht, aber das wird sich in Grenzen halten, ansonsten kann Sony bzw. MS ja immer mit dem Takt etwas runter um den Stromverbrauch und die Abwärme in den Griff zu kriegen, falls es da Probleme geben sollte :)
 
Zuletzt bearbeitet:
Schaufelt euer eigenes Grab. Wieso schreibt ihr denn dann die ganze Zeit, dass die E6760 im Normalgebrauch 35Watt zieht? Hier wird die ganze Zeit erwähnt, dass man die GPU deswegen wahrscheinlich schwächer gemacht und runtergetaktet hat.

Beide Seiten arbeiten mit Unwahrheiten.

Muss ich überlesen haben.
Ich wollte nur Aufzeigen, dass man nicht für System A Erklärung X zu Rate ziehen kann und für System B dann genau das Gegenteil.


Meiner Ansicht nach zieht das Wii-U Gesamtsystem im Maximalfall um die 60-65 Watt.
Der Rest zu den angegeben 75 Watt sind Wandlungsverluste im Netzteil.
Der ganze Kleinscheiß (Platine, Laufwerk, Flashspeicher, RAM, USB Port) schluckt zusammen wohl ca. 15 Watt.
Die CPU ist schwierig einzuschätzen. Neben wir mal 15 Watt an, was nicht gerade viel ist.

Dann bliebe für die GPU nach dieser Rechnung noch 30-35 Watt übrig.
Und mehr dürfte es nun wirklich nicht sein.
Die TDP ist meiner Ansicht nach ausschlaggebend und die liegt bei der E6760 eben bei 35 Watt. (Nur der Chip)
Wenn also die Wii-U GPU im gleichen Fertigungsprozess - 40nm - hergestellt wird, dürfte sie sich rein Rechenleistungsmäßig in genau diesem Rahmen bewegen.
 
Du weißt wohl auch nicht in welchen Zusammenhang von Quantensprung gesprochen wird, oder was ein Quantensprung überhaupt ist?
Orbis und Durango werden weit stärkere CPUs haben, weit stärkere GPUs und auch modernere Architekturen, bei denen GPGPU effizienter genutzt werden kann. Bisherige Physik Demos, die man auf GPU gezeigt hatte, liefen in bescheidener Optik auf Grafikchips, welche allein schon locker die 2-3 fache Leistung der WiiU GPU hatten. da kannst du dir vorstellen, welche Wunder du dir von der GPGPU Fähigkeiten der WiiU GPU erhoffen kannst, die verstärkt damit beschäftigt ist noch eine annehmbare Optik auf den Bildschirm zu zaubern.
Eine Gammel CPU zu verbauen, und diese mit den GPGPU Fähigkeiten einer bescheidenen GPU entkräften zu wollen, leuchtet mir jedenfalls nicht ein.

Will jetzt nicht auf diese Träumerei weiter eingehen, aber Nintendos Leute, die für die Hardware zuständig sind, werden weitaus mehr Plan von der Materie haben als ein angehender Informatik-Student. ;)
 
Die TDP ist meiner Ansicht nach ausschlaggebend und die liegt bei der E6760 eben bei 35 Watt. (Nur der Chip)
Wenn also die Wii-U GPU im gleichen Fertigungsprozess - 40nm - hergestellt wird, dürfte sie sich rein Rechenleistungsmäßig in genau diesem Rahmen bewegen.

Mal ne Allgemeine Frage: Wenn es nicht die E6760 GPU ist, welche könnte es dann sein die mit ungefähr gleich viel Strom zufrieden ist :-?

Bzw. wenn es eine gäbe, könnte die deutlich stärker sein?
 
Es kann natürlich sein, dass die HD8850 etwas mehr als die 7850 zieht, aber das wird sich in Grenzen halten, ansonsten kann Sony bzw. MS ja immer mit dem Takt etwas runter um den Stromverbrauch und die Abwärme in den Griff zu kriegen, falls es da Probleme geben sollte :)
Hinzu kommt ja noch, dass sich die Kühlsysteme seit 2005 doch etwas verbessert haben. Also muss man die Xbox 360 nicht unbedingt als Vergleich nehmen ;-)
 
Mal ne Allgemeine Frage: Wenn es nicht die E6760 GPU ist, welche könnte es dann sein die mit ungefähr gleich viel Strom zufrieden ist :-?

Bzw. wenn es eine gäbe, könnte die deutlich stärker sein?

Es reicht, wenn man die Flop pro Watt Angaben der verschiedenen Herstellungsprozesse kennt.
Da tut sich aber nicht viel bei gleichem Herstellungsprozess und der Berücksichtigung, wie effizient er mit der Zeit eben geworden ist.

Mit dem Takt kann man "tricksen".
Denn eine Takterhöhung erhöht auch (fast) linear die Rechenleistung aber die Energie quadriert sich fast.
Man kann also mehr Flops pro Watt erhalten, wenn man den Takt niedrig hält und dafür mehr Recheneinheiten einbaut.
Bei doppelt so viel Recheneinheiten schlucken die zwar auch doppelt so viel Strom.
Bei Halbierung der Taktrate fällt der Strombedarf aber wieder auf ein Viertel zurück.
So hätte man (wirklich nur grobe Schätzung) die gleiche Rechenleistung bei halbem Stromverbrauch.

Allerdings kostet der Chip aufgrund seiner doppelten Größe dann auch mehr :)
Ist also ein Problem der Betriebswirtschaft, was sich am Ende mehr auszahlt und ein Grund, warum Laptop GPUs eben teurer sind als Desktop GPUs. Hier wird nämlich genau so gearbeitet um den Stromverbrauch möglichst niedrig zu halten.
 
Will jetzt nicht auf diese Träumerei weiter eingehen, aber Nintendos Leute, die für die Hardware zuständig sind, werden weitaus mehr Plan von der Materie haben als ein angehender Informatik-Student. ;)

Nicht informatik :-P
Der Punkt ist, dass es heut schwer wäre eine GPU zu verbauen, welche keine GPGPU Fähigkeiten hätte, da müsste man sie wirklich constimieren. Selbst die Vita GPU hat GPGPU Fähigkeiten. die Frage ist nur, wie effizient man es zur Leistung der GPU nutzen kann und hier braucht man keine Wunder bei der bescheidenen WiiU GPU erwarten, welche eine noch viel bescheidenere CPU ausgleichen soll :ugly:
Bei Orbis und Durango werden diese Features schon allein wegen der Gesamtperformance weit mehr Sinn machen und besser nutzbar sein.
 
Damit wir wieder in der Realität ankommen, eine HD7850(1,75Tflops, ca. das was für PS4 vor Monaten vermutet wurde) schluckt unter Last bei Crysis 2, allem auf Max 227 Watt! - Inkl. Highend CPU(übertaktet), RAM, Laufwerk, alles was in so nem PC halt steckt ;)



Sollte zum Nachdenken geben, immerhin ist da ein wesentlich potenterer CPU drinnen als was man in Konsolen antrifft. Die erste Xbox360 zB. verbrauchte bei Halo 3 knapp 180 Watt. Siehe da, nur 40 Watt weniger als ein PC mit absolut absurder CPU und GPU die 8x soviele Gigaflops rausballert.

Rufen wir uns nochmal die geleakte Tabelle in Erinnerung:

AMD_Radeon_HD8870_HD8850.png


Jetzt wird auch klar, warum ich die HD7850 als Beispiel genommen habe, gleiche TDP Angabe 70% mehr Flöppse :D

Es kann natürlich sein, dass die HD8850 etwas mehr als die 7850 zieht, aber das wird sich in Grenzen halten, ansonsten kann Sony bzw. MS ja immer mit dem Takt etwas runter um den Stromverbrauch und die Abwärme in den Griff zu kriegen, falls es da Probleme geben sollte :)

Interessanterweise hat eine 7850 einen TDP von 130watt, bei 1720GFLOP.
Wenn wir jetzt einfach mal die TDP Angaben aus deiner Tabelle nehmen, wie bei der 8850, hat man bei der knapp 3GFLOP bei 130watt. Wenn wir jetzt mal den Takt verringern, bsw auf 600MHz, hätten wir noch immer eine Leistung von 1,9GFLOP bei einer TDP von knapp 85Watt. Das sind Bereiche, in denen man von einen Einsatz in einer Konsole sprechen kann ^^
 
Nintendo hätte so eine Information nicht preisgegeben, wenn sie das als "müllig" ansehen. Scheint ziemlich viel Nutzen zu haben, auch in der Wii U. Vor allem wurde die GPGPU direkt nach dem Leistungsverbrauch gesagt.

Deinen ersten Satz bzw. zweiten Satz verstehe ich nicht so.

Der Punkt ist, dass es heut schwer wäre eine GPU zu verbauen, welche keine GPGPU Fähigkeiten hätte, da müsste man sie wirklich constimieren.
:o
 
Zuletzt bearbeitet:
Nintendo hätte so eine Information nicht preisgegeben, wenn sie das als "müllig" ansehen. Scheint ziemlich viel Nutzen zu haben, auch in der Wii U. Vor allem wurde die GPGPU direkt nach dem Leistungsverbrauch gesagt.

Deinen ersten Satz bzw. zweiten Satz verstehe ich nicht so.

:o

Was soll daran nicht zu verstehen sein? Jede halbwegs aktuelle GPU von AMD oder nVidia oder IMG hat GPGPU Fähigkeiten.
Und generell, die GPGPU Fähigkeiten bringt WiiU nicht näher an Oribis oder Durango, was man sich hier wohl davon erhofft.
 
Interessanterweise hat eine 7850 einen TDP von 130watt, bei 1720GFLOP.
Wenn wir jetzt einfach mal die TDP Angaben aus deiner Tabelle nehmen, wie bei der 8850, hat man bei der knapp 3GFLOP bei 130watt. Wenn wir jetzt mal den Takt verringern, bsw auf 600MHz, hätten wir noch immer eine Leistung von 1,9GFLOP bei einer TDP von knapp 85Watt. Das sind Bereiche, in denen man von einen Einsatz in einer Konsole sprechen kann ^^

Dann würde die 360 Nachfolge aber wahrscheinlich weniger Strom schlucken als der Vorgänger. Man weiß ja schon, dass auch MS und Sony auf schwächere CPUs setzen werden, offenbar Netbook-Dinger. Die brauchen erfahrungsgemäß so gut wie keinen Strom. Dass sie also ne 130W GPU einbauen und am Ende nicht viel mehr Stromverbrauch haben als die Konsolen von 2005 bzw. 2006 liegt durchaus im Möglichen.

Man darf gespannt sein, 3Tflop sind jedenfalls nicht mehr utopisch, sofern die geleakten Daten alle ihre Richtigkeit haben.
 
Dann würde die 360 Nachfolge aber wahrscheinlich weniger Strom schlucken als der Vorgänger. Man weiß ja schon, dass auch MS und Sony auf schwächere CPUs setzen werden, offenbar Netbook-Dinger. Die brauchen erfahrungsgemäß so gut wie keinen Strom. Dass sie also ne 130W GPU einbauen und am Ende nicht viel mehr Stromverbrauch haben als die Konsolen von 2005 bzw. 2006 liegt durchaus im Möglichen.

Man darf gespannt sein, 3Tflop sind jedenfalls nicht mehr utopisch, sofern die geleakten Daten alle ihre Richtigkeit haben.

Ich hatte die pie mal Daumen 80Watt TDP eigentlich nicht grundlos rausgesucht, da ich dachte, dass sich der RSX in dem Bereich bewegt hatte. Sehe aber gerade, dass eine 550MHz Geforce 7 bei 120 Watt lag, da habe ich mich gut verschätzt, schön aber zum Vortzeil der Einschätzung der möglichen Leistung, wenn ein Radeon 8xxx Design Verwendung findern sollte :D
 
Ich hatte die pie mal Daumen 80Watt TDP eigentlich nicht grundlos rausgesucht, da ich dachte, dass sich der RSX in dem Bereich bewegt hatte. Sehe aber gerade, dass eine 550MHz Geforce 7 bei 120 Watt lag, da habe ich mich gut verschätzt, schön aber zum Vortzeil der Einschätzung der möglichen Leistung, wenn ein Radeon 8xxx Design Verwendung findern sollte :D

Exakt, 3 Tflops sind wie gesagt keine Utopie mehr, danke AMD :goodwork:
 
Wenn der Sony-Leak mit der angestrebten 1.8 TFlop GPU korrekt war, dann wird es sich wohl sowieso bei 2-3 TFlop abspielen. Bei MS wird es ähnlich werden - denke von der Leistung werden sie sich auch dieses Mal nicht großartig unterscheiden.
 
Wenn der Sony-Leak mit der angestrebten 1.8 TFlop GPU korrekt war, dann wird es sich wohl sowieso bei 2-3 TFlop abspielen. Bei MS wird es ähnlich werden - denke von der Leistung werden sie sich auch dieses Mal nicht großartig unterscheiden.

3 teraflop sind unwahrscheinlich, außer die Dinger erscheinen 2014-2015. Sony wird nicht mehr subventionieren, Microsoft will in die Wohnzimmer, erwarte überhaupt kleinere und vor allem relativ leise Konsolen. Nicht WiiU klein, das muss auch nicht sein ;) Mal abwarten, wäre bei 2 teraflops schon positiv überrascht. Aber falls doch, Ende 2013 und 3 terflops plus, keine Rod Gefahr etc, ich würde mir nen Kauf überlegen, wenn die Grafik sich entsprechend verhält :ol:
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom