Ark
Senior-Moderator
- Seit
- 18 Apr 2008
- Beiträge
- 51.690
Es gibt keine Single GPUs, die mehr Strom verbrauchen als im TDP angegeben wird.
Der Witz ist zu hoch für dich?

Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
Es gibt keine Single GPUs, die mehr Strom verbrauchen als im TDP angegeben wird.
Mächtig ist relativ, im Gegensatz zu den GPUs von PS3 und 360 ja, die haben aber auch schon 7 Jahre auf den Buckel. Gering bleibt die Leistung aus heutiger Sicht trotzdem, und wenn das Ding noch einer schwachbrüstige CPU aushelfen soll und noch Reserven für ein Tablet haben muss, bleibt da nicht viel übrig.
@squall: Zählt dann auch für die "quantum leap"-Sager.![]()
Testkonfiguration schrieb:Prozessor
Intel Core i7 2600k (übertaktet per Multiplikator auf 4,5 GHz, Quad-Core)
CPU-Kühler
Noctua NH-U12P
Motherboard
MSI Z68A-GD80 (Intel Z68, BIOS-Version: 7672IMS V17.4)
Arbeitsspeicher
4x 2.048 MB OCZ DDR3-1600 (8-8-8-24)
Netzteil
Seasonic X-Series X-660 (660W, Semi-Passiv-Betrieb, 80 Plus Gold)
Peripherie
Pioneer BDC-202BK SATA Blu-ray-Laufwerk
Intel 510 SSD mit 250 GB, SATA III (Windows inklusive sämtlicher Benchmarks)
Western Digital Caviar Black mit 1.000 GB und 32 MB Cache, SATA II (Test-Tools)
Gehäuse
Corsair Obsidian 800D (2 x 120-mm-Lüfter mit 750 Umdrehungen pro Minute)
Dachte das war pitti's PostDer Witz ist zu hoch für dich?![]()
Schaufelt euer eigenes Grab. Wieso schreibt ihr denn dann die ganze Zeit, dass die E6760 im Normalgebrauch 35Watt zieht? Hier wird die ganze Zeit erwähnt, dass man die GPU deswegen wahrscheinlich schwächer gemacht und runtergetaktet hat.
Beide Seiten arbeiten mit Unwahrheiten.
Du weißt wohl auch nicht in welchen Zusammenhang von Quantensprung gesprochen wird, oder was ein Quantensprung überhaupt ist?
Orbis und Durango werden weit stärkere CPUs haben, weit stärkere GPUs und auch modernere Architekturen, bei denen GPGPU effizienter genutzt werden kann. Bisherige Physik Demos, die man auf GPU gezeigt hatte, liefen in bescheidener Optik auf Grafikchips, welche allein schon locker die 2-3 fache Leistung der WiiU GPU hatten. da kannst du dir vorstellen, welche Wunder du dir von der GPGPU Fähigkeiten der WiiU GPU erhoffen kannst, die verstärkt damit beschäftigt ist noch eine annehmbare Optik auf den Bildschirm zu zaubern.
Eine Gammel CPU zu verbauen, und diese mit den GPGPU Fähigkeiten einer bescheidenen GPU entkräften zu wollen, leuchtet mir jedenfalls nicht ein.
Die TDP ist meiner Ansicht nach ausschlaggebend und die liegt bei der E6760 eben bei 35 Watt. (Nur der Chip)
Wenn also die Wii-U GPU im gleichen Fertigungsprozess - 40nm - hergestellt wird, dürfte sie sich rein Rechenleistungsmäßig in genau diesem Rahmen bewegen.
Hinzu kommt ja noch, dass sich die Kühlsysteme seit 2005 doch etwas verbessert haben. Also muss man die Xbox 360 nicht unbedingt als Vergleich nehmen ;-)Es kann natürlich sein, dass die HD8850 etwas mehr als die 7850 zieht, aber das wird sich in Grenzen halten, ansonsten kann Sony bzw. MS ja immer mit dem Takt etwas runter um den Stromverbrauch und die Abwärme in den Griff zu kriegen, falls es da Probleme geben sollte![]()
Mal ne Allgemeine Frage: Wenn es nicht die E6760 GPU ist, welche könnte es dann sein die mit ungefähr gleich viel Strom zufrieden ist :-?
Bzw. wenn es eine gäbe, könnte die deutlich stärker sein?
Will jetzt nicht auf diese Träumerei weiter eingehen, aber Nintendos Leute, die für die Hardware zuständig sind, werden weitaus mehr Plan von der Materie haben als ein angehender Informatik-Student.![]()
Damit wir wieder in der Realität ankommen, eine HD7850(1,75Tflops, ca. das was für PS4 vor Monaten vermutet wurde) schluckt unter Last bei Crysis 2, allem auf Max 227 Watt! - Inkl. Highend CPU(übertaktet), RAM, Laufwerk, alles was in so nem PC halt steckt
Sollte zum Nachdenken geben, immerhin ist da ein wesentlich potenterer CPU drinnen als was man in Konsolen antrifft. Die erste Xbox360 zB. verbrauchte bei Halo 3 knapp 180 Watt. Siehe da, nur 40 Watt weniger als ein PC mit absolut absurder CPU und GPU die 8x soviele Gigaflops rausballert.
Rufen wir uns nochmal die geleakte Tabelle in Erinnerung:
![]()
Jetzt wird auch klar, warum ich die HD7850 als Beispiel genommen habe, gleiche TDP Angabe 70% mehr Flöppse
Es kann natürlich sein, dass die HD8850 etwas mehr als die 7850 zieht, aber das wird sich in Grenzen halten, ansonsten kann Sony bzw. MS ja immer mit dem Takt etwas runter um den Stromverbrauch und die Abwärme in den Griff zu kriegen, falls es da Probleme geben sollte![]()
:oDer Punkt ist, dass es heut schwer wäre eine GPU zu verbauen, welche keine GPGPU Fähigkeiten hätte, da müsste man sie wirklich constimieren.
Nintendo hätte so eine Information nicht preisgegeben, wenn sie das als "müllig" ansehen. Scheint ziemlich viel Nutzen zu haben, auch in der Wii U. Vor allem wurde die GPGPU direkt nach dem Leistungsverbrauch gesagt.
Deinen ersten Satz bzw. zweiten Satz verstehe ich nicht so.
:o
Interessanterweise hat eine 7850 einen TDP von 130watt, bei 1720GFLOP.
Wenn wir jetzt einfach mal die TDP Angaben aus deiner Tabelle nehmen, wie bei der 8850, hat man bei der knapp 3GFLOP bei 130watt. Wenn wir jetzt mal den Takt verringern, bsw auf 600MHz, hätten wir noch immer eine Leistung von 1,9GFLOP bei einer TDP von knapp 85Watt. Das sind Bereiche, in denen man von einen Einsatz in einer Konsole sprechen kann ^^
Schon klar, aber wird in der PS4 nicht sowieso ein Cell schlummern, wegen der Abwärtskompatibilität :-?
Dann würde die 360 Nachfolge aber wahrscheinlich weniger Strom schlucken als der Vorgänger. Man weiß ja schon, dass auch MS und Sony auf schwächere CPUs setzen werden, offenbar Netbook-Dinger. Die brauchen erfahrungsgemäß so gut wie keinen Strom. Dass sie also ne 130W GPU einbauen und am Ende nicht viel mehr Stromverbrauch haben als die Konsolen von 2005 bzw. 2006 liegt durchaus im Möglichen.
Man darf gespannt sein, 3Tflop sind jedenfalls nicht mehr utopisch, sofern die geleakten Daten alle ihre Richtigkeit haben.
Ich hatte die pie mal Daumen 80Watt TDP eigentlich nicht grundlos rausgesucht, da ich dachte, dass sich der RSX in dem Bereich bewegt hatte. Sehe aber gerade, dass eine 550MHz Geforce 7 bei 120 Watt lag, da habe ich mich gut verschätzt, schön aber zum Vortzeil der Einschätzung der möglichen Leistung, wenn ein Radeon 8xxx Design Verwendung findern sollte![]()
Wenn der Sony-Leak mit der angestrebten 1.8 TFlop GPU korrekt war, dann wird es sich wohl sowieso bei 2-3 TFlop abspielen. Bei MS wird es ähnlich werden - denke von der Leistung werden sie sich auch dieses Mal nicht großartig unterscheiden.