Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Wenns der Chip wäre, dann hat dieser anonyme Internetuser wohl nicht gelogen:


Anonymous said...
I worked for AMD up until two months ago. The Wii U GPU is based off the AMD E6760 GPU without the onboard memory supplied. At the time I left, I was aware that it will draw from a shared RAM pool of 1.5GB from the Wii U (DDR3-1800) and run at a clock speed of 824 mhz. The main CPU is a IBM power architecture quad core (with one disabled for yield, making it a tri-core) running at 3.0 ghz. The size of the eDRAM was not finalized before I left, nor was the clock speed of the main CPU. I got to work with two different engineering units, one had 3GB ram with the CPU clocked at 3.4 ghz and the other had 1.5GB ram with the CPU clocked at 3.0 ghz. I was told the 3.0 ghz unit was closest to production specs.

Das Zitat ist vom 17. Juli. Hier die Quelle:
http://www.nintengen.com/2012/07/speculation-wii-us-gpu-based-on-amd.html
 
Richtig eingesetzt, ist die GPU dann sogar schneller auch bei CPU Aufgaben. GPGPU kam ja auch nur deswegen, weil man Wege für Leistungssteigerung der CPU gesucht hat.
 
GPGPU wieder vergessen, was ?:)
Ich hab nichts vergessen, Nintendo aber vielleicht beim Hardwaredesign.
Selbst wenn die Leistung der CPU geringer ist als bei der PS360, ist das völlig irrelevant. Da die GPU sehr stark ist und sie auch die CPU durch GPGPU entlasten kann. Jetzt haben wir wenigstens eine Bestätigung, warum die Multi-Spiele noch auf PS360 Niveau sind :)
Wie erklärt ne lahme CPU, dass bei der superdollen GPU ME3, Batman oder AC3 nicht mit mehr Effekten oder wenigstens höherer Auflösung laufen? Wahrscheinlich ist die GPU zu, weil alle möglichen CPU Tasks drauf laufen.
 
Du weißt ganz genau, dass Anpassungen notwendig sind. So was wird nicht automatisch gemacht. Ist halt wirklich eine neue Hardware, die erkundet werden muss, wie auch der Dynasty Warrior Typ sagte.
 
Ich hab nichts vergessen, Nintendo aber vielleicht beim Hardwaredesign.

Wie erklärt ne lahme CPU, dass bei der superdollen GPU ME3, Batman oder AC3 nicht mit mehr Effekten oder wenigstens höherer Auflösung laufen? Wahrscheinlich ist die GPU zu, weil alle möglichen CPU Tasks drauf laufen.

http://nintendoeverything.com/99933...-improve-warriors-orochi-3-hyper-performance/


“Developing on new hardware in itself was a challenge, and also making that launch date was a challenge. But from a visual standpoint, based on the performance of the Wii U, we knew the game had the capability of having much better graphics than games on PS3 and Xbox 360. Make no mistake, from a visual standpoint, it is able to produce better graphics. So our challenge was to make a higher quality graphics. We were able to meet that.”

“While the visuals are great, as is being able to improve them, we had to deal with the lower CPU power and how we can get around that issue. Actually, we’re still working on that. If you see the demo on the show floor and you try it, you’ll probably feel it’s not up to the PS3 level. But we’re working on it!”

Again, all of this comes back tot he Wii U CPU. It’s new, and the team is inexperienced with this particular piece of hardware, “so there are still a lot of things we don’t know yet to bring out the most of the processing power.”
 

Jo. Moderne Architektur bedarf auch einwenig Einarbeit. Die GPGPU ist sehr stark. Die Entwickler müssen ersmal lernen, was sie alles auf die GPGPU auslagern können.

Das Zitat "much better Graphics than XBox 360 and Ps3" spricht Bände und gilt als der Beweis das die Wiiu klar über current gen anzusiedeln ist, was etwaige Diskussionen gewisser User obsolet macht.
 
Das Zitat gibt keine Antwort auf meine Frage nach einer höheren Auflösung.

Was hast du eigentlich dauernd mit deiner "höheren Auflösung", wenn du von XBOX3 und PS4 auch nicht durchgängig 1080P erwartest, obwohl die es ja erst recht können sollten :ugly:

Das ist echt der Punkt, den du dauernd bringst und ich verstehe noch immer nicht, warum.

Und wenn ein "Wir kennen die Hardware nicht gut genug" für dich keine Antwort ist, dann wird es gar keine Antwort sein in deiner plüschrosa Elefanten-mit-Flügeln-Welt geben, sorry ;)
 
Was hast du eigentlich dauernd mit deiner "höheren Auflösung", wenn du von XBOX3 und PS4 auch nicht durchgängig 1080P erwartest, obwohl die es ja erst recht können sollten :ugly:

Das ist echt der Punkt, den du dauernd bringst und ich verstehe noch immer nicht, warum.

Und wenn ein "Wir kennen die Hardware nicht gut genug" für dich keine Antwort ist, dann wird es gar keine Antwort sein in deiner plüschrosa Elefanten-mit-Flügeln-Welt geben, sorry ;)
Es geht doch nicht darum, dass Xbox3/PS4 Spiele auch in 720p laufen werden. Es geht darum, dass die aktuellen Ports doch dank der besseren Hardware in einer höheren Auflösung als bei der PS360 laufen müssten?
 
Wie oben geschrieben, scheint:

I worked for AMD up until two months ago. The Wii U GPU is based off the AMD E6760 GPU without the onboard memory supplied. At the time I left, I was aware that it will draw from a shared RAM pool of 1.5GB from the Wii U (DDR3-1800) and run at a clock speed of 824 mhz. The main CPU is a IBM power architecture quad core (with one disabled for yield, making it a tri-core) running at 3.0 ghz. The size of the eDRAM was not finalized before I left, nor was the clock speed of the main CPU. I got to work with two different engineering units, one had 3GB ram with the CPU clocked at 3.4 ghz and the other had 1.5GB ram with the CPU clocked at 3.0 ghz. I was told the 3.0 ghz unit was closest to production specs.

...allen Anschein nach zu stimmen.
 
Es geht doch nicht darum, dass Xbox3/PS4 Spiele auch in 720p laufen werden. Es geht darum, dass die aktuellen Ports doch dank der besseren Hardware in einer höheren Auflösung als bei der PS360 laufen müssten?

Was lässt dich das glauben, dass es mit einem Fingerschnipp so funktionieren sollte, bei jedem Spiel? :-?

Die WiiU ist keine Hardwarekrücke wie die PS3, klar, aber allein die GPGPU erfordert ein Umschreiben des Codes, weil die CPU etwas niedriger getaktet ist. Mit Brute Force-Ports erreicht man halt keine höhere Auflösung und rate mal, was der Großteil der Third-Party-Ports so ist? :ugly:

In den anderen Fällen macht es vielleicht nicht unbedingt Sinn, mehr als 50%(?) der Hardwareleistung nur in die Auflösung zu stecken - weswegen es bei PS4 und XBOX3 auch nicht der Standard sein wird. Gerade deswegen verstehe ich nicht, warum man das partout von der WiiU erwartet bei einem Launch, wo wir eigentlich alle wissen sollten, dass Launchspiele nur andeuten, was das Ding am Ende kann.

Es wäre ok, zu sagen, dass man von der WiiU ab Launch erwartet, dass sie exklusiv entwickelte Spiele durchgängig in 1080P abspielt, wenn man denn auch gleichzeitig das selbe von XBOX3 und PS4 erwartet. Man wird zwar wirklich bitter enttäuscht werden, in beiden Fällen, aber ok.

Aber den Denkschritt, der viel zum Argument beitragen würde, will Nullpointer nicht gehen.
 
Was hast du eigentlich dauernd mit deiner "höheren Auflösung", wenn du von XBOX3 und PS4 auch nicht durchgängig 1080P erwartest, obwohl die es ja erst recht können sollten :ugly:

Das ist echt der Punkt, den du dauernd bringst und ich verstehe noch immer nicht, warum.

Und wenn ein "Wir kennen die Hardware nicht gut genug" für dich keine Antwort ist, dann wird es gar keine Antwort sein in deiner plüschrosa Elefanten-mit-Flügeln-Welt geben, sorry ;)
Ich bring den Punkt dauernd, weil das derzeit die einzigen belastbaren Fakten sind und zeigen das da keine 600gflops GPU drin ist. Tut mir leid das ich hier der einzige bin, der in der kalten harten Realität lebt. Im Gegensatz zu deiner Annahme würde es mich übrigens nicht freuen, hier Recht zu behalten.
 
*Edit: oder meintest du 8x-X360 Leistung? Ja die wird bei weitem übertroffen :)

Die 12-fache bei ~3 Tflops wird aber wohl auch reichen :)

natürlich meine ich 8x 360 ;)

Im B3D und GAF meinen die leute die etwas ahnung haben, das man die 8xxx GPUs bei der leistung schön auf 2 bis 2+ TFLOPS anpassen könnte und MS/SONY das wohl auch machen werden, und man hätte ne power Konsolen GPU mit etwa 90W verbrauch :)
 
The older dev kit's for the Wii U were using GPU's that were basically the AMD Radeon 4850, which Nintendo was telling developers that the performance would be roughly equal to in the Wii U's final GPU. To put this into perspective though, the HD 4850 would have never been what the final Wii U GPU would be using anyway since it pulled between 130-240 watts of power consumption and was built on the 55nm process. Also, some of the features of the 4850 are already 4 years old with better and more efficient standards being used today (DirectX 11 for example). So where does the AMD Radeon E6760 fit in all this? Take a look at the specs of this GPU:
The E6760 scores a 5870 in 3D Mark Vantage which is higher than the HD 4850 despite the card only running at 35 watts! Now of course the final Wii U GPU will still be custom made with other features made specifically for the system, but it would make a lot of sense if the GPU ends up being heavily based on the E6760 especially with the power consumption being so low.


http://www.nintengen.com/2012/07/speculation-wii-us-gpu-based-on-amd.html


Klingt recht logisch.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom