Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Dahinter steckt das Problem, dass Sony immer die theoretischen Werte angibt, da kommt die PS3 mindestens um 30-40% zu gut weg.

Aber am Ende ist es die Shader-Leistung, die entscheidet, ob ich ein Spiel mit 1080p und 4x AA spielen kann und nicht die Koordinaten-Transformationsleistung. Und jeder zweite Post endet hier doch mit :

"...mir reicht es, wenn ich das Spiel in Zukunft mit 1080p und 60 fps spielen kann..."

Dafür reicht eine 4850 nun mal nicht (schon gar nicht bei 3 Screens) und ich hatte mal eine... ;-)

Imo wird die WiiU standardmäßig 720p liefern, außer vielleicht bei Nintendogames wie Mario. Die Frage ist einfach, für was die Power benutzt wird (gilt nicht nur für WiiU). Ne 4850 wird eh nicht verbaut, wobei diese Karte in einem extrem effizienten geschlossenen System mit massig edram und ohne direct x/windows ganz schön was leisten könnte. Ich hoffe wie du auf mehr ;) Denke aber nicht, dass das Streamen auf die Pads soviel Leistung fressen wird.
 
Zuletzt bearbeitet:
Wir vergessen das AMD momentan stark an die neuen APU´s arbeiten, hat nicht die Xbox 360 slim schon eine CPU/GPU innerhalb eines Chips?

Trinity-APU sind schon verdammt stark und ich selber besitze einen AMD A8-3850... ich denke die arbeiten an einem neuen APU der in der grafikleistung in etwa der HD4850 erreicht.. eventuell höher..

ist nur eine Meinung von vielen, aber es könnt so kommen oder?

Edit: hier einen Beitrag zum neuen Chip der x360
http://www.videogameszone.de/Xbox-3...Microsoft-Konsole-vereint-CPU-und-GPU-829381/

Bei der 360 ist es ja auch kein Problem CPU und GPU in einem Chip unterzubringen.
Wie gesagt besteht der ganze Driss aus 500Mio Transistoren und wird nun in einem Chip zu 45nm verarbeitet.
500Mio bei 45nm sind etwas anderes als 2000Mio oder mehr bei 40nm.

Die Chips der Launch 360 wurden in 90nm gefertigt. Da war es wirtschaftlich natürlich unmöglich alles auf einen Chip zu packen.
Aber die Wii-U soll ja wohl ein wenig mehr Dampf haben und wie es aussieht werden deren Chips eben nur in geringfügig kleinerem Fertigungsprozess - eben 40 anstatt 45nm - gefertigt.
Da bekommt man eben für einen realistischen Preis auch nicht so viel auf einen Chip.

Und zu deinem A8-3850
Wenn ich mir das Datenblatt anschaue dann ist dessen GPU Teil gerade mal genau doppelt so stark wie die 360 GPU. Allerdings ohne eDRAM. Und dieser Chip wird schon in 32nm gefertigt. Dabei verbraucht er gut 65 Watt.
Daran sieht man schon dass ein SoC für die Wii-U in 40nm völlig ausgeschlossen ist es sei denn, man begnügt sich mit maximal doppelter 360 Leistung.
Denn dieser Chip würde in 40nm ja auch mehr Strom ziehen. Ziemlich genau 100Watt.
Wären dann geschätze 130 Watt für das gesamte Wii-U System. Wer glaubt denn an so was.
 
Zuletzt bearbeitet:
Imo wird die WiiU standardmäßig 720p liefern, außer vielleicht bei Nintendogames wie Mario. Die Frage ist einfach, für was die Power benutzt wird (gilt nicht nur für WiiU). Ne 4850 wird eh nicht verbaut, wobei diese Karte in einem extrem effizienten geschlossenen System mit massig edram und ohne direct x/windows ganz schön was leisten könnte. Ich hoffe wie du auf mehr ;) Denke aber nicht, dass das Streamen auf die Pads soviel Leistung fressen wird.

720p wäre eine Lösung, allerdings eine, die mir nicht gut gefallen würde ;-)
eDram würde das AA Problem lösen, OK. Aber ich fände es gut, wenn die Technik weiter in den Hintergrund rückt und man sich eher um die Spiele kümmert und bei 1080p würden die visuellen Unterschiede zu den anderen Plattformen eben gering ausfallen...
 
720p wäre eine Lösung, allerdings eine, die mir nicht gut gefallen würde ;-)
eDram würde das AA Problem lösen, OK. Aber ich fände es gut, wenn die Technik weiter in den Hintergrund rückt und man sich eher um die Spiele kümmert und bei 1080p würden die visuellen Unterschiede zu den anderen Plattformen eben gering ausfallen...

Wenn ich mir die Beyond Good and Evil 2 Videos ansehe, dann würde ich mir wünschen, dass eigentlich gute/innovative Entwickler nen Scheißdreck auf Realismus geben sollten :ugly: Kein Interesse, auch wenn der Erstling eines meiner Lieblingsspiele überhaupt ist.

Im Moment kennt niemand die Endspecs der WiiU, die Devkits sind anscheinend komisch ;) Achja, ein Mastercore und 2 Untergebene, plus ne GPU die sich nicht völlig hochfährt, in einem Devkit, dass nicht größer ist, als die WiiU selbst. Ich würde das finale Devkit abwarten um irgendwelche Aussagen zu treffen, Nintendo Difference und so....
 
An die hardwarekenner ins besondere über eDram und co., eine GPU, moderner aber mit der leistung einer HD4850, mit 1T-SRAM gekoppelt, würde die auf HD5850 Niveau einpendeln?
Bzw. kann man das in % sagen, wieviel Mehrperformence dabei rauskommt?
 
Was soll da an Mehrperformance rauskommen? Der eDRAM hat geringere Latenzen bei Framebuffer-Operationen aber im Prinzip hat man den in der Xbox 360 nur verwendet weil er billiger als ein 256Bit-SI war. SRAM würde man für einen Framebuffer aber sicher nicht verwenden. Modernere Architekturen sind eigentlich nicht effizienter als die HD4850, im Gegenteil. Die zusätzlichen Feature sind in einigen Anwendungsfällen deutlich schneller, in anderen wiederum nicht. Dort kosten die Featues sogar noch Leistung weil das Powermanagement niemals perfekt sein kann. Einen Prozentsatz anzugeben wäre absurd weil es eben stark anwendungspezifisch ist.
 
Was soll da an Mehrperformance rauskommen? Der eDRAM hat geringere Latenzen bei Framebuffer-Operationen aber im Prinzip hat man den in der Xbox 360 nur verwendet weil er billiger als ein 256Bit-SI war. SRAM würde man für einen Framebuffer aber sicher nicht verwenden. Modernere Architekturen sind eigentlich nicht effizienter als die HD4850, im Gegenteil. Die zusätzlichen Feature sind in einigen Anwendungsfällen deutlich schneller, in anderen wiederum nicht. Dort kosten die Featues sogar noch Leistung weil das Powermanagement niemals perfekt sein kann. Einen Prozentsatz anzugeben wäre absurd weil es eben stark anwendungspezifisch ist.

Das eDRAM bringt mehr als ein breiteres Interface und ich glaube kaum dass es teurer gewesen wäre es weg zu lassen und den Bus auf 256bit zu erhöhen.
Insbesondere da die effektive Bandbreite nicht linear mit der Busverbreiterung anwächst.
Es werden eben nicht immer 32Byte gleichzeitig übertragen, sondern auch mal nur 16 oder gar 8.
Wenns so einfach wäre könnte man den Bus ja gleich auf das Vielfache auslegen.

Es war eine sehr gute Idee in die 360 eDRAM einzubauen und ich gehe davon aus, dass auch die 720 darüber verfügen wird, dann natülich einen Schlag mehr. Die ersten Gerüchte sprechen ja schon einmal dafür.
Immerhin betrug die Geschwindigkeit zwischen der Logik des eDRAM und dem eigentlichen Speicher satte 256GB und damit gut die zehnfache Geschwindigkeit des 128bit Interfaces zum Hauptspeicher. Also immer noch fünf Mal schneller als die max Werte, die ein 256bit Bus schaffen würde.
Bevor jemand mich der Unterschlagung bezichtigt :)
Der Bus von der GPU zum eDRAM-Die ist "nur" 32GB groß. Aber das ist auch völlig ausreichend da die bandbreitenbelastenden Operationen eben im eDRAM selber ausgeführt werden. Denn da sitzt ja die Logik für Z-Buffer Berechnung, Alpha-Blending und eben auch Antialiasing.

Ich schätze mal, Nintendo orientiert sich sehr stark architektonisch an der 360 und sie drehen noch ein bissle an der Effizienzschraube. Wenns nach der reinen Shaderleistung geht denke ich noch nicht einmal, dass sie eine HD 4850 toppen werden können. Jedenfalls nicht, wenn die GPU im 40nm Prozess hergestellt wird.
 
Zuletzt bearbeitet:
Zum Pad-Preis:
Nimmt man die bekannten Preise für LCD/Touchpad vom iphone zu Grunde, berücksichtigt den Qualitätsunterschied, Kosten der anderen Komponenten und Produktion, wird N. kaum weniger als 50€ für das Pad hinlegen müssen.
Konsole wird vermutlich zwischen 300-350€ im Verkauf liegen.
Ohne (oder auch bei geringer Subvention) bleibt da nicht viel Platz für allzu performante Technik. Würde also keine allzu grossen Überaschungen nach oben hin mehr erwarten.
Zu den APUs, bleibt nur zu sagen das die WiiU da natürlich schon eine haben kann.
Aber auch da zeigt schon AMDs bekannte Roadmap das wir bis Mitte 2012 nichts erwarten brauchen, was wesentlich über der Leistung von EinsteigerPCs liegt. allenfalls unterer Midrangebereich.
 
An die hardwarekenner ins besondere über eDram und co., eine GPU, moderner aber mit der leistung einer HD4850, mit 1T-SRAM gekoppelt, würde die auf HD5850 Niveau einpendeln?
Bzw. kann man das in % sagen, wieviel Mehrperformence dabei rauskommt?

Konsolenbaby hat das perfekt zusammengefasst, eDRAM bringt etwas als "Zwischenspeicher" für Operationen in denen Überblendungen stattfinden. Die wichtigste ist davon imho Antialialising, da die 4850 sowieso Probleme mit der Füllrate hat, gibt es (gab es zumindest bei mir) starke Einbrüche, wenn man bei 1080p Antialialising einschaltet. Wenn der eDRAM Buffer groß genug ist, dann könnte man das komplette AA darüber abbilden. Die Einbrüche liegen da durchaus bei 10-40%, hängt natürlich vom Spiel und vom AA-Algorithmus ab.

Für Z-Buffering und Blendoperationen sollte an sich der GDDR Speicher ausreichen. Hier ist eher wichtig, dass man viel davon hat...
 
Zuletzt bearbeitet:
Ich kenne die Geschichte des Cube.



N64 und Gamecube waren beide chancenlos gegen PSone und PS2. Und zwar nicht etwas oder leicht... sondern chancenlos. 3rd-Party-Support quasi nicht vorhanden. Und beide lagen schnell im sterben. Würde sagen, dass kann man getrost als "auf die Schnauze gefallen" beschreiben. Wii gehört übrigens in die selbe Kategorie, nur dass sie sich wenigstens gut verkauft hat.



Ja, böse Welt. Zum Glück hat Nintendo auch sowas wie Blur-ray, wo sie auch noch Gewinne generieren wenn die eigentliche Konsole schon lange keine Rolle mehr spielt. Oder auch nicht. :)

Bist jetzt dochn Fanboy?
Dieser :) Smiley ist doch unterste "news bash schublade"
 
Wie würden einige Sonys das bezeichnen? LowBall Bash, oder 2nd/3rd Rate Gamer. Irgendwie so war das doch. Schulhoftrend der sich auf CW breit macht.
Ich sehe hier in letzter Zeit eigentlich recht wenig Bashes von "Sonys", dafür aber umso mehr N-Fans, die dauernd am Heulen sind, wie böse und niederträchtig die von dir angesprochene Fraktion doch sei.
 
Ich sehe hier in letzter Zeit eigentlich recht wenig Bashes von "Sonys", dafür aber umso mehr N-Fans, die dauernd am Heulen sind, wie böse und niederträchtig die von dir angesprochene Fraktion doch sei.

dreieck.gif
 
Zum Pad-Preis:
Nimmt man die bekannten Preise für LCD/Touchpad vom iphone zu Grunde, berücksichtigt den Qualitätsunterschied, Kosten der anderen Komponenten und Produktion, wird N. kaum weniger als 50€ für das Pad hinlegen müssen.

Vergiss aber nicht den Leistungsfähigen SoC, 2G/3G, WLAN und GPS aus der Rechnug zu nehmen :-)

Konsolenbaby hat das perfekt zusammengefasst, eDRAM bringt etwas als "Zwischenspeicher" für Operationen in denen Überblendungen stattfinden. Die wichtigste ist davon imho Antialialising, da die 4850 sowieso Probleme mit der Füllrate hat, gibt es (gab es zumindest bei mir) starke Einbrüche, wenn man bei 1080p Antialialising einschaltet. Wenn der eDRAM Buffer groß genug ist, dann könnte man das komplette AA darüber abbilden. Die Einbrüche liegen da durchaus bei 10-40%, hängt natürlich vom Spiel und vom AA-Algorithmus ab.

Für Z-Buffering und Blendoperationen sollte an sich der GDDR Speicher ausreichen. Hier ist eher wichtig, dass man viel davon hat...

Wie du schon sagtest, der eDRAM muss aber auch die nötige Größe haben um bei 1080p AA halten zu können. Der Einsatz von Tiling selbst bringt wieder Probleme mit den aktuellen deferred rendering Engins mit sich.
Da stellt sich irgendwann die Frage ob es nicht gleich günstiger ist die Bandbreite zum VRAM zu erhöhen. Die Bandbreiten von GDDR5 gehen schon in die Richtung welche der eDRAM der 360 leisten kann, entsprechend müsste man die Bandbreite zum eDRAM bei den nächsten Konsolen um einige Faktoren erhöhen um die Geschichte wirklich lohnenswert zu gestalten.
Wäre interessant zu wissen was wirklich mehr praktikabel ist.
 
Wie du schon sagtest, der eDRAM muss aber auch die nötige Größe haben um bei 1080p AA halten zu können. Der Einsatz von Tiling selbst bringt wieder Probleme mit den aktuellen deferred rendering Engins mit sich.
Da stellt sich irgendwann die Frage ob es nicht gleich günstiger ist die Bandbreite zum VRAM zu erhöhen. Die Bandbreiten von GDDR5 gehen schon in die Richtung welche der eDRAM der 360 leisten kann, entsprechend müsste man die Bandbreite zum eDRAM bei den nächsten Konsolen um einige Faktoren erhöhen um die Geschichte wirklich lohnenswert zu gestalten.
Wäre interessant zu wissen was wirklich mehr praktikabel ist.

Nur durch das eDRAM war aber auch ein gemeinsamer Speicher überhaupt möglich.
Ohne müsste man entweder getrennten Speicher für CPU und GPU verwenden wobei der GPU Speicher dann aber auch die Geschwindigkeit der dann üblichen schnellen Speicher auf einer gleichwertigen PC Grafikkarten haben müsste.
Und als Endverbraucher zahlt man im Moment für 2GB an solchem Speicher noch locker 100 Euro.
Der Speicher wird auch nicht günstiger mit der Zeit sondern schneller.

Wenn man auf gemeinsamen Speicher zurück greifen will müsste dieser noch schneller sein. Scheitert vermutlich daran, dass es solch schnellen Speicher dann nicht gibt.
Was das Deferred Rendering angeht übernimmt das beim PC eh die GPU. Lediglich die PS3 lagert das auf den Cell aus da der RSX zu schwach ist und man sonst mit den SPUs des Cells ja nicht viel anfangen könnte. Die sind im Grunde genommen ja nichts anderes als ein ausgelagerter GPU Teil.

Eine Konsole mit einem vernünftigen Verhältnis zwischen CPU und GPU würde das DR auch durch die GPU laufen lassen. Dann ist auch die größe des eDRAMs nicht so wichtig.
Klar, darf es nicht zu klein sein und die 10MB der 360 reichten ja noch nicht einmal aus um ein 720p Bild mit 2fach AA zu versehen ohne dass das Bild geteilt werden müsste. Bei 1080p und dann auch noch DR Techniken muss man schon eine Schippe drauflegen.
Meinen Berechnungen nach wären 128MB ein schöner Wert.
Gehe aber davon aus, dass es etwas weniger sein werden.
Und da auch das eDRAM mit der Technik geht wird es folglich um einiges schneller sein als das in der 360 verbaute.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom