Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Nur durch das eDRAM war aber auch ein gemeinsamer Speicher überhaupt möglich.
Ohne müsste man entweder getrennten Speicher für CPU und GPU verwenden wobei der GPU Speicher dann aber auch die Geschwindigkeit der dann üblichen schnellen Speicher auf einer gleichwertigen PC Grafikkarten haben müsste.
Und als Endverbraucher zahlt man im Moment für 2GB an solchem Speicher noch locker 100 Euro.
Der Speicher wird auch nicht günstiger mit der Zeit sondern schneller.

Wenn man auf gemeinsamen Speicher zurück greifen will müsste dieser noch schneller sein. Scheitert vermutlich daran, dass es solch schnellen Speicher dann nicht gibt.
Was das Deferred Rendering angeht übernimmt das beim PC eh die GPU. Lediglich die PS3 lagert das auf den Cell aus da der RSX zu schwach ist und man sonst mit den SPUs des Cells ja nicht viel anfangen könnte. Die sind im Grunde genommen ja nichts anderes als ein ausgelagerter GPU Teil.

Eine Konsole mit einem vernünftigen Verhältnis zwischen CPU und GPU würde das DR auch durch die GPU laufen lassen. Dann ist auch die größe des eDRAMs nicht so wichtig.
Klar, darf es nicht zu klein sein und die 10MB der 360 reichten ja noch nicht einmal aus um ein 720p Bild mit 2fach AA zu versehen ohne dass das Bild geteilt werden müsste. Bei 1080p und dann auch noch DR Techniken muss man schon eine Schippe drauflegen.
Meinen Berechnungen nach wären 128MB ein schöner Wert.
Gehe aber davon aus, dass es etwas weniger sein werden.
Und da auch das eDRAM mit der Technik geht wird es folglich um einiges schneller sein als das in der 360 verbaute.

Da könnte man jetzt ganze Abhandlungen darüber schreiben, aber keine Sorge ich will Euch das ersparen ;-)

Wenn man jetzt einen SoC hätte könnte man intern einen gemeinsamen Memory-Controller realisieren, der dann nach außen mit entsprechend breitem Bus angebunden wird zum Beispiel 4 getrennt adressierbare Bänke a 64 Bit mit GDDR5 sind schon ein Wort. Aber da sind wir definitiv außerhalb der Liga von Nintendo. Der Einsatz von eDRAM ist ja auch schon in den Gerüchten bestätigt (sowohl für die GPU als auch die CPU !), es geht also mehr um die Frage wie viel und wie sieht es mit der Busbreite aus.

An sinnvollen Maßnahmen fällt mir eigentlich auch nur AA und die Entkopplung zw. den Rechenkernen bzw. der GPU ein. Allerdings 3 Rechenkerne *2 (Multithreading) bei 4 GHz plus eine GPU, die alle auf dem gleichen Speicher rumwursteln. Da kommt eine Menge Cache raus, wenn man das ausrechnet. 128 MB ist da wahrscheinlich eine gute Zahl.

Ich hoffe jedoch genau deswegen, dass wir Spezialspeicher sowohl für die GPU als auch die CPU sehen werden. Und ein integrierter gemeinsamer Memorycontroller den Speicher Blockweise einblendet und so ein kleinerer Teil für Shared Memory zur Verfügung steht ohne die anderen zu blockieren. Also eine Architektur, bei der aus Sicht der CPU und GPU ein gemeinsam adressierbarer Speicherbereich vorliegt, aber in Wirklichkeit 2 unterschiedliche Speicherbreiche vorliegen, um die Gesamtbandbreite zu erhöhen und die Kosten zu reduzieren (DDR3 für CPU +GDDR5 für GPU). Dann kommt man wahrscheinlich mit weniger aus, mein Tipp:

eDRAM: 32 MB in der GPU + 32 MB in den CPU
DDR3: 1 GB
GDDR5: 1GB

OK, ist auch Wunschdenken :awesome:
 
Zuletzt bearbeitet:
Zu teuer ?
Stand heute vielleicht. Im Juli nächsten Jahres und wenn ich 5 Mio. davon bestelle ?

Alles relativ, und wird auch in 10 mio einheiten noch immer zu teuer für Nintendo sein. Ich kann mir nicht mehr als 299 für ne Wii U vorstellen, 349 wäre brandgefährlich und ich bin mir sicher, dass Nintendo auf biegen und brechen bei 299 noch etwas gewinn machen will.

Naja gut, nehmen wir den Cube als Beispiel, 249 Euro, relativ state of the art technik damals. Wenn wir den heranziehen wäre eine HD6870 durchaus im Möglichen, auch wenn man 50 Euro extra fürn Controller einrechnet würde man dann auf ~299 kommen...

Ich kanns momentan wirklich nicht beurteilen, denke aber weiterhin, dass Nintendo nicht grundlos eine HD4850 in das Devkit gepackt hat.
 
Alles relativ, und wird auch in 10 mio einheiten noch immer zu teuer für Nintendo sein. Ich kann mir nicht mehr als 299 für ne Wii U vorstellen, 349 wäre brandgefährlich und ich bin mir sicher, dass Nintendo auf biegen und brechen bei 299 noch etwas gewinn machen will.

Naja gut, nehmen wir den Cube als Beispiel, 249 Euro, relativ state of the art technik damals. Wenn wir den heranziehen wäre eine HD6870 durchaus im Möglichen, auch wenn man 50 Euro extra fürn Controller einrechnet würde man dann auf ~299 kommen...

Ich kanns momentan wirklich nicht beurteilen, denke aber weiterhin, dass Nintendo nicht grundlos eine HD4850 in das Devkit gepackt hat.

Es steht und fällt mit dem Produktionsprozess.
Sollte der Chip tatsächlich in 40nm gefertigt werden dann ist eine Karte auf Niveau des HD 6870 völlig unmöglich.
Allein die Verlustleistung beträgt 150 Watt für die Karte mit einem GB Ram denn die HD 6000 Serie wird bereits in 40nm gefertigt.
Die gesamte Wii-U würde dann mehr als 200 Watt schlucken und das wird Nintendo niemals machen.
Abgesehen davon, dass sie dann ein wesentlich größeres Gehäuse bräuchten.

Es wird dann eine GPU-Lösung mit maximal der halben Leistung dieser Karte, eher eine Ecke weniger geben.
Mein Tip bleibt bei 800-900 Gflops für die GPU.
 
Allein die Verlustleistung beträgt 150 Watt für die Karte mit einem GB Ram denn die HD 6000 Serie wird bereits in 40nm gefertigt.

naja 150 Watt ist etwas hochgegriffen, jedenfalls brauchte die HD4850 noch mehr ;) - Hatte letztens mein Strommessgerät am PC als ich ein wenig Skyrim angespielt habe und der Stromverbrauch des ganzen Geräts lag bei 180 Watt...

Ich kann mir wegen der Hitzeentwicklung und sicher kleinen Gehäusebauform auch keine 6000er serie vorstellen, aber wer weiß was die 7000er abliefert? Die Grafikkarten stagnieren doch seit 2 Jahren auf dem gleichen Niveau, wird mal wieder zeit für nen ordentlichen Sprung, den wird die 720 hundertprozentig mitnehmen, und vielleicht auch Nintendo?

Außerdem was lässt dich glauben Nintendo würde nur auf Energieeffizienz schauen? Die Wii hat so wenig strom gebraucht weil sie ultralowend komponenten hatte, aber die hat Nintendo wegen dem preis verbaut nicht unbedingt um strom zu sparen, das war nur ne positive Nebenwirkung Nintendos Geiz^^

Wer weiß wie die Budget Linie der HD7000 Serie aussehen wird und was die liefern kann?
 
naja 150 Watt ist etwas hochgegriffen, jedenfalls brauchte die HD4850 noch mehr ;) - Hatte letztens mein Strommessgerät am PC als ich ein wenig Skyrim angespielt habe und der Stromverbrauch des ganzen Geräts lag bei 180 Watt...

Ich kann mir wegen der Hitzeentwicklung und sicher kleinen Gehäusebauform auch keine 6000er serie vorstellen, aber wer weiß was die 7000er abliefert? Die Grafikkarten stagnieren doch seit 2 Jahren auf dem gleichen Niveau, wird mal wieder zeit für nen ordentlichen Sprung, den wird die 720 hundertprozentig mitnehmen, und vielleicht auch Nintendo?

Außerdem was lässt dich glauben Nintendo würde nur auf Energieeffizienz schauen? Die Wii hat so wenig strom gebraucht weil sie ultralowend komponenten hatte, aber die hat Nintendo wegen dem preis verbaut nicht unbedingt um strom zu sparen, das war nur ne positive Nebenwirkung Nintendos Geiz^^

Wer weiß wie die Budget Linie der HD7000 Serie aussehen wird und was die liefern kann?

Meine Äußerungen beziehen sich auf den 40nm Prozess, so wie er in den meisten Gerüchten auftaucht.
Und damit ist nicht mehr möglich.
Deine HD 4850 ist übrigens in 55nm gefertigt und braucht deshalb mehr Strom.
Es geht auch um die Volllast. Beim PC werden die Karten nie voll ausgelastet. Liegt einfach an der Struktur des PCs.
Bei einer Konsole sieht das schon anders aus. Deshalb verbraucht eine gleiche GPU auch im Durchschnitt mehr Strom aufgrund der besseren Auslastung.

Jedenfalls kommt das mit den 200+ Watt schon hin. Der Cube verbrauchte ca. 23 Watt, die Wii ca. 18 unter Volllast wohlgemerkt
Die 360 Launchbox ca. 175. Und da ziehst du es wirklich in Erwägung, dass die Wii-U mehr als 200 Watt verbrauchen soll ?

Die 720 wird definitiv in 28nm gefertigt, da hast du recht.
Und bei Nintendo muss man abwarten.
Meine Ausführungen über die Wii-U Leistungen anhand der existierenden Dev-Kits sind ja hinreichend bekannt.
Deshalb gehe ich selbst bei einer 28nm Fertigung für die Wii-U nicht von mehr Leistung aus.
Denn dann hat Nintendo von Anfang an vermutlich vor gehabt CPU und GPU auf einen Chip zu packen.
Spart Geld und Verlustleistung.
 
Alles relativ, und wird auch in 10 mio einheiten noch immer zu teuer für Nintendo sein. Ich kann mir nicht mehr als 299 für ne Wii U vorstellen, 349 wäre brandgefährlich und ich bin mir sicher, dass Nintendo auf biegen und brechen bei 299 noch etwas gewinn machen will.

Naja gut, nehmen wir den Cube als Beispiel, 249 Euro, relativ state of the art technik damals. Wenn wir den heranziehen wäre eine HD6870 durchaus im Möglichen, auch wenn man 50 Euro extra fürn Controller einrechnet würde man dann auf ~299 kommen...

Ich kanns momentan wirklich nicht beurteilen, denke aber weiterhin, dass Nintendo nicht grundlos eine HD4850 in das Devkit gepackt hat.

der cube kam damals für 199 ;-) sollte mal ürsprünglich 249 kosten, wurde aber kurz vor release gekippt.
 
dreieck.gif

derp :tired2:
 
T.l.i.t.d. WIP update #5 now in !!CRYENGINE 3!!

[video=youtube;-_IKqjb9TRY]http://www.youtube.com/watch?v=-_IKqjb9TRY[/video]
 
Ein klein wenig besser als Resi Revelations für den 3DS ;)

Minimal! :ugly:

Find das schon sehr beeindruckend. Das kommt imo in einigen Teilen schon sehr nahe an "echt" ran (Solange man natürlich nicht genauer hinschaut). Wird wirklich seeehr interessant werden was die neue Gen leisten wird.
 
Ich finde das jetzt irgendwie nicht beeindruckend......
Hoffe da hat die nextgen mehr zu bieten....

Und genau das ist es ja. Je weiter wir Voranschreiten, desto größer müssen die Schritte werden um noch wirklich beeindrucken zu können. Ich rede hier nicht von einem kurzen "ja, sieht echt ein wenig besser aus"-Effekt, sondern dass einen das wirklich mitreißt. Das war von PS1 zu PS2 verdammt gut, von PS2 zu PS3 war es nochmals ein riesen Sprung (welcher Entwicklungen aber merklich um ein vielfaches teurer gemacht hat) und wie groß müsste der Sprung jetzt sein? Und vorallem: Wie kostspielig wäre dieser Sprung?

Wenn man zu dem da oben nurnoch "nicht beeindruckend, ich erwarte mehr" sagt, dann glaube ich werden viele enttäuscht werden. Nichtmal 1% der NextGen Games werden so wie da oben aussehen, vorallem Neuentwicklungen. Bestehende Franchises kommen da evtl. ran, wo man einfach gute VKZ erwartet, aber bei neuen Franchises wird da eher auf die Grafikbremse getreten.

Das wird auch der Grund sein wieso PS4 und XBoxLoop nicht einen so gigantischen Sprung hinlegen werden. Avatar Grafik... wer glaubt denn daran? Es ist ja nicht nur so, dass die Hardware diese Leistung hergeben muss (Hitzentwicklung? Wer will bitte schon wieder RRoD oder wer will eine 0,5m x 0,5m x 0,3m Konsole unter seinem Fernseher), sondern die Entwickler müssen diese Leistung auch nutzen, was ich arg anzweifel! Was hätten die Entwickler auch davon? Die Spiele sehen besser aus, sie kosten mehr in der Entwicklung, aber verkaufen werden sie sich dadurch nicht bessert (und bei der Fülle an Games sogar eher schlechter in kommenden Generationen).
 
Zuletzt bearbeitet:
Und genau das ist es ja. Je weiter wir Voranschreiten, desto größer müssen die Schritte werden um noch wirklich beeindrucken zu können. Ich rede hier nicht von einem kurzen "ja, sieht echt ein wenig besser aus"-Effekt, sondern dass einen das wirklich mitreißt. Das war von PS1 zu PS2 verdammt gut, von PS2 zu PS3 war es nochmals ein riesen Sprung (welcher Entwicklungen aber merklich um ein vielfaches teurer gemacht hat) und wie groß müsste der Sprung jetzt sein? Und vorallem: Wie kostspielig wäre dieser Sprung?

Wenn man zu dem da oben nurnoch "nicht beeindruckend, ich erwarte mehr" sagt, dann glaube ich werden viele enttäuscht werden. Nichtmal 1% der NextGen Games werden so wie da oben aussehen, vorallem Neuentwicklungen. Bestehende Franchises kommen da evtl. ran, wo man einfach gute VKZ erwartet, aber bei neuen Franchises wird da eher auf die Grafikbremse getreten.

Das wird auch der Grund sein wieso PS4 und XBoxLoop nicht einen so gigantischen Sprung hinlegen werden. Avatar Grafik... wer glaubt denn daran? Es ist ja nicht nur so, dass die Hardware diese Leistung hergeben muss (Hitzentwicklung? Wer will bitte schon wieder RRoD oder wer will eine 0,5m x 0,5m x 0,3m Konsole unter seinem Fernseher), sondern die Entwickler müssen diese Leistung auch nutzen, was ich arg anzweifel! Was hätten die Entwickler auch davon? Die Spiele sehen besser aus, sie kosten mehr in der Entwicklung, aber verkaufen werden sie sich dadurch nicht bessert (und bei der Fülle an Games sogar eher schlechter in kommenden Generationen).

das da oben sieht nicht beeindruckend aus, weil es einfach langweilig aussieht....toll...schöne gänge....

ich brauch keine korridore die so toll wie da oben aussehen, ich will mehr action, animationen usw...das da oben is ne hässliche grafikdemo imo...da gabs beeindruckenderes schon vor 4 jahren....

der vorteil der next gen wird sein, das man ein GTA in Crysis 2 grafik haben wird, und DAS ist genial und wird auch keine wiiu schaffen
 
Wer will schon ein GTA in solch einer Grafik spielen. GTA muss wieder zu seinen Wurzeln zurück (Vogelperspektive), habe in dieser Gen mehr GTA auf der PS1 gespielt als GTA IV und wie gesagt das sogar schon eine PS1.
Ah ja habe wohl diese Gen auch länger SoE und SoM gespielt als jedes andere RPG (Xenoblade kommt evtl nahe ran), das schaft sogar en SNES (oder DS ^^).
 
Ich finde das jetzt irgendwie nicht beeindruckend......
Hoffe da hat die nextgen mehr zu bieten....

Also erstens hat die NextGen da nicht mehr zu bieten, zumindest die Wii U. Zweitens sieht man an der Demo ja sehr gut wie es gemacht ist:
Positiv
+ sehr schön gemachte hochaufgelöste Texturen
+ sehr schöne Beleuchtungseffekte (Spiegelung, Anzahl Lichtquellen, Schatten in der Umgebung, dynamische Schatten)
+ flüssig

Negativ
- die hochaufgelösten Texturen bezahlt man mit sehr wenig gleichzeitig dargestellten Texturen, Türen sperren die engen Bereiche noch zusätzlich ab
- extrem enge Schlauchlevel, sollte das ein Klaustrophobie-Spiel werden, ist es perfekt. Ansonsten würde ich das nicht mal mit der Zange anfassen wollen
- extrem hohe Wiederverwendung der Elemente, selbst die Gummibäume sind exakt 1:1 übernommen
- teilweise sehr geringe Polygonzahl, Manhattan-Architektur (rechtwinklig)
- dynamischer Schatten (Spieler selbst) ist zwar vorhanden, aber leider zumindest in dieser Demo sind Fehler drin. Das legt nahe, dass für die Schatten der statischen Elemente zumindest die Verdeckungsbäume (pro Lichtquelle) vorberechnet sind und der dynamische Schatten "getrickst" ist.

Alles in allem eine gut gelungene Demo, aber hoffentlich wird daraus nie ein Spiel :ugly:
 
Zuletzt bearbeitet:
Wer will schon ein GTA in solch einer Grafik spielen. GTA muss wieder zu seinen Wurzeln zurück (Vogelperspektive), habe in dieser Gen mehr GTA auf der PS1 gespielt als GTA IV und wie gesagt das sogar schon eine PS1.

Niemals! Das wäre ja ein absoluter Rückschritt. Chinatown war schon schrecklich von der Perspektive, so will ich GTA nie wieder spielen müssen...
Ab GTA3 wurde GTA richtig gut.
 
Also erstens hat die NextGen da nicht mehr zu bieten, zumindest die Wii U. Zweitens sieht man an der Demo ja sehr gut wie es gemacht ist:
Positiv
+ sehr schön gemachte hochaufgelöste Texturen
+ sehr schöne Beleuchtungseffekte (Spiegelung, Anzahl Lichtquellen, Schatten in der Umgebung, dynamische Schatten)
+ flüssig

Negativ
- die hochaufgelösten Texturen bezahlt man mit sehr wenig gleichzeitig dargestellten Texturen, Türen sperren die engen Bereiche noch zusätzlich ab
- extrem enge Schlauchlevel, sollte das ein Klaustrophobie-Spiel werden, ist es perfekt. Ansonsten würde ich das nicht mal mit der Zange anfassen wollen
- extrem hohe Wiederverwendung der Elemente, selbst die Gummibäume sind exakt 1:1 übernommen
- teilweise sehr geringe Polygonzahl, Manhattan-Architektur (rechtwinklig)
- dynamischer Schatten (Spieler selbst) ist zwar vorhanden, aber leider zumindest in dieser Demo sind Fehler drin. Das legt nahe, dass für die Schatten der statischen Elemente zumindest die Verdeckungsbäume (pro Lichtquelle) vorberechnet sind und der dynamische Schatten "getrickst" ist.

Alles in allem eine gut gelungene Demo, aber hoffentlich wird daraus nie ein Spiel :ugly:

du weißt aber schon das das die titanic und kein dschungel sein soll oder????:-D
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom