Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Zu dumm nur, dass Factor 5 Geschichte ist und außer Ihnen scheinbar keiner den Drahtsalat entwirren konnte :nix:
Kein Wunder. Die haben ja im Gegensatz zu 90% der Entwickler an der Cubehardware mitentwickelt, natürlich kannten die sich damit gut aus.

Ist ja alles schön und gut, aber scheinbar wars verdammt aufwendig umzusetzen
Nope. Man hat es nur gar nicht erst versucht, weil alle Entwickler sich schon auf Shader eingeschossen hatten und die Konvertierung von Shadern zu TEVs nur sehr mangelhaft bis gar nicht funktioniert hat. Wenn also ein Entwickler eine schöne Engine mit Shadern für die Xbox hatte und das für den Cube umgesetzt hat, gingen die schönen Shaderfunktionen fast alle der Reihe nach flöten. Da hieß es dann entweder nachbessern oder drauf pfeifen.
 
@MTC001

Ein Custom-4870er der alle relevanten DX11-Features beherrscht, reicht dicke, der hat nähmlich 1,2 Tflop, selbst ein Custom-4850er hat noch 1 Tflop, die UE4 wäre damit klar.

Im Grunde ist die 5000er und 6000er Serie ein DX11-Erweiterung der 4000er Serie, die Rechenleistungen sind nicht groß gestiegen. :-)

1.) Eine GPU Leistungsklasse 48XX ist unwahrscheinlich wegen der extremen Abwärme und dem sehr kleinen Gehäuse der WirDu, man weiß natürlich nicht wie sich die GPU angelötet ans Motherboard und in deutlich kleinerem Fertigungsprozess der mittlerweile verfügbar ist verhält, möglich bleibts natürlich, ist dennoch unwahrscheinlich. Der Kostenfaktor spricht auch eher dagegen, wie wir die Sparmeister bei Nintendo kennen :happy2:

2.) Die 4000er Serie ist der 5000er doch recht deutlich unterlegen, natürlich baut sie auf der Vorgeneration auf, das macht aber (fast) jede neue Generation an Karten, auch die 48XX baute auf der 38XX auf, usw. Die 6000er Serie ist der 5000er allerdings sehr ähnlich(leistungstechnisch fast ident sogar), aber zur 4000er haben beide deutlich Abstand, die 6000er ist eine optimierte(Hitze, Stromverbrauch, Effizienz hier und da) 5000er.

*Was übrigens auch gegen eine GPU die der Leistung einer 4850+ entspricht spricht: Die ganzen Multigames die nicht mit 1080p liefen, wenn mein PC damals problemlos UE3 Games in 1080p MIT 2-4x Kantenglättung geschafft hat ohne groß ins Schwitzen zu kommen, warum hat die WirDu dann nur 720p und dann auch nur 30FPS und nur hier und da mal irgendwelche anzeichen von 2x AA? Vorallem wo eine Konsole auch noch Optimierungen dahinter hat die ein PC nicht hat :-?

Jaja, "keine Finalen Devkits bla", damit erklärt ihr euch sicher alles :awesome:
 
Zuletzt bearbeitet:
Mir persönlich ists ja total egal, es wäre allerdings wirklich Schade wenn nach Nintendo auch MS uralte Hardware verbauen wird, aber es sieht sowieso nach ner Graka die im Leistungsbereich einer HD6850 liegt aus, und das ist prinzipiell erstmal ausreichend für die nächsten 5 Jahre, obs für 10 reicht wie von MS angepeilt wird man sehen :nix:

Nintendo verbaut keine uralte GPU, nur eine auf den ersten blick schwache (im Vergleich zu PCs).

*Was übrigens auch gegen was ähnlich gegen eine GPU die der Leistung einer 4850+ entspricht spricht ist, dass die ganzen Multigames nicht mit 1080p liefen, wenn mein PC damals problemlos UE3 Games in 1080p MIT 2-4x Kantenglättung geschafft hat ohne groß ins Schwitzen zu kommen, warum hat die WirDu dann nur 720p und dann auch nur 30FPS und nur hier und da mal irgendwelche anzeichen von 2x AA

Die meisten Games sollen zum Launch AA besitzen und einige laufen mit 60fps, du bist schlecht informiert ;)
 
Zuletzt bearbeitet:
Was ist denn an der Tatsache, dass die E3-Sachen nicht auf finalen Devkits gemacht wurden und daher nich zu 100% für die Hardware optimiert sein können, jetzt schon wieder so schwer zu akzeptieren?
 
Lass dich nicht von KennyPowers, der offensichtlich sehr wenig Ahnung von der Materie hat, beeinflussen. Die TEVs, auf die Nintendo mit Cube und Wii gesetzt hat, waren keine Wunderhardware, sondern schlicht und ergreifend Realität. Dass sie aufgrund ihrer Unterschiede zu Shadern manche Aufgaben schneller bzw. effizienter berechnet haben als diese, ist ebenfalls Realität. Dass Factor 5 sich interviewweise gefreut hat, wie gut sie aufgrund dieser Eigenschaften mit Rogue Leader arbeiten und Dinge wie AA und Selfshadowing verwirklichen konnten, ist genauso Realität. Nur weil er also nicht so damit zurecht kommt und die Wahrheit irgendwie so umgestalten muss, als seien Dinge, die nachweislich real sind, nur Erfindungen von Fanboys, solltest du dich nicht der gleichen dämlichen Argumentation hingeben.

Auch real ist, dass Dinge wie AA und Selfshadowing auch die PS2 beherrschte und realisiert wurden. Warum sollten einige diese Eigenschaften dem Cube absprechen, wenn die allgemeine Meinung ist, dass der Cube stärker war, als die Platform die es auch konnte und gute 18 Monate eher erschien?
 
Nintendo verbaut keine uralte GPU, nur eine auf den ersten blick schwache (im Vergleich zu PCs).

Wenns ne HD4XXX ist, was man aus den Features rauslesen kann, weil einfach Dinge fehlen die ne HD6XXX können würde, ists eben eine alte GPU Architektur. Dass die optimiert wird und auf die WirDu Bedürfnisse wurde ist klar, Stichwort 2ter Bildschirm, angepasst wird(wobei ich glaube dass das garnicht groß Nötig ist, weil die Radeon Karten seit jeher 2 Monitore unterstützen). Was für ne Generation drinnen steckt ist aber eigentlich auch egal, die Leistung machts natürlich, was nützt einem eine HD6000er wenns eine HD6400 ist, dann nehm ich lieber ne uralte HD3870 :ugly:

Was ist denn an der Tatsache, dass die E3-Sachen nicht auf finalen Devkits gemacht wurden und daher nich zu 100% für die Hardware optimiert sein können, jetzt schon wieder so schwer zu akzeptieren?


Wie gesagt, am PC wird auch nix groß optimiert, speziell bei Multititeln nicht, die werden lieblos hingeklatscht und oft in Direct X9(:uglylol:) released. Da hat der PC von Haus aus ein extremes Handycap, und mit ner 4850 spielst du wirklich jedes UE3 Game in 1080p und Kantenglättung(außer es ist verbugt) flüssig :nix:
 
Zuletzt bearbeitet:
Ehrlich gesagt verstehe ich auch nicht, warum sie nicht was aktuelles, ne 7XXX Generation zB. reinbauen. Sie fertigen die GPU sowieso neu und sicher im möglichst kleinen, aktuell 28 nm Prozess um Abwärme zu reduzieren und Kosten zu sparen. - Ich glaube auch, dass Nintendo deshalb noch kein Release nennen kann, weil die Produktion in 28nm erst richtig anlaufen muss...
 
Ehrlich gesagt verstehe ich auch nicht, warum sie nicht was aktuelles, ne 7XXX Generation zB. reinbauen. Sie fertigen die GPU sowieso neu und sicher im möglichst kleinen, aktuell 28 nm Prozess um Abwärme zu reduzieren und Kosten zu sparen. - Ich glaube auch, dass Nintendo deshalb noch kein Release nennen kann, weil die Produktion in 28nm erst richtig anlaufen muss...

Also 28 nm hab ich nie erwartet ich denke das liegt nichr daran ob NIntendo das will oder nicht sondern das atm bzw. bei Herstellung der Konsole gar nicht in so einer Masse verfügbar war
 
Ähem... wenn sie nicht in 28nm fertigen sondern in 40nm oder gar 55(:angst2:) kann man die ganzen Wunschtraumblasen ja gleich zum platzen bringen, alles leistungsfähiger als ne HD47XX würd das hübsche WirDu Gehäuse wohl wegschmelzen lassen. Merks ja bei meiner Karte die auch im 40nm Prozess gefertigt ist, die bleibt auch nur dank nem irren Lüfter kühl, der unter Last schonmal ordentlich anfährt :lol: -Wirklich gehört hab ich den allerdings auch erst beim Witcher 2, wasn Hardwarefresser das game :shakehead:
 
@MTC001

Ein Custom-4870er der alle relevanten DX11-Features beherrscht, reicht dicke, der hat nähmlich 1,2 Tflop, selbst ein Custom-4850er hat noch 1 Tflop, die UE4 wäre damit klar.

Im Grunde ist die 5000er und 6000er Serie ein DX11-Erweiterung der 4000er Serie, die Rechenleistungen sind nicht groß gestiegen. :-)
ich hatte ne 4870, hab jetzt ne 6970 und glaub mir die leitsung ist gestiegen ohne frage
die flops sagen kaum was drüber aus was das teil am ende leistet
580 = 1581 gflops
6970 = 2703 gflops
trotzdem ist ne 580 schneller in der praxis
folp zahlen bringen kaum was wenn man nix weiteres weiß
 
Ähem... wenn sie nicht in 28nm fertigen sondern in 40nm oder gar 55(:angst2:) kann man die ganzen Wunschtraumblasen ja gleich zum platzen bringen, alles leistungsfähiger als ne HD47XX würd das hübsche WirDu Gehäuse wohl wegschmelzen lassen. Merks ja bei meiner Karte die auch im 40nm Prozess gefertigt ist, die bleibt auch nur dank nem irren Lüfter kühl, der unter Last schonmal ordentlich anfährt :lol: -Wirklich gehört hab ich den allerdings auch erst beim Witcher 2, wasn Hardwarefresser das game :shakehead:

Ich rechne damit also es würde mich krass überraschen wenn Nintendo 28 nm hat. Ich meine sie können auch aus 40 nm (55 wäre Arg troll) auch einiges rausholen aber trotzdem wäre ne HD 4XXX und noch eins von den schlechteren mehr als weak. Da geht auch mit 40 nm einiges mehr
 
Ich rechne damit also es würde mich krass überraschen wenn Nintendo 28 nm hat. Ich meine sie können auch aus 40 nm (55 wäre Arg troll) auch einiges rausholen aber trotzdem wäre ne HD 4XXX und noch eins von den schlechteren mehr als weak. Da geht auch mit 40 nm einiges mehr

Wie gesagt, daran könnte es liegen, dass sich Nintendo auf kein Releasedatum festnageln lassen will. 28 nm wird ja aktuell produziert, die ganzen 7000er im 28nm Prozess sind ja aktuell in Produktion. Ich denke das wird der Standard für die nächsten paar Jährchen werden und Nintendo wartet ab was sie mit der GPU machen, wenns 28nm sind, Takt hoch, wenns nur 40nm werden, takt runter an der Architektur werden sie sicher nichts mehr verändern bis zum Launch.

Man kann hier echt nur hoffen, dass sie abwarten und auf 28nm basis produzieren, wäre einfach viel mehr möglich, ODER sie vergrößern das Gehäuse, was aber wohl nicht passieren wird :shakehead:
 
Wie gesagt, am PC wird auch nix groß optimiert, speziell bei Multititeln nicht, die werden lieblos hingeklatscht und oft in Direct X9(:uglylol:) released. Da hat der PC von Haus aus ein extremes Handycap, und mit ner 4850 spielst du wirklich jedes UE3 Game in 1080p und Kantenglättung(außer es ist verbugt) flüssig :nix:
Ich sehe keinen Zusammenhang mit meiner Frage. Was hat es mit dem PC zu tun, wenn Konsolenspiele, die naturgemäß etwa um den Faktor 1000 besser für die Hardware optimiert sind, als das beim PC mit seinen unzähligen möglichen Konfigurationen überhaupt möglich wäre, noch nicht in einem finalen Devkit entwickelt werden?
 
Wie gesagt, daran könnte es liegen, dass sich Nintendo auf kein Releasedatum festnageln lassen will. 28 nm wird ja aktuell produziert, die ganzen 7000er im 28nm Prozess sind ja aktuell in Produktion. Ich denke das wird der Standard für die nächsten paar Jährchen werden und Nintendo wartet ab was sie mit der GPU machen, wenns 28nm sind, Takt hoch, wenns nur 40nm werden, takt runter an der Architektur werden sie sicher nichts mehr verändern bis zum Launch.

Man kann hier echt nur hoffen, dass sie abwarten und auf 28nm basis produzieren, wäre einfach viel mehr möglich, ODER sie vergrößern das Gehäuse, was aber wohl nicht passieren wird :shakehead:

28nm ist noch nicht genug ausgereift.
Bei PC GPUs ist das nicht so schlimm denn wenn hier auf dem Chip mal ein Bereich defekt ist, wird er einfach deaktiviert und der Chip wird als schwächere Version verkauft.
Bei einem Konsolenchip geht das in der Regel aber nicht.
Da muss man dann jeden Chip, der einen Fehler aufweist, direkt in die Tonne kloppen, da man ihn nirgends weiter verwenden kann.
Das Preis/Leistungsverhältnis pass also nicht.

Deshalb z.B. wurde ja bei der PS3 der Cell eine SPU deaktiviert. So konnten auch Cells genutzt werden, die Fehler in einer SPU aufwiesen. Die SPUs sind nämlich zu hundert Prozent identisch. Es ist egal, welche man deaktiviert.

IBM gibt ja selber an die Wii-U CPU in 45nm zu fertigen. Die GPU wird sicherlich entweder auch in 45nm oder in 40nm gefertigt.
Somit hast du recht, dass da leistungstechnisch eine Grenze gesetzt ist.
 
@peter: Ich sags ja, unoptimierte Multigames die lieblos rübergeportet wurden spielt eine 4850+ in top qualitätseinstellungen und der doppelten Auflösung ab :nix:

Man wird ja sehen was abgeht wenn die Ausrede der nicht finalen Devkits nicht mehr zieht und die Games noch immer gleich aussehen wie auf PS360 ;)

@M@llace: Achso da gibts noch solche Probs, dachte es ist alles in Butter weil die neuen 7000er Radeons schon in Massenproduktion gehen, aber dann... Stimmt schon bei Konsolen muss das alles perfekt funktionieren. Tja das wird dann wohl richtig bitter für die WirDu, wenn die X720 und PS4 in nem Jahr wahrscheinlich problemlos im 28nm Prozess die GPUs rausboxen :o
 
Zuletzt bearbeitet:
Naja, aber die geforce gtx670 wird ja auch in 28nm gefertigt...denke die produktionen laufen jetzt schon richtig an.

Klar gibt es fehlerhafte chips, aber bei einer gtx670 scheint sich ja die produktion auch schon zu lohnen.
Denke in 3-4 monaten laeuft das recht reibungslos.
 
@peter: Ich sags ja, unoptimierte Multigames die lieblos rübergeportet wurden spielt eine 4850+ in top qualitätseinstellungen und der doppelten Auflösung ab :nix:
PC und Konsolen = Äpfel und Birnen! Bei dem Vergleich muss es jedem die Fußnägel aufrollen!

Man wird ja sehen was abgeht wenn die Ausrede der nicht finalen Devkits nicht mehr zieht und die Games noch immer gleich aussehen wie auf PS360 ;)
Ja, wird man. Bin zB schon sehr gespannt, ob du dich entschuldigen bzw. deine Worte zurücknehmen wirst, falls sich herausstellt, dass du Unrecht hattest.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom