Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Nicht wenn man den restlichen Ram quasi "umsonst" bekommt.
Man kann keine potente Custom GPU nehmen und dann an der Bandbreite und Grösse des "Speichers" sparen. Microsoft ist nicht dumm.
Wenn sie so eine potente GPU nehmen muss diese auch adäquat unterstützt werden.
Sonst hätten sie gleich bei einer HD 7670 bleiben können.


Wir müssen beim eDRAM unterscheiden.
Die 360 hat 10MB eDRAM. Das ist dafür da, häufige Zugriffe auf den Hauptspeicher zu mindern.
Die 360 hat aber trotzdem einen schnellen Hauptspeicher im Gegensatz zur Wii-U.
Dort muss das eDRAM alles raus reißen, da der Speicher so langsam ist.

Die X3 wird aber wieder schnellen Hauptspeicher besitzen. Mindestens zehnmal so schnell wie der Wii-U Speicher.
Das eDRAM ist dann wieder für ähnliche Dinge wie bei der 360 zuständig. Deshalb wird es auch nicht so groß werden.
Schätze mal zwischen 32 und 64MB.
Wie gesagt, es muss bei weitem nicht so viel leisten wie bei der Wii-U.
 
Also halten wir fest:

Die X3 verfügt über mindestens 3 teraflop (nur die GPU) und 256mb eDRAM. Ob da nicht ein paar Leute enttäuscht werden? Werde die Posts wohl mal speichern^^


jeder hat andere Erwartungen an die Next Gen, aber objektiv enttäuscht könnte man nur sein, wenn wir uns unter 2 TFlops und 4GB Ram wiederfinden.


Über Retro zu spotten zeugt auch nicht gerade von geistigem Wohlbefinden, da arbeiten wirklich sehr viele talentierte Entwickler. Sicher kann es am Ende auch ein buntes Spiel werden, aber technisch dürfte es wohl über jeden Zweifel erhaben sein, auch wenn es eben kein Shooter oder Uncharted wird... Tut schon richtig weh hier mitzulesen.


Wer spottet hier über Retro? Es ist wohl die einhellige Meinung, dass das Nintendos heißestes Eisen im Feuer ist.
Aber wenn dort in letzter Zeit viele Leute gegangen sind, dann ist das halt auch ne Realität, die man zur Kenntnis nehmen muss.

Auf der Wii war ihr Spieleoutput ja nun nicht gerade lawinenartig. Und ob man nun ein 2D JnR als Kronzeugen für die Leistungsfähigkeit Retros aufrufen muss, find ich auch noch fraglich
 
Also halten wir fest:

Die X3 verfügt über mindestens 3 teraflop (nur die GPU) und 256mb eDRAM. Ob da nicht ein paar Leute enttäuscht werden? Werde die Posts wohl mal speichern^^

Über Retro zu spotten zeugt auch nicht gerade von geistigem Wohlbefinden, da arbeiten wirklich sehr viele talentierte Entwickler. Sicher kann es am Ende auch ein buntes Spiel werden, aber technisch dürfte es wohl über jeden Zweifel erhaben sein, auch wenn es eben kein Shooter oder Uncharted wird... Tut schon richtig weh hier mitzulesen.

Es kommt drauf an. Sollte die Custom HD 8880 die echte 8000er Reihe von AMD sein (Wobei das Gerücht immernoch nur für OEM gilt) dann dürften sogar ungefähr 4 TFlop zu erwarten sein.
Mit dem eDram, wenn er denn nun genutzt wird, von 256MB rechne ich natürlich im besten Fall.
wenn Microsoft so klug ist und auf zukunftstauglichkeit setzt.
Aber weniger als 128MB kann ich mir beim besten Willen nicht vorstellen.
Ausser wenn sie sich vom lahmen DDR3 Speicher abwenden.
Dann sieht die Sache wieder anders aus.
Aber so wie es derzeit steht (8GB DDR3 Unified), kann man von einem eDram im dreistelligen Bereich ausgehen.
 
Wir müssen beim eDRAM unterscheiden.
Die 360 hat 10MB eDRAM. Das ist dafür da, häufige Zugriffe auf den Hauptspeicher zu mindern.
Die 360 hat aber trotzdem einen schnellen Hauptspeicher im Gegensatz zur Wii-U.
Dort muss das eDRAM alles raus reißen, da der Speicher so langsam ist.

Die X3 wird aber wieder schnellen Hauptspeicher besitzen. Mindestens zehnmal so schnell wie der Wii-U Speicher.
Das eDRAM ist dann wieder für ähnliche Dinge wie bei der 360 zuständig. Deshalb wird es auch nicht so groß werden.
Schätze mal zwischen 32 und 64MB.
Wie gesagt, es muss bei weitem nicht so viel leisten wie bei der Wii-U.

Richtig. Aber wie ich bereits zu Harlock schrieb, gehe ich bei meiner Aussage von DDR3 Unified aus.
Also so ähnlich wie bei der WiiU. Wo der eDram quasi alles rausreissen muss.
Bei den Engines, die bei Durango am Werke sein werden, reichen dann sicherlich keine 32MB eDram. Ich bin mir da sogar felsenfest sicher. Mindestens im dreistelligen MB Bereich muss dieser dann sein.
Sollte aber DDR4 oder GDDR5 verwendet werden, kann man durchaus von mickrigen 32-64 MB ausgehen.
 
In einen SoC von etwa ~350mm² dürften 8 Jaguar-Kerne, ein voller Pitcairn mit ~2,5 TFLOPs und 128MB eDRAM reinpassen. In 1 - 2 Jahren sollte ein Shrink auf 20nm möglich sein, der den ganzen SoC auf <300mm² bringt und damit relativ kostengünstig macht. Ein 256Bit-SI für den Hauptspeicher könnte außerdem zusätzlich 68GB/s zu 8GB DDR4-2133 liefern. Ansonsten wäre ein Silicon Interposer natürlich die beste Wahl.

Das Problem mit getrennten Speichern ist nicht nur die unnötige Komplexität der Architektur, man macht damit auch zukünftige Shrinks praktisch unmöglich. Die GPU braucht so oder so mindestens 150GB/s Bandbreite, das kann man mit 128Bit-SIs gar nicht erreichen, selbst wenn man separate Speicher hat. Ein breites SI passt aber nur auf einen großen Chip. Der 350mm² SoC wäre selbst bei 14nm noch groß genug für ein ordentliches Interface, zwei separate Dies wahrscheinlich nicht und bei einer Konsole kann man dann nicht einfach die Architektur ändern.

Warum denkt ihr ist der WiiU Hauptspeicher so unglaublich langsam? Weil ein 128Bit-SI gar nicht auf eine 33mm² CPU passt. ;-)
 
Zuletzt bearbeitet:
Hmm das ergibt durchaus Sinn.
Da die spätere Revision und kostenreduktion, bei der Herstellung der Konsolen, sicherlich ein grosser Faktor im Entwicklungsprozess ist. Aber eine 2.5 TFlop GPU halte ich für zu schwachbrüstig. Da erwarte ich mindestens 0.75 - 1.5 TFlop mehr.
Die neue Xbox wird wohl wieder mindestens 7 Jahre halten müssen. Da kann man nicht genug Leistung reinstecken.
 
Hmm das ergibt durchaus Sinn.
Da die spätere Revision und kostenreduktion, bei der Herstellung der Konsolen, sicherlich ein grosser Faktor im Entwicklungsprozess ist. Aber eine 2.5 TFlop GPU halte ich für zu schwachbrüstig. Da erwarte ich mindestens 0.75 - 1.5 TFlop mehr.
Die neue Xbox wird wohl wieder mindestens 7 Jahre halten müssen. Da kann man nicht genug Leistung reinstecken.

Leistung wird aber nicht allein durch TFlops gemessen, da diese eh nur theoretische Werte sind .

Lieber etwas weniger Flops und dafür recht nahe an dessen Peakwerten rankommen als nur auf dem Papier stehende Peakwerte welche man sowieso nie ereicht ;-)


Den besseren GFlops Wert auf dem Papier haben der PS3 auch nicht wirklich geholfen....
 
Hmm das ergibt durchaus Sinn.
Da die spätere Revision und kostenreduktion, bei der Herstellung der Konsolen, sicherlich ein grosser Faktor im Entwicklungsprozess ist. Aber eine 2.5 TFlop GPU halte ich für zu schwachbrüstig. Da erwarte ich mindestens 0.75 - 1.5 TFlop mehr.
Die neue Xbox wird wohl wieder mindestens 7 Jahre halten müssen. Da kann man nicht genug Leistung reinstecken.


das kann doch nicht dein ernst sein oder ?
eine solche gpu fährt mit der aktuellen gen schlichten und ist in der lage für viele jahre beeindruckende spiele liefern zu können
die vergleiche zwischen den consolen und pc sind einfach absurd
 
Zuletzt bearbeitet:
Das ist wahr. Aber die HD 8880 dürfte (und sollte!) von der Rohleistung an die HD 79xx Reihe kommen. Die bei 3 Tflop beginnt.
Wenn man dann noch dank des Customdesign von erhöhter Effizienz, dank Entschlackung von unnötigem Ballast, ausgeht, sollten letztlich auch auf dem Papier mehr als 2.5 Tflop rauskommen.
 
Hmm das ergibt durchaus Sinn.
Da die spätere Revision und kostenreduktion, bei der Herstellung der Konsolen, sicherlich ein grosser Faktor im Entwicklungsprozess ist. Aber eine 2.5 TFlop GPU halte ich für zu schwachbrüstig. Da erwarte ich mindestens 0.75 - 1.5 TFlop mehr.
Die neue Xbox wird wohl wieder mindestens 7 Jahre halten müssen. Da kann man nicht genug Leistung reinstecken.

Wir reden hier von einer Konsole.
Ich gehe sogar von unter 2,5TF für die X3 GPU aus.
Das geht aus mehreren Gerüchten in der letzten Zeit hervor.
Man darf die Situation nicht mit derer, beim Erscheinen der 360 vergleichen.
Die hatte gar eine stärkere GPU drin als man im PC Sektor kaufen konnte. Aber damals war der Stromverbrauch bei aktuellen GPUs nicht so dramatisch wie heute.

Es wird wohl auf einen Stromverbrauch zwischen 150 und maximal 200 Watt hinaus laufen.
Da sind 4 TF z.B. einfach nicht zu realiseren.
Wenn sich dann noch das Gerücht des 450mm^2 SoC bewahrheiten sollte, dann wird da wohl alles drauf enthalten sein. Und hier wäre wohl auch kein Platz für eine potente CPU, eine GPU mit 4TF und auch noch eDRAM.

Aber selbst wenn die GPU "nur" 2TF hätte, wäre sie in der Praxis ca. neun bis zehn Mal so stark wie die der 360. Das ist schon keine schlechte Hausnr.

Durch den SoC und die damit verbundenen kurzen Wege wäre die Leistungssteigerung aber noch größer.
Sieht man ja an den ganzen Handy SoCs, die wesentlich effektiver sind als herkömmliche Technik.
 
Zuletzt bearbeitet:
jeder hat andere Erwartungen an die Next Gen, aber objektiv enttäuscht könnte man nur sein, wenn wir uns unter 2 TFlops und 4GB Ram wiederfinden.

Ich mein ja nur, von der WiiU wurde ne zeitlang auch mehr erwartet eben wegen Gerüchten. Und auch bei der Box driften diese Gerüchte recht weit auseinander. Nicht falsch verstehen, die sogenannte technische NG darf von mir aus ruhig stark werden, kann ja sein, dass ich mir nach der WiiU auch wiedermal ne 2. Konsole kaufe und da habe ich nichts von einer WiiU Kopie. Wobei ich "unter 2 teraflops" nicht ausschließen würde.





Wer spottet hier über Retro? Es ist wohl die einhellige Meinung, dass das Nintendos heißestes Eisen im Feuer ist.
Aber wenn dort in letzter Zeit viele Leute gegangen sind, dann ist das halt auch ne Realität, die man zur Kenntnis nehmen muss.

Auf der Wii war ihr Spieleoutput ja nun nicht gerade lawinenartig. Und ob man nun ein 2D JnR als Kronzeugen für die Leistungsfähigkeit Retros aufrufen muss, find ich auch noch fraglich

Ist auch kein Wunder da sich Retro umgebaut hat, da musste auch erst wieder ein komplettes Team daraus werden. Donkey Kong würde ich auch nicht unbedingt als Leistungsmesser nehmen, wobei inzwischen eben viele weitere Mitarbeiter dabei sind. Aber sie haben damit bewiesen, dass sie einer alten Franchise neues Leben einhauchen können und das sehr gut und mit eigener Note, ohne den Flair zu zerstören. Finde es nur unfair das Team runterzumachen, nur weil die Metroid Mitarbeiter zu größeren Teilen abgewandert sind. Schaun wir mal an was sie für die WiiU arbeiten.
 
Das ist wahr. Aber die HD 8880 dürfte (und sollte!) von der Rohleistung an die HD 79xx Reihe kommen. Die bei 3 Tflop beginnt.
Wenn man dann noch dank des Customdesign von erhöhter Effizienz, dank Entschlackung von unnötigem Ballast, ausgeht, sollten letztlich auch auf dem Papier mehr als 2.5 Tflop rauskommen.

Wie gesagt, im Prinzip völlig unwichtig!

Wichtig ist viel eher ein ausgewogenes System welches am besten keine großartigen Flaschenhälse aufweist (dann nützen nämlich auch keine 5TFlops)
 
Leistung wird aber nicht allein durch TFlops gemessen, da diese eh nur theoretische Werte sind .

Lieber etwas weniger Flops und dafür recht nahe an dessen Peakwerten rankommen als nur auf dem Papier stehende Peakwerte welche man sowieso nie ereicht ;-)

Den besseren GFlops Wert auf dem Papier haben der PS3 auch nicht wirklich geholfen....
GPUs laufen bei typischem Videospiel-Code nahe am theoretischen Limit, zudem ist es kein Problem eine GPU zu entwickeln, welche über 90% Effizienz hat. Das macht man nur deshalb nicht weil Leistung/Watt wichtiger ist als Leistung/PeakFLOPs und sich beide Ziele gegenseitig im Weg stehen. Es macht oftmals mehr Sinn einen Wert doppelt zu berechnen und einen Takt zu verschwenden als den alten Wert quer über den gesamten Chip zu schieben, weil die Berechnung weit weniger Strom verbraucht als die Datenbewegung. Was man hier spart kann man dafür in zusätzliche Hardware-Einheiten stecken und trotzdem mehr Leistung/Watt erreichen. FLOPs-Zahlen kann man bei GPUs eigentlich sehr gut vergleichen, erst recht wenn man ohnehin nur ATI-GPUs miteinander vergleicht.

sisxoo schrieb:
das kann doch nicht dein ernst sein oder ?
eine solche gpu fährt mit der aktuellen gen schlichten und ist in der lage für viele jahre beeindruckende spiele liefern zu können
die vergleiche zwischen den consolen und pc sind einfach absurd
Eine HD7870 hat ziemlich exakt die 12-fache theoretische Leistung, die FFUs sind zudem wesentlich effizienter. Ich weiß auch nicht was alle immer mit ihren TFLOPs haben, selbst 4 TFLOPs sind nur ~50% schneller als eine HD7870 mit 2,56 TFLOPs. 50% mehr Leistung ist bei der heutigen Komplexität von Spielen fast nicht sichtbar, außerdem sind die ganzen 4+ TFLOPs Karten am PC ohnehin alle von anderen Teilen der Grafikkarte limitiert.
 
Da die Konsolen die PC-GK-Architektur sprich GNC bzw. GNC2 annehmen und auf der jedenfals aufbauen, so ist es doch legitim die reine Rohleistung bzw. die ALU's der jeweiligen PC-Chips in Betracht zu ziehen. Es wird sehr wahrscheinlich auf Pitcairn-Chips bzw. deren Nachfolger gesetzt. Der Vollausbau von Pitcairn ist ja bekanntlich 212mm² groß (klein :coolface: )und soll im Nachfolger auf 270mm² ~ 280mm² vergrößert werden. Wenn man jetzt die Gerüchte des jeweiligen SoC-Chips von 450mm² in Betracht zieht, so könnte es auch mehr oder weniger passen. Ich vertrete die Meinung, dass sie den stärksten Perfomancechip einsetzen sollten/werden, weil er keinen so großen Ballast wie der Tahiti enthält und dabei immer noch gut Sparsam genug ist. Warum sollten sie den auf ein Perforamce-Low-Chip setzen und dabei sich einen Krampf holen um bessere Leistung zu holen wenn sie das ohne viel Mühle schon so erhalten. Es wird ein starker Chip drin sein, welcher durch die -Modifikationen etwas entlastet wird, jedoch weiß ich nicht was bei den Spieleentwicklern die Priorität ist und daher weiß ich auch nicht wie die Modifikationen aussehen aber eins wird wohl klar sein, dass sie am einfachsten auf die Rohleistung zugreifen wollen und das sind nunmal die ALUs + Takt + je nachdem was sie noch so zaubern wollen auch die Bandbreite. Aber eine GPU-Rohleistung einer 7870 ist jetzt kein Teufelswerk^^ :coolface: und bestimmt auch nicht überdimensioniert.
 
Zuletzt bearbeitet:
GPUs laufen bei typischem Videospiel-Code nahe am theoretischen Limit, zudem ist es kein Problem eine GPU zu entwickeln, welche über 90% Effizienz hat. Das macht man nur deshalb nicht weil Leistung/Watt wichtiger ist als Leistung/PeakFLOPs und sich beide Ziele gegenseitig im Weg stehen. Es macht oftmals mehr Sinn einen Wert doppelt zu berechnen und einen Takt zu verschwenden als den alten Wert quer über den gesamten Chip zu schieben, weil die Berechnung weit weniger Strom verbraucht als die Datenbewegung. Was man hier spart kann man dafür in zusätzliche Hardware-Einheiten stecken und trotzdem mehr Leistung/Watt erreichen. FLOPs-Zahlen kann man bei GPUs eigentlich sehr gut vergleichen, erst recht wenn man ohnehin nur ATI-GPUs miteinander vergleicht.

Ich rede aber von den Peakwerten des gesamten Systems was nunmal eine Konsole ist!
Von daher ist mir die Gersamtarchitektur weitaus wichtiger und wenn diese dann mal veröfentlicht/geleaked werden, kann ich persöhnlich weitaus eher einschätzen was "machbar" sein wird oder nicht.

Glaube mir da helfen GFlop Zahlen nicht wirklich ;-)


Ich will die FLOP Zahlen nicht völlig ausser acht lassen, keine Frage nur sind diese für mich eher ein grober Indikator wohin die reise geht und kein Beweiss für Machbar / nnicht machbar, besser/ schlechter :-)
 
Zuletzt bearbeitet:
Ich rede aber von den Peakwerten des gesamten Systems was nunmal eine Konsole ist!
Von daher ist mir die Gersamtarchitektur weitaus wichtiger und wenn diese dann mal veröfentlicht/geleaked werden, kann ich persöhnlich weitaus eher einschätzen was "machbar" sein wird oder nicht.

Glaube mir da helfen GFlop Zahlen nicht wirklich ;-)
Der Peakwert des ganzen Systems entsteht aber zu 90% aus dem Peakwert der GPU. Die CPU spielt da eh keine Rolle. Außerdem halte ich es für ziemlich unwahrscheinlich, dass Sony oder Microsoft eine enorm starke GPU einbauen und der Rest des Systems dann gar nicht dazu passt. Die Möglichkeit, dass die PeakFLOPS einer GPU nicht aussagekräftig genug wären um die Leistung einer Konsole halbwegs vernünftig einzuschätzen, erscheint mir als ziemlich entfernt wichtig. Ich kann mir genug Szenarien vorstellen wo das der Fall wäre aber wahrscheinlich ist keines davon. ;-)
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom