Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Die ersten 360 DeKits hatten diese GPU, weil es zu dem Zeitpunkt nichts besseres von ATI gab, und crossfire ebenfalls nicht. Die ersten PS3 Devkits hatten auch nur 6800er, aber bei nVidia gab es schon SLI, daher gleich zwei.
Wenn sich MS jetzt aber für eine eher schwächere GPU entscheiden, obwohl schon weit stärkere auf dem Markt sind, deutet das darauf hin, dass sie auf diese Performance abzielen.

So schaut es aus.
Wenn in den Dev-Kits nicht die beim Zusammenbau aktuellen Top-Karten stecken kann man davon ausgehen, dass auch die finale Hardware sich nicht großartig von derer der Dev-Kits unterscheidet.
Muss man einfach akzeptieren.

Hatte ich bei der Wii-U und deren Dev-Kits ja auch gefühlte eindutzend Mal geschrieben, wurde aber von den üblichen Verdächtigen natürlich nicht verstanden.
 
Man kann also von einer 7770er ausgehen, die unterm Strich für uns Grafikgamer von morgen, genau was bedeutet?
 
wie schon mal geschrieben, ich hätte nichts gegen eine midrange GPU von 2013 die ~8 fache 360 leistung hätte und die devs locker das doppelte rausholen was man mit so einer Karte im PC erreichen kann.
Wäre für mich mit all den neuen features (smartglass) ordentlich mehr ram und einer guten CPU architektur die perfekte nextgen imo.
Sony könnte von mir aus mit der GPU die ~10x 360 anpeilen da ich eh wieder beide konsolen hole, und ich wäre rundum glücklich.
Multiplayer auf der Durango und excusives auf der PS4 :lick:

Man kann also von einer 7770er ausgehen, die unterm Strich für uns Grafikgamer von morgen, genau was bedeutet?

wir wissen nicht ob das stimmt, wir können nur hoffen das ein Gamingmagazin das devkit gekauft hat ;)
aber trotzdem schreiben die meisten im GAF das sich bis jetzt bei jedem alpakit zum final kit ne menge geändert hat, da alpha kits den devs nur zur überbrückung bis bessere devkits fertig sind zur verfügung gestellt werden.
Seit februar sollen ja neuere devkits im umlauf sein und so eins hat DaE leider nicht.
 
Zuletzt bearbeitet:
Man kann also von einer 7770er ausgehen, die unterm Strich für uns Grafikgamer von morgen, genau was bedeutet?

1.280 GFLOPs Cape Verde midrange GPU mit GCN Architektur, wäre weniger als erwartet und ich glaube es auch noch nicht ganz. Wobei das Ergebnis in einer Konsole schon beeindrucken dürfte mit massig Ram etc.
 
Zuletzt bearbeitet:
1.280 GFLOPs Cape Verde midrange GPU mit GCN Architektur, wäre weniger als erwartet und ich glaube es auch noch nicht ganz.

Die neuen 7770 haben schon längst 1.420 Gflops dank besserer chipausbeute wodurch der takt erhöht werden konnte bei gleicher abwärme ;)
Also wird ne 2013 8770 wohl locker das 8fache haben einer 360.
und DaE sprach immer von der leistung zwischen 7770 und 7850.
Lass sich MS also für ne 8850 entscheiden 2013 und wir hätten ~10
 
Zuletzt bearbeitet:
wir wissen nicht ob das stimmt, wir können nur hoffen das ein Gamingmagazin das devkit gekauft hat ;)
aber trotzdem schreiben die meisten im GAF das sich bis jetzt bei jedem alpakit zum final kit ne menge geändert hat, da alpha kits den devs nur zur überbrückung bis bessere devkits fertig sind zur verfügung gestellt werden.
Seit februar sollen ja neuere devkits im umlauf sein und so eins hat DaE leider nicht.

Neuere Dev-Kit Revisionen nähern sich hauptsächlich mit der Architektur der finalen Hardware an.
Da werden dann z.B. Hardwarekomponenten eingebaut, die es im PC Sektor nicht gibt und die beim Bau der ersten Dev-Kits noch nicht zur Verfügung standen. Z.B. eDRAM der GPU, oder eine CPU mit 8 Kernen oder ähnliches.
Die grundsätzliche Power muss sich dadurch aber nicht ändern insbesondere, wie bereits erwähnt, wenn zum Zeitpunkt der ersten Dev-Kits potente PC Hardware vorhanden war.

Es ist also z.B. eher unüblich in derzeitige Dev Kits eine GPU der HD 7700 Klasse einzubauen, wenn es schon bereits weit stärkere GPUs gibt und die Hardware am Ende dieser stärkeren GPU entsprechen sollte.
Wenn also in den derzeitigen X3 Dev-Kits eine HD 7700 GPU werkelt dann kann man ziemlich sicher sein, dass die finale GPU leistungstechnisch nicht höher anzusiedeln ist.
Sie wird aber vermutlich über Dinge verfügen, welche der PC GPU fehlen.
Da wäre auf jedenfall das eDRAM zu nennen, welches sich wohl aller Wahrscheinlichkeit nach auch in der X3 GPU wiederfinden wird.
Dann wird die GPU sicherlich um einige Dinge entschlackt, die man in der Konsole nicht braucht und um ein paar andere Dinge erweitert.
Aber im Groben dürfte man sich Floptechnisch wohl auf 7700 Niveau bewegen, wenn denn diese GPU in den Dev-Kits steckt.
Wären dann ca. 1.3 Terraflop.

Der Takt spielt übrigens bei dieser Berechnung auch keine Rolle.
Die Daten des Dev-Kits sollen ja möglichst nah an jene der finalen Hardware heranreichen.
Und Flops bei einer GPU setzen sich aus Shadereinheiten mal Takt zusammen.
Die finale GPU kann also z.B. über etwas weniger Shader als die 7700 verfügen und dafür etwas schneller getaktet werden, oder eben aus etwas mehr, mit niedrigerem Takt. Kommt aufs gleiche raus und berechnet sich einfach danach, was im speziellen Fall günstiger ist.
 
Die neuen 7770 haben schon längst 1.420 Gflops dank besserer chipausbeute wodurch der takt erhöht werden konnte bei gleicher abwärme ;)
Also wird ne 2013 8770 wohl locker das 8fache haben einer 360.
und DaE sprach immer von der leistung zwischen 7770 und 7850.
Lass sich MS also für ne 8850 entscheiden 2013 und wir hätten ~10

Sage ja nicht, dass sich nichts ändern kann, die Target Specs waren aber zumindest mal bei 4-6 x 360 für Spiele(das Gesamtsystem dürfte stärker sein, aber da wird einiges reserviert), laut Microsoft. Mal schaun, einige im GAF erwarten ja weit mehr. kann aber sein, dass sie wieder nur den RAM für Epic erhöht haben.
 
Ah ok, thx, wird sich dann also unterm Strich bei ~8x 360-Leistung einpendeln, wie vermutet, und demnach ca. 3x stärker als die WiiU?!
Würde sicherlich für optische Differenzen sorgen, aber vermutlich keinen Quantensprung darstellen. Nuja, warten wir mal ab :).
 
1.280 GFLOPs Cape Verde midrange GPU mit GCN Architektur, wäre weniger als erwartet und ich glaube es auch noch nicht ganz. Wobei das Ergebnis in einer Konsole schon beeindrucken dürfte mit massig Ram etc.

Dazu ist die GCN Architektur ja auch effizienter als die bis dato von AMD verwendete VLIW-Architektur.
Somit dürfte sie realistisch betrachtet wohl ca. siebenfache 360 GPU Leistung erreichen. Wenn auch das nicht gerade der Brüller sein dürfte.
 
Neuere Dev-Kit Revisionen nähern sich hauptsächlich mit der Architektur der finalen Hardware an.
Da werden dann z.B. Hardwarekomponenten eingebaut, die es im PC Sektor nicht gibt und die beim Bau der ersten Dev-Kits noch nicht zur Verfügung standen. Z.B. eDRAM der GPU, oder eine CPU mit 8 Kernen oder ähnliches.
Die grundsätzliche Power muss sich dadurch aber nicht ändern insbesondere, wie bereits erwähnt, wenn zum Zeitpunkt der ersten Dev-Kits potente PC Hardware vorhanden war.

Es ist also z.B. eher unüblich in derzeitige Dev Kits eine GPU der HD 7700 Klasse einzubauen, wenn es schon bereits weit stärkere GPUs gibt und die Hardware am Ende dieser stärkeren GPU entsprechen sollte.
Wenn also in den derzeitigen X3 Dev-Kits eine HD 7700 GPU werkelt dann kann man ziemlich sicher sein, dass die finale GPU leistungstechnisch nicht höher anzusiedeln ist.
Sie wird aber vermutlich über Dinge verfügen, welche der PC GPU fehlen.
Da wäre auf jedenfall das eDRAM zu nennen, welches sich wohl aller Wahrscheinlichkeit nach auch in der X3 GPU wiederfinden wird.
Dann wird die GPU sicherlich um einige Dinge entschlackt, die man in der Konsole nicht braucht und um ein paar andere Dinge erweitert.
Aber im Groben dürfte man sich Floptechnisch wohl auf 7700 Niveau bewegen, wenn denn diese GPU in den Dev-Kits steckt.
Wären dann ca. 1.3 Terraflop.

Der Takt spielt übrigens bei dieser Berechnung auch keine Rolle.
Die Daten des Dev-Kits sollen ja möglichst nah an jene der finalen Hardware heranreichen.
Und Flops bei einer GPU setzen sich aus Shadereinheiten mal Takt zusammen.
Die finale GPU kann also z.B. über etwas weniger Shader als die 7700 verfügen und dafür etwas schneller getaktet werden, oder eben aus etwas mehr, mit niedrigerem Takt. Kommt aufs gleiche raus und berechnet sich einfach danach, was im speziellen Fall günstiger ist.

Denke trotzdem die leistung wird sich gegen über einer heutigen 7770 noch steigern dank besserer technik 2013 :)
Gebe nur wieder was die leute im GAF und B3D schreiben und da war es nun mal so das sich devkits immer noch gesteigert haben.
ne 7770 werden sie bestimmt nicht nehmen und ne 8770 werden sie bestimmt nicht runter drosseln wenn sie mehr leistung gegenüber dem vorgänger hat bei gleicher wärmeentwicklung und verbrauch.
Da glaube ich dem GAF mal ;)
 
Die neuen 7770 haben schon längst 1.420 Gflops dank besserer chipausbeute wodurch der takt erhöht werden konnte bei gleicher abwärme ;)
Also wird ne 2013 8770 wohl locker das 8fache haben einer 360.
und DaE sprach immer von der leistung zwischen 7770 und 7850.
Lass sich MS also für ne 8850 entscheiden 2013 und wir hätten ~10

Kommt eben darauf an, was in den Dev-Kits steckt.
Wenn da eine 7700 mit 1GHz Takt steckt (1280Gflops), dann wird das auch bis auf Nuancen auf die finale X3 zutreffen.
 
Ich vertraue immer noch der Aussage von Sony, wo sie meinten " je länger man wartet, desto mehr Power wird man einbauen " :D
Sonst würde es für mich eher ne Enttäuschung sein^^ Technik, die machbar wäre und auch eine große Differenz zu jener GK ist im Augenblick locker machbar. Wenn es so kommen sollte(also von der Leistung her) dann wäre es ein Armutszeugnis und eher die Richtung der WII. Sollen sie es so machen wie bei der Vita und gut ist^^ Vor allem wird ganze Zeit über GPGPU gelabbert und dann soll 640 ALU mit 128Bit der Binger sein? hehe
 
Zuletzt bearbeitet:
Denke trotzdem die leistung wird sich gegen über einer heutigen 7770 noch steigern dank besserer technik 2013 :)
Gebe nur wieder was die leute im GAF und B3D schreiben und da war es nun mal so das sich devkits immer noch gesteigert haben.
ne 7770 werden sie bestimmt nicht nehmen und ne 8770 werden sie bestimmt nicht runter drosseln wenn sie mehr leistung gegenüber dem vorgänger hat bei gleicher wärmeentwicklung und verbrauch.
Da glaube ich dem GAF mal ;)

Du gehst an die Sache immer noch falsch ran.
Es geht nicht darum wie stark sich die Technik bis zum Release der X3 noch ändert.
Die Daten der X3 dürften mit ziemlicher Sicherheit fest stehen. Da ist es völlig egal, was es nächstes Jahr an Leistungssteigerungen und Innovationen gibt.

In den Dev-Kits werden Komponenten verbaut, die leistungstechnisch mit dem zu vergleichen ist, was in der finalen X3 später steckt. Natürlich wird da keine HD 7700 drin stecken, das wäre ja quatsch. Es wird mit ziemlicher Sicherheit rein technisch betrachtet, das aktuellest drin stecken, was AMD zu dem Zeitpunkt zu bieten hat. Vielleicht sogar aktueller, als die zu diesem Zeitpunkt erhältlichen PC GPUs. So wie bei der 360 eben.

ABER:
Aktuelle Technik sagt nix über die Leistung aus.
Die halbe HD 7000 Serie basiert auf der aktuellsten AMD Technik. Leistungstechnisch liegen aber zwischen der schwächsten und der stärksten GPU dieser Serie Welten.

In der X3 steckt vermutlich eine GPU, die man mit der nächsten AMD Generation vergleichen wird können. Wenn es bis dahin Directx 12 gibt, dann wird sie deren Funktionenset auch beherrschen.
Rein Floptechnisch wird sie aber eben nicht höher liegen als jene in den Dev-Kits. Vielleicht ja sogar etwas darunter, da die neue Architektur eben noch einen Tick effizienter ist.

Die GPU wird also hochaktuell sein und vor allem ein super Preis/Leistungsverhältnis und möglichst geringen Stromverbrauch mit sich bringen. Denn das ist ja überhaupt der Grund, warum man aktuelle Technik verbaut. Sonst könnte man ja gleich die altbewährten PC GPUs nutzen.
 
Kommt eben darauf an, was in den Dev-Kits steckt.
Wenn da eine 7700 mit 1GHz Takt steckt (1280Gflops), dann wird das auch bis auf Nuancen auf die finale X3 zutreffen.

Ich kopiere mal einen Post von mir gestern:
Bei den beiden anderen hoffe ich noch, dass sie am Ende auf das HD8000 Modell setzen werden, nicht unbedingt von der Rohleistung, aber von der Flexibilität und Features, für eine langlebige Platform wichtige Punkte, wenn Devs viele Wege offen stehen, und ich gehe davon mal aus, dass die HD8000 noch einen draufsetzen wird. Gerade wenn MS und Sony auf einen SoC setzen und auf ausgereifte GPGPU Funktionalität zurückgreifen können, kann das interessant werden.

Heißt also, von der FLOP Leistung selbst können sich die Platformen ruhig auf 1200-1800 ( PS4 Gerüchte ) einpendeln, irgendwann gibt es eh Grenzen Der Verlustleistung. Aber ein ungemein flexibles Design, welches mit einer neuen GPU Generation, SoC, GPGPU Funktionen, schnellen und viel RAM erreicht werden kann, kann für Designer über die Jahre hinweg einiges bedeuten.
 
Ah ok, thx, wird sich dann also unterm Strich bei ~8x 360-Leistung einpendeln, wie vermutet, und demnach ca. 3x stärker als die WiiU?!
Würde sicherlich für optische Differenzen sorgen, aber vermutlich keinen Quantensprung darstellen. Nuja, warten wir mal ab :).


Je nachdem wie stark die WiiU am Ende wird, ja, so ungefähr 2-3 mal von der Grafikkarte (wenn meine WiiU Schätzung stimmt :v: ). Nur kommt es imo nicht nur auf die Rohpower an, denke schon, dass die neue Box sich von der WiiU abheben wird, weit mehr Ram, modernere Architektur, wahrscheinlich weit besserer Tesselator etc. Ports dürfte es nicht unmöglich machen^^.... Aber erstmal abwarten ob es überhaupt stimmt.
 
Also für 5 Scheine(500€) bekomme ich einen Rechner der mit diesen besagten DevKit den Boden aufwischt und das bei Preisen von Einzelhändlern^^ Hoffe wirklich, dass diese läpsche Leistung einfach nicht stimmt :D

Hier mal eine Auflistung, welche den MiniPC(4 Kern CPU, 8GB Ram, 6870 GK +NT + ITX-Gehäuse + HDD + LW) darstellt

1 x Seagate Momentus Spinpoint M8 160GB, SATA II (ST160LM003/HN-M160MBB)
1 x Intel Core i5-2320, 4x 3.00GHz, boxed (BX80623I52320)
1 x TeamGroup Elite DIMM Kit 8GB PC3-10667U CL9-9-9-24 (DDR3-1333) (TED38192M1333HC9DC)
1 x PowerColor Radeon HD 6870, 1GB GDDR5, 2x DVI, HDMI, 2x mini DisplayPort (AX6870 1GBD5-M2DH/A97F-TI5)
1 x ASUS P8H61-I LX Rev 3.0, H61 (B3) (Sockel-1155, dual PC3-10667U DDR3) (90-MIBHK0-G0EAY0KZ)
1 x Samsung SN-208BB, Slim, SATA
1 x SilverStone Sugo SG05 USB 2.0 schwarz, 300W SFX12V, Mini-DTX/Mini-ITX (SST-SG05B)








PS: Sry für die Aufzählung aber so fühle ich mich etwas entspannter :coolface: hehe -> soll jetzt ein Witz sein :D da ich immer entspannt durch die Welt laufe :coolface:
 
Zuletzt bearbeitet:
Die Konsolen werden aber keine Tower PCs, und werden auch keine GPU haben, welche allein schon 150W saugt :-P
 
Die Konsolen werden aber keine Tower PCs, und werden auch keine GPU haben, welche allein schon 150W saugt :-P

Deswegen hab ich den PC als Mini-ITX erstellt. Schau dir den Durchmesser des Gehäuses mal an :D Es ist ein Mini-ITX-PC, sollte sowas wie eine Konsole darstellen(also von der Größe und den Komponenten her, die halt in das kleine Gehäuse passen müssen)^^ Und wenn die PS3 bzw. der Cell über 130Watt saugte, so sind jene von 150 Watt auch nicht weit entfernt oder ? :D

sugosmalltopicwb4e.jpg
 
Zuletzt bearbeitet:
Also für 5 Scheine(500€) bekomme ich einen Rechner der mit diesen besagten DevKit den Boden aufwischt und das bei Preisen von Einzelhändlern^^ Hoffe wirklich, dass diese läpsche Leistung einfach nicht stimmt :D

Hier mal eine Auflistung, welche den MiniPC(4 Kern CPU, 8GB Ram, 6870 GK +NT + ITX-Gehäuse + HDD + LW) darstellt

1 x Seagate Momentus Spinpoint M8 160GB, SATA II (ST160LM003/HN-M160MBB)
1 x Intel Core i5-2320, 4x 3.00GHz, boxed (BX80623I52320)
1 x TeamGroup Elite DIMM Kit 8GB PC3-10667U CL9-9-9-24 (DDR3-1333) (TED38192M1333HC9DC)
1 x PowerColor Radeon HD 6870, 1GB GDDR5, 2x DVI, HDMI, 2x mini DisplayPort (AX6870 1GBD5-M2DH/A97F-TI5)
1 x ASUS P8H61-I LX Rev 3.0, H61 (B3) (Sockel-1155, dual PC3-10667U DDR3) (90-MIBHK0-G0EAY0KZ)
1 x Samsung SN-208BB, Slim, SATA
1 x SilverStone Sugo SG05 USB 2.0 schwarz, 300W SFX12V, Mini-DTX/Mini-ITX (SST-SG05B)








PS: Sry für die Aufzählung aber so fühle ich mich etwas entspannter :coolface: hehe -> soll jetzt ein Witz sein :D da ich immer entspannt durch die Welt laufe :coolface:

Nur wird die X3 keine 500 Euro kosten sondern 300 und das ist schon ein gewaltiger Unterschied.
Dazu wird wohl auch kinect 2.0 dabei sein.
Und so dolle ist die GPU deines Beispiels auch nicht.
Durch aktuellere Architektur, eDRAM und sonstiges wird eine X3, die auf der Basis des Dev-Kits fungiert, ohne Probleme mithalten können. Dazu kommt natürlich noch der Konsolenbonus, wo die Komponenten um einiges besser aufeinander abgestimmt sind als beim PC und auch die Programmierung effizienter ist.
 
Ja, die X3 wird mithalten können. Aber bis die X3 kommt, kriegste das da oben auch für 300€, wenn nicht sogar was besseres. Konsolen haben immer mehr Probleme mit den PCs mithalten zu können. Ist zwar schön wenn eine neue Konsole dann mal 1 Monat mit aktuellen PCs mithalten kann, danach siehts aber direkt wieder düster aus.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom