Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
aussage bezieht sich wohl hier drauf:
[video=youtube;gtfCWYjOsvI]http://www.youtube.com/watch?v=gtfCWYjOsvI[/video]

Hier sieht man besser wie sich die unoptimierte PS4 Version einen zurecht ruckelt:

[video=youtube;n3m1IGEQdgo]http://www.youtube.com/watch?v=n3m1IGEQdgo[/video]
 
Die hmc Spezifikationen sind fertig seit letztem monat. Die ersten chips sollen in der zweiten jahreshälfte kommen. Wo ist da jetzt das problem? Cell war am anfang auch in keinem Consumer produkt. War das je ein Problem bei Konsolen?
Wenn es so einfach wäre würde man sie augenblicklich in Notebooks finden. 8x effizienter pro übertragenem Bit zu sein ist einfach zu gut um Däumchen zu drehen und zuzusehen. Wer auch immer das zuerst implementiert und verkauft hat einen enormen Vorteil. Es hat mit Sicherheit Gründe warum es zuerst in Servern kommt und bisher nur für eine 2016 GPU angekündigt ist. Nicht nur HMCs, sondern jede Art von Wide-I/O Speicherlösung. Theoretisch ist es natürlich billiger als GDDR5 aber theoretisch ist auch OLED billiger als LCD. Bei geringen Kapazitäten und einer neuen Technologie kann es durchaus sein, dass es einfach noch zu teuer ist für Consumer.

Die PS3 hatte so einige komplett neue Technologien. Cell, XDR, Blu-Ray. Der Punkt ist hier aber, dass Cell/XDR für Consumer ohnehin niemals interessant war und BR gab's in etwa zeitgleich. Den Wahnsinn von Kutaragi zu wiederholen halte ich nicht unbedingt für erstrebenswert.
 
Wenn es so einfach wäre würde man sie augenblicklich in Notebooks finden. 8x effizienter pro übertragenem Bit zu sein ist einfach zu gut um Däumchen zu drehen und zuzusehen. Wer auch immer das zuerst implementiert und verkauft hat einen enormen Vorteil. Es hat mit Sicherheit Gründe warum es zuerst in Servern kommt und bisher nur für eine 2016 GPU angekündigt ist. Nicht nur HMCs, sondern jede Art von Wide-I/O Speicherlösung. Theoretisch ist es natürlich billiger als GDDR5 aber theoretisch ist auch OLED billiger als LCD. Bei geringen Kapazitäten und einer neuen Technologie kann es durchaus sein, dass es einfach noch zu teuer ist für Consumer.

Die PS3 hatte so einige komplett neue Technologien. Cell, XDR, Blu-Ray. Der Punkt ist hier aber, dass Cell/XDR für Consumer ohnehin niemals interessant war und BR gab's in etwa zeitgleich. Den Wahnsinn von Kutaragi zu wiederholen halte ich nicht unbedingt für erstrebenswert.
Bezüglich Notebooks ist es halt auch eine Kosten, Platz und Nutzenfrage. Irgendwo haben sie einmal gesagt das die erste Generation von HMC noch ziemlich groß sein soll. Weiters nützt HMC für eine normale CPU aktuell nicht wirklich viel da die mit der Bandbreite eh nichts anfangen können. Die erste gen wird auch sicher teurer sein wie DDR3, also wiso teuren, platzverbrauchenden Speicher ins Notebook stecken der nicht viel nützt ausser das er ein bischen Sparsamer ist?

Cell war niemals interessant für Consumer? Da wurde am anfang aber anderes behauptet. Toshiba hat das teil in notebooks verbaut, es sollte für blueray player, receiver und fernseher verwendet werden. Sie wollten das teil ziemlich überall haben wo es um multimedia ging. Das waren zumindest die Pläne bevor es die PS3 gab.
 
Toshiba. Das waren doch die die auf HD-DVD gesetzt haben. :coolface: Die wollten den Cell?
 
Bezüglich Notebooks ist es halt auch eine Kosten, Platz und Nutzenfrage. Irgendwo haben sie einmal gesagt das die erste Generation von HMC noch ziemlich groß sein soll. Weiters nützt HMC für eine normale CPU aktuell nicht wirklich viel da die mit der Bandbreite eh nichts anfangen können. Die erste gen wird auch sicher teurer sein wie DDR3, also wiso teuren, platzverbrauchenden Speicher ins Notebook stecken der nicht viel nützt ausser das er ein bischen Sparsamer ist?
Notebooks haben aber auch dedizierte GPUs, welche i.d.R. ziemlich Bandbreiten-limitiert sind. Wer sagt denn, dass er nichts nützt? Wenn er dort nichts nützt, nützt er in einer PS4 auch nichts. Es wird doch nicht so schwer zu glauben sein, dass Sony diese Option betrachtet und aus nachvollziehbaren Gründen abgelehnt hat. Mir wären höhere Bandbreiten auch lieber aber ich weiß nicht ob ich die Nebeneffekte daraus auch bezahlen will. Sony denkt offenbar, dass die meisten Kunden das nicht wollen. Es ist schwer solche Dinge von außen zu beurteilen.

shamanu schrieb:
Cell war niemals interessant für Consumer? Da wurde am anfang aber anderes behauptet. Toshiba hat das teil in notebooks verbaut, es sollte für blueray player, receiver und fernseher verwendet werden. Sie wollten das teil ziemlich überall haben wo es um multimedia ging. Das waren zumindest die Pläne bevor es die PS3 gab.
Das haben sie immer behauptet aber es spricht wohl für sich was in der Realität daraus geworden ist. Abgesehen von dem 5000€ Toshiba-TV hat kaum ein nennenswertes Consumer-Produkt außer der PS3 jemals Cell benutzt und selbst dort war er suboptimal wie sich herausgestellt hat. Mit ein wenig Sachverstand war es auch nicht schwer das vorherzusehen. Der Trend im Computing geht und ging ganz klar gegen Spezialisten.
 
Zuletzt bearbeitet:
Notebooks haben aber auch dedizierte GPUs, welche i.d.R. ziemlich Bandbreiten-limitiert sind. Wer sagt denn, dass er nichts nützt? Wenn er dort nichts nützt, nützt er in einer PS4 auch nichts. Es wird doch nicht so schwer zu glauben sein, dass Sony diese Option betrachtet und aus nachvollziehbaren Gründen abgelehnt hat. Mir wären höhere Bandbreiten auch lieber aber ich weiß nicht ob ich die Nebeneffekte daraus auch bezahlen will. Sony denkt offenbar, dass die meisten Kunden das nicht wollen. Es ist schwer solche Dinge von außen zu beurteilen.
Bezweifle das Notebook gpus bezüglich der Bandbreite Probleme haben. Die gpu ist da meist schwächer und somit lohnt sich eine hohe Bandbreite eh nicht so sehr. Ausserdem wieviele Notebooks richten sich primär an Spieler? Für eine Randgruppe eine komplett neue Technologie einführen? Wird wohl kommen aber erst wenn es preislich und vom Platzverbrauch konkurieren kann.

Die CPU braucht nicht soviel daten weil sie seriell arbeitet. Die 8 kerne sind nicht so datenhungrig wie die 2000+ einer gpu. Die gpu ist darauf ausgelegt primär daten orientiert zu arbeiten während die cpu komplexere sachen macht welche auch länger dauern können ohne viele Daten zu benötigen. Von dem her nutzt HMC für die CPU aktuell nicht soviel.
Naja, vielleicht ist es echt noch zu teuer. Ansonsten kann ich mir nicht viel vorstellen als Grund (ausser amd war unfähig :ugly:) da die Technik ziemlich ideal für apu's klingt.
 
Zuletzt bearbeitet:
Bezweifle das Notebook gpus bezüglich der Bandbreite Probleme haben. Die gpu ist da meist schwächer und somit lohnt sich eine hohe Bandbreite eh nicht so sehr. Ausserdem wieviele Notebooks richten sich primär an Spieler? Für eine Randgruppe eine komplett neue Technologie einführen? Wird wohl kommen aber erst wenn es preislich und vom Platzverbrauch konkurieren kann.

Die CPU braucht nicht soviel daten weil sie seriell arbeitet. Die 8 kerne sind nicht so datenhungrig wie die 2000+ einer gpu. Die gpu ist darauf ausgelegt primär daten orientiert zu arbeiten während die cpu komplexere sachen macht welche auch länger dauern können ohne viele Daten zu benötigen. Von dem her nutzt HMC für die CPU aktuell nicht soviel.
Naja, vielleicht ist es echt noch zu teuer. Ansonsten kann ich mir nicht viel vorstellen als Grund (ausser amd war unfähig :ugly:) da die Technik ziemlich ideal für apu's klingt.
Notebook-GPUs haben immer weniger Bandbreite/FLOP als Desktop-GPUs und selbst dort ist man oft Bandbreiten-limitiert. Du unterschätzt den Stromverbrauch dafür glaube ich ziemlich gewaltig. Mehr FLOPs/Watt kannst du erreichen indem du in die Breite gehst, bei Speicher ist das leider keine Option weil man das ohnehin schon maximal am Desktop ausreizt. Bandbreite war schon immer das größte Problem mobiler GPUs. Das mag ein Nischenmarkt sein aber das sind Konsolen eigentlich auch wenn man die Stückzahlen mit PC-Verkäufen vergleicht. Was sind schon 3 Mio Stück pro Quartal? Fusion-APUs oder Intel-Chips mit integrierter Grafik sind definitiv keiner und die haben es heute schon dringend nötig.
 
Bezüglich Stromverbrauch: Was braucht den so ein DDR3 für Notebooks? Die sind doch normal schon niedervolt. 2 Watt oder was? Da wird man nicht viel Unterschied bei richtigen power notebooks zum Spielen bemerken. Wär von dem her eher für subnotebooks und so interessant aber die sind noch langsamer bezüglich gpu.

Apu's und intels chip würden sicher davon profitieren. Aber intels grafikkarte kommt erst in den bereich wo es interessanter wird zu spielen und apu's müssen auch erst mal schnellere erhältlich sein.
 
Ist zwar pastebin, aber kann man an nem langweiligen Sonntag ja mal posten. :P

Final Specifications(as of March 2013):

CPU: 8-Core Custom AMD Architecture (enhanced Jaguar), 1,6GHz
GPU: GCN, 20 Shader Cores providing a total of 1280 threads, 0,8 GHz, at peak performance, the GPU can effectively issue 2 trillion floating-point operations per second
Memory: 12GB DDR3-2133, 384-Bit, Bandwidth: 102,4 GB/s
64 MB eSRAM, 2048-Bit ("on die"), Bandwidth: 204GB/s
Accelerator: 4 Data move engines, Image, video, and audio codecs, Kinect multichannel echo cancellation (MEC) ardware,Cryptography engines, SHAPE-Block
TDP: Max. 185 W

The Architecture Design is the same as the one from the Alpha Specifications (February 2012).
The Main Enhancements are the Memory Controller ( Custom "IP" 384-Bit) and the GPU-Part of the die ( 12 SCs to 20 SCs; 32 MB eSRAM to 64 MB eSRAM, double Bandwidth)
This results in both an increase in power consumption ( from 125 W to 185 W) and an increase of the size of the APU (300 mm2 to 450 mm2)
Yield Rates of the chip have been moderate at best (Improvements since September 2012)

http://pastebin.com/sckq0WNF
 
Gab aber schonmal ein Gerücht über ein ~ 500mm² Die, was sich gleichzeitig mit dem Gerücht decken wurde dass man Produktionsprobleme hat ^^
So, jetzt kann man das Gerücht nochmal anheizen :D
 
Also die Auflistung hört sich sehr gut an und die Anpassung stimmt auch. Somit wären die PS4 und X720 auf identischem Niveau. Vorallem würde mich es erfreuen, wenn es stimmen würde, denn es würde keinen kleinsten bremsenden Nenner bei Programmierung geben. Denn die Beiden Systeme würden sich nichts nehmen. Bei den alten Gerüchten wäre einfach die GPU der X720 zu lepsch :v:
 
Gab aber schonmal ein Gerücht über ein ~ 500mm² Die, was sich gleichzeitig mit dem Gerücht decken wurde dass man Produktionsprobleme hat ^^
So, jetzt kann man das Gerücht nochmal anheizen :D

Die Änderungen klingen wohl auch machbar in > 1 Jahr. Was imo nur etwas merkwürdig kommt, sind die 12gb RAM.
Das schreit so danach, dass man unbedingt die 8GB von Sony schlagen müsste, damit die Leute auch irgendwie auf das Gerücht aufmerksam werden. :P
 
bis dienstag noch die gerüchte was ?? :D

bin schon sehr gespannt, erstmal obs bei 1,2 tf bleibt, und dem ram :D
und zweitens was sie zeigen werden... denke wenn die ein fotorealistisches forza und bf oder cod zeigen, sind die tf wieder egal was?
 
bis dienstag noch die gerüchte was ?? :D

bin schon sehr gespannt, erstmal obs bei 1,2 tf bleibt, und dem ram :D
und zweitens was sie zeigen werden... denke wenn die ein fotorealistisches forza und bf oder cod zeigen, sind die tf wieder egal was?
Photorealismus bei 1,2tf? hm, ja würde gehen aber wahrscheinlich in 400 x 400 Auflösung :v:
 
Die Änderungen klingen wohl auch machbar in > 1 Jahr. Was imo nur etwas merkwürdig kommt, sind die 12gb RAM.
Das schreit so danach, dass man unbedingt die 8GB von Sony schlagen müsste, damit die Leute auch irgendwie auf das Gerücht aufmerksam werden. :P

Eine Upgrade der Hardware halte ich schon deswegen für wahrscheinlich, da Durango mit den alten Spezifikationen der PS4 schlicht unterlegen war, schwächer GPU und komplizierteres Memorymanagement, das hätte sich durchaus sichtbar bemerkbar gemacht. Nach dem von pastebin wäre jertzt Durango in Führung, wurde aber sagen dass sie insgesamt nächer beieinander wären, außer die hohe Bandbreite des eSRAMs bewährt sich in der Praxis richtig gut, da hätte Durango einen klaren Vorteil.
 
Eine Upgrade der Hardware halte ich schon deswegen für wahrscheinlich, da Durango mit den alten Spezifikationen der PS4 schlicht unterlegen war, schwächer GPU und komplizierteres Memorymanagement, das hätte sich durchaus sichtbar bemerkbar gemacht. Nach dem von pastebin wäre jertzt Durango in Führung, wurde aber sagen dass sie insgesamt nächer beieinander wären, außer die hohe Bandbreite des eSRAMs bewährt sich in der Praxis richtig gut, da hätte Durango einen klaren Vorteil.

Wenn ms jetzt noch gute frische exklusiv-ips hätte und kein Always connect, dann könnte es wieder interessant werden :-)
 
Eine Upgrade der Hardware halte ich schon deswegen für wahrscheinlich, da Durango mit den alten Spezifikationen der PS4 schlicht unterlegen war, schwächer GPU und komplizierteres Memorymanagement, das hätte sich durchaus sichtbar bemerkbar gemacht. Nach dem von pastebin wäre jertzt Durango in Führung, wurde aber sagen dass sie insgesamt nächer beieinander wären, außer die hohe Bandbreite des eSRAMs bewährt sich in der Praxis richtig gut, da hätte Durango einen klaren Vorteil.

Jap, deshalb fand ich die VGLeaks-Gerüchte eigentlich auch eher unglaubwürdig bis zum PSMeeting. Für MS sind gute/bessere Multititel mit Sicherheit wichtig, besonders wenn sie wieder auf eine 360-like Strategie setzen.
 
Photorealismus bei 1,2tf? hm, ja würde gehen aber wahrscheinlich in 400 x 400 Auflösung :v:

bräuchten sie nur noch die vita für remote was :D

ne ernsthaft, denke mit 1,2 tf kann turn 10 schon was hinzaubern was zumindest nahe am fotorealismus aussehen wird, aber gut, abwarten :)

wenn nur polyphony nicht so langsam in der entwicklung von gt wäre..
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom