Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Auch 2 GHz wäre für ein Gerät das an der Steckdose hängt und von dem die Vorgänger ~180 Watt verbraten haben extrem niedrig. Denke schon das dies mit der Kombination von CPU+GPU und der Kühlung zusammenhängt. Oder gibt es andere plausible Gründe wiso das Teil nicht auf 2,5 oder 3 GHz für mehr Leistung läuft?
 
Auch 2 GHz wäre für ein Gerät das an der Steckdose hängt und von dem die Vorgänger ~180 Watt verbraten haben extrem niedrig. Denke schon das dies mit der Kombination von CPU+GPU und der Kühlung zusammenhängt. Oder gibt es andere plausible Gründe wiso das Teil nicht auf 2,5 oder 3 GHz für mehr Leistung läuft?

Der Jaguar wurde nicht für solche Taktraten konzipiert. Und die GPU frisst wohl das grösste Stück des thermischen Limits des SOC.
 
Ja und ein frame ist lange wenn man echtzeit will. Bei 60 fps wärens schon zwei frames die man an Verzögerung hat und das nur für den Transport der Pakete vom einem zum anderen Teil ohne Berechnung oder initiales Laden der Daten. Die GPU der PS4 berechnet in der Zeit welche die Pakete nur für den Transport brauchen 60 Milliarden(!) float operationen. Das ist eine ziemliche Menge das es sich da lohnt die sachen zu schicken und nicht direkt auszurechnen.

Besseres Kühlsystem wegen einem Kern? Nicht wenn physikalische gesetze noch gelten. Das Problem ist das ein Kühler nur eine bestimmte Menge an Hitze von einer Stelle weg bringen kann wegen der Wärmeleitfähigkeit des Materials. Zwei hitzestellen sind deshalb immer einfacher zu kühlen wie eine. Ausser man will die Box so klein machen das sich zwei kühler garnicht mehr ausgehen. :D
Warum ist sie wohl so niedrig getaktet? Selbst Cell war noch viel höher getaktet, zwar nicht direkt vergleichbar aber trotzdem. Selbst die Jaguar welche Amd in notebooks verbauen will sind höher getaktet. (Das ist für unterwegs mit begrenztem Akku(!))
Woher willst du wissen, wie lange es dauert ein Paket von der GPU über den FCL an die CPU oder andersherum zu schicken?
Der FCL ist deutlich kürzer und latenzärmer als pcie und schafft 10 GB/s je Richtung.

Ja besseres Kühlsystem, eine Hitzequelle ist simpler, du könntest den Airflow z.B. besser machen, ein SoC verbraucht absolut gesehen weniger Strom, als zwei getrennte Einheiten, außer die Wärme-Interferenzen verstärken so extrem den Leakage, dass es den Vorteil aufsaugt, allerdings ist Llano und Trinity effizient und es scheint keine Probleme zu geben.
Ebenso wie gesagt, eine größere Kontaktfläche führt auch zu einer leichteren Wärmeabfuhr, solange die Temperaturen ein ähnliches Niveau behalten.
Der SoC ist auch "nur" ~ 300mm² groß, da ist ein GK104 genau so groß und ein Tahiti noch größer, die haben auch keine Probleme mit einem Kühler die ganze Wärme abzuführen.
Die geringeren Taktfrequenzen führen auch zu einer höhere Effizienz, sieht man auch beim Titan sehr gut, breite Chips mit niedriger Taktrate sind deutlich effizienter, als andersherum.
Der Cell hat eine ganz andere Architektur als Jaguar, dass ist in dem Sinne kaum zu vergleichen.
Und bisher hat AMD nur Kabini für die G-Serie vorgestellt, maximaler Takt liegt bei 2 Ghz.


Auch 2 GHz wäre für ein Gerät das an der Steckdose hängt und von dem die Vorgänger ~180 Watt verbraten haben extrem niedrig. Denke schon das dies mit der Kombination von CPU+GPU und der Kühlung zusammenhängt. Oder gibt es andere plausible Gründe wiso das Teil nicht auf 2,5 oder 3 GHz für mehr Leistung läuft?
Architektonische Grenzen.
Jaguar hat eine kurze Pipelinestufe und ist nicht auf solche Frequenzen ausgelegt.
Je länger die Pipeline, desto leichter das Design hoch zu takten, dazu kommen natürlich auch viele weiter Faktoren.
Viel mehr als 2 Ghz erwarte ich bei Jaguar auch nicht.
 
Und die GPU frisst wohl das grösste Stück des thermischen Limits des SOC.
Denke die CPU wird schon auch ihren Teil beitragen dank der 8 Kerne. Bei der Notebookversion sind es nur 4 wodurch sich bei der PS4 nochmal mehr auf einem Platz tummelt. Wäre mal interessant zu wissen welche Verlustleistung die PS4 haben wird unter Vollast. Die säcke sollen mal mehr Daten rausrücken. :D

Woher willst du wissen, wie lange es dauert ein Paket von der GPU über den FCL an die CPU oder andersherum zu schicken?
Der FCL ist deutlich kürzer und latenzärmer als pcie und schafft 10 GB/s je Richtung.

Ja besseres Kühlsystem, eine Hitzequelle ist simpler, du könntest den Airflow z.B. besser machen, ein SoC verbraucht absolut gesehen weniger Strom, als zwei getrennte Einheiten, außer die Wärme-Interferenzen verstärken so extrem den Leakage, dass es den Vorteil aufsaugt, allerdings ist Llano und Trinity effizient und es scheint keine Probleme zu geben.
Ebenso wie gesagt, eine größere Kontaktfläche führt auch zu einer leichteren Wärmeabfuhr, solange die Temperaturen ein ähnliches Niveau behalten.
Der SoC ist auch "nur" ~ 300mm² groß, da ist ein GK104 genau so groß und ein Tahiti noch größer, die haben auch keine Probleme mit einem Kühler die ganze Wärme abzuführen.
Die geringeren Taktfrequenzen führen auch zu einer höhere Effizienz, sieht man auch beim Titan sehr gut, breite Chips mit niedriger Taktrate sind deutlich effizienter, als andersherum.
Der Cell hat eine ganz andere Architektur als Jaguar, dass ist in dem Sinne kaum zu vergleichen.
Und bisher hat AMD nur Kabini für die G-Serie vorgestellt, maximaler Takt liegt bei 2 Ghz.



Architektonische Grenzen.
Jaguar hat eine kurze Pipelinestufe und ist nicht auf solche Frequenzen ausgelegt.
Je länger die Pipeline, desto leichter das Design hoch zu takten, dazu kommen natürlich auch viele weiter Faktoren.
Viel mehr als 2 Ghz erwarte ich bei Jaguar auch nicht.
Du hast gesagt 1 frame dauert es und irgendwo haben sie das einmal erwähnt. Das ist doch genug Information um zu wissen wie lange es dauert. :-?

Die Kontaktfälche mag größer sein aber es ist trotzdem noch klein im Verhältnis zu einem richtigen Kühlsystem. Daher ist es noch immer viel Hitze an einer Stelle wo das Material an seine Wäremleitgrenzen geraten kann. Da nützt auch der bessere Luftstrom nichts. Niedriger Takt ist effizienter aber höherer bringt mehr Leistung.
 
Zuletzt bearbeitet:
Ich habe gesagt, das schafft man innerhalb eines Frames, nicht das es ein Frame dauert.
Und ich sehe dein Problem mit der Hitzequelle immer noch nicht.
Ich sehe das es leicht machbar bei einem GK104 ist und die Taktfrequenzen der PS4 sind niedrig, da erwarte ich überhaupt keine Probleme.
Paar Heatpipes drauf und ein simpler und relativ durchgängiger Luftzug und fertig.

Und klar bringt Takt mehr Leistung, aber nach der Leistungskrone und besonders nach der theoretischen im Vergleich zu einem PC hat Sony mit einem 500€ Paket natürlich nicht gegriffen und ist finanziell auch keine gute Idee.
 
Ich sehe das es leicht machbar bei einem GK104 ist und die Taktfrequenzen der PS4 sind niedrig, da erwarte ich überhaupt keine Probleme.
Paar Heatpipes drauf und ein simpler und relativ durchgängiger Luftzug und fertig.

Und klar bringt Takt mehr Leistung, aber nach der Leistungskrone und besonders nach der theoretischen im Vergleich zu einem PC hat Sony mit einem 500€ Paket natürlich nicht gegriffen und ist finanziell auch keine gute Idee.
Ich sage nicht das es ein problem für die PS4 ist aber das mit getrennten chipsätzen diese jeweils größer sein könnten und ein höherer Takt möglich gewesen wäre.
Der gemeinsame Speicher wäre mit 2 chips sicher auch realisierbar gewesen.
 
Ich sage nicht das es ein problem für die PS4 ist aber das mit getrennten chipsätzen diese jeweils größer sein könnten und ein höherer Takt möglich gewesen wäre.
Der gemeinsame Speicher wäre mit 2 chips sicher auch realisierbar gewesen.
Shamanu du weist das es total dumm wäre so etwas zu bauen, dann hättest du einen dummen PC der ineffizient arbeitet.
Absolute Rohpower kannst du vielleicht in einen HPC stecken, aber nicht in ein Handy, Notebook oder eine Konsole. Selbst der PC wird den Wandel der Effizienz früher oder später mit machen. Das macht er ja bereits jetzt von unten.
 
Ich sage nicht das es ein problem für die PS4 ist aber das mit getrennten chipsätzen diese jeweils größer sein könnten und ein höherer Takt möglich gewesen wäre.
Der gemeinsame Speicher wäre mit 2 chips sicher auch realisierbar gewesen.


Nicht so wie Cerny es wollte. Mann hätte auch Edram einbauen können hat sich aber dagegen entschieden. Zur Wahl stand auch wenig RAM dafür aber mit 1 TB an Datenrate (1000 GB).

Das war aber nicht das Ziel welches man sich gesteckt hat.
 
Ich denke, die PlayStation 4 ist ein sehr durchdachtes und sehr leistungsfähiges System. Sicher die am besten designte PlayStation-Hardware die es bisher gab (wobei die Vita was die Hardware angeht ja schon die Richtung angedeutet hat). Mal schauen was Microsoft jetzt im Mai vorstellt und wohin es da geht und inwieweit die Gerüchte stimmen. Aktuell läuft das dann aber wieder auf ein ziemlich ähnliches Szenario wie diese Generation raus, zweimal starke Hardware, einmal schwache Low-End Hardware.
 
Shamanu du weist das es total dumm wäre so etwas zu bauen, dann hättest du einen dummen PC der ineffizient arbeitet.
Absolute Rohpower kannst du vielleicht in einen HPC stecken, aber nicht in ein Handy, Notebook oder eine Konsole. Selbst der PC wird den Wandel der Effizienz früher oder später mit machen. Das macht er ja bereits jetzt von unten.
Du denkst das dies Standard wird in allen Geräten? In mobilen und sparsamen macht es sicherlich Sinn aber wenn es um Leistung geht ist es schlechter. Nvidia macht oberflächlich dasselbe indem sie eine CPU zur GPU bauen aber der Grund ist das die GPU unabhängiger von der system CPU werden soll. Sie wollen also nicht näher zur CPU wie AMD sondern weitern weg. :D
Kann mir das sich soetwas generell durchsetzt nur vorstellen wenn sie irgendwann die Verlustleistung in den Griff bekommen. Oder wenn sie anfangen die Chips tatsächlich in 3d aufzubauen und GPU mit CPU viel enger verheiratet werden (caches usw.).

Für die PS4 ist es so auf jedenfall ein gutes design. Hätte halt gerne noch ein bischen mehr Leistung gehabt. Meine letzte Hoffnung ist aktuell das alle Gerüchte um die Xbox falsch sind und sie nur später kommt weil Microsoft auf den Steamroller wartet. :ugly:
 
Es geht darum, dass dieses Konzept viel viel effizienter ist.
Effizienz ist gleichebedeutend mit weniger Investition sowohl von Kapital als auch von Energie für ein vergleichbares Ergebniss.
Wofür du am PC eine GTX 680 brauchst schaffst du in einer PS4 mit einer GTX 650Ti.
Wobei Liverpool eher einer GTX 660Ti entspricht. Aber du verstehst worauf ich hinaus will.
Man sollte immer den eleganteren Weg gehen. Sony hätte problemlos einen 200 Watt+ Kasten bauen und einfach einen grösseren und schnelleren Lüfter verbauen können. Grösse wäre mir egal aber Lautstärke sicherlich nicht. Die PS3 Fat war viel zu laut, obwohl sie ein sehr aufwendiges Kühlungssystem hatte. Von der Turbine 360 brauchen wir gar nicht erst anfangen.
 
Zuletzt bearbeitet:
Es geht darum, dass dieses Konzept viel viel effizienter ist.
An ein paar Stellen, ja. Du tust hier aber immer so, als würden die Komponenten im PC permanent nur Däumchen drehen. Ich bezweifle sehr stark, das Shader-Code auf der PS4 effizienter als auf einer NVidia oder AMD-GPU läuft. Wie soll das denn gehen?
 
Das ist genauso wie wenn man mit 60 km/h (PS4) fährt und eine Abkürzung nimmt, die die Strecke um 75% verkürzt. Während der PC mit 150 km/h (Geforce Titan) fährt aber die volle Strecke fahren muss. Wer ist wohl schneller am Ziel, verbraucht dabei weniger Sprit und verursacht weniger Verschleiss?

Nvidia und AMD grösstes Problem ist DX. Sie können soviel optimieren wie sie wollen, aber an DX kommen sich nicht vorbei. Das ist eine Grenze, die schon seit Jahren bekannt und auch erreicht ist. Sie können nur noch durch absurde Chipflächengrösse (Bei 28nm!) und Taktraten noch spürbare Leistungssprünge erreichen. Wenn man sieht, dass Einzelkarten wieder vierstellige Summen erreichen, spricht das wohl Bände.
 
Zuletzt bearbeitet:

Von der grössten Leistungsbremse des PCs. DirectX. Oder warum glaubst du, wie es zu einer 5800Ultra oder einer GTX 480 kam?
Gegen DX hilft nur mehr und mehr und nochmals mehr Rohpower, die vollkommen verschwendet wird.

Das selbe Ergebniss mit 25% der Leistung und Verbrauch zu erreichen ist natürlich unwichtig. Frickler...:rolleyes:
 
Zuletzt bearbeitet:
Von der grössten Leistungsbremse des PCs. DirectX. Oder warum glaubst du, wie es zu einer 5800Ultra oder einer GTX 480 kam?
Gegen DX hilft nur mehr und mehr und nochmals mehr Rohpower, die vollkommen verschwendet wird.

Das selbe Ergebniss mit 25% der Leistung und Verbrauch zu erreichen ist natürlich unwichtig. Frickler...:rolleyes:
Kannst du das auch technisch erklären? :o
 
Von der grössten Leistungsbremse des PCs. DirectX. Oder warum glaubst du, wie es zu einer 5800Ultra oder einer GTX 480 kam?
Gegen DX hilft nur mehr und mehr und nochmals mehr Rohpower, die vollkommen verschwendet wird.
Zum Glück kann man bei der PS4 unendlich lange OS-Layer entfernen und muss dadurch nie wieder neue Hardware kaufen. :o
 
Kannst du das auch technisch erklären? :o
Was gibt es da technisch zu erklären? Jeder Hans Otto weiss das. Aber das du diese Frage stellst sollte mich nun nicht wirklich wundern...

Um es mal extra für dich zu vereinfachen. Die PS4 kann in einen 10 Liter Eimer eine 9,9 Liter Kelle eintunken und fast den gesmaten Inhalt auf einmal ausschütten. Ein DX Eimer mit 10 Liter hat eine zu kleine Öffnung und deswegen passt nur eine 500 ml Kelle rein. Wer kann den Eimer nun schneller ausleeren, Cortana?

Hier die Antwort, falls es für dich immer noch zu kompliziert ist.
Die PS4
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom