Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
Auch 2 GHz wäre für ein Gerät das an der Steckdose hängt und von dem die Vorgänger ~180 Watt verbraten haben extrem niedrig. Denke schon das dies mit der Kombination von CPU+GPU und der Kühlung zusammenhängt. Oder gibt es andere plausible Gründe wiso das Teil nicht auf 2,5 oder 3 GHz für mehr Leistung läuft?
Woher willst du wissen, wie lange es dauert ein Paket von der GPU über den FCL an die CPU oder andersherum zu schicken?Ja und ein frame ist lange wenn man echtzeit will. Bei 60 fps wärens schon zwei frames die man an Verzögerung hat und das nur für den Transport der Pakete vom einem zum anderen Teil ohne Berechnung oder initiales Laden der Daten. Die GPU der PS4 berechnet in der Zeit welche die Pakete nur für den Transport brauchen 60 Milliarden(!) float operationen. Das ist eine ziemliche Menge das es sich da lohnt die sachen zu schicken und nicht direkt auszurechnen.
Besseres Kühlsystem wegen einem Kern? Nicht wenn physikalische gesetze noch gelten. Das Problem ist das ein Kühler nur eine bestimmte Menge an Hitze von einer Stelle weg bringen kann wegen der Wärmeleitfähigkeit des Materials. Zwei hitzestellen sind deshalb immer einfacher zu kühlen wie eine. Ausser man will die Box so klein machen das sich zwei kühler garnicht mehr ausgehen.
Warum ist sie wohl so niedrig getaktet? Selbst Cell war noch viel höher getaktet, zwar nicht direkt vergleichbar aber trotzdem. Selbst die Jaguar welche Amd in notebooks verbauen will sind höher getaktet. (Das ist für unterwegs mit begrenztem Akku(!))
Architektonische Grenzen.Auch 2 GHz wäre für ein Gerät das an der Steckdose hängt und von dem die Vorgänger ~180 Watt verbraten haben extrem niedrig. Denke schon das dies mit der Kombination von CPU+GPU und der Kühlung zusammenhängt. Oder gibt es andere plausible Gründe wiso das Teil nicht auf 2,5 oder 3 GHz für mehr Leistung läuft?
Denke die CPU wird schon auch ihren Teil beitragen dank der 8 Kerne. Bei der Notebookversion sind es nur 4 wodurch sich bei der PS4 nochmal mehr auf einem Platz tummelt. Wäre mal interessant zu wissen welche Verlustleistung die PS4 haben wird unter Vollast. Die säcke sollen mal mehr Daten rausrücken.Und die GPU frisst wohl das grösste Stück des thermischen Limits des SOC.
Du hast gesagt 1 frame dauert es und irgendwo haben sie das einmal erwähnt. Das ist doch genug Information um zu wissen wie lange es dauert. :-?Woher willst du wissen, wie lange es dauert ein Paket von der GPU über den FCL an die CPU oder andersherum zu schicken?
Der FCL ist deutlich kürzer und latenzärmer als pcie und schafft 10 GB/s je Richtung.
Ja besseres Kühlsystem, eine Hitzequelle ist simpler, du könntest den Airflow z.B. besser machen, ein SoC verbraucht absolut gesehen weniger Strom, als zwei getrennte Einheiten, außer die Wärme-Interferenzen verstärken so extrem den Leakage, dass es den Vorteil aufsaugt, allerdings ist Llano und Trinity effizient und es scheint keine Probleme zu geben.
Ebenso wie gesagt, eine größere Kontaktfläche führt auch zu einer leichteren Wärmeabfuhr, solange die Temperaturen ein ähnliches Niveau behalten.
Der SoC ist auch "nur" ~ 300mm² groß, da ist ein GK104 genau so groß und ein Tahiti noch größer, die haben auch keine Probleme mit einem Kühler die ganze Wärme abzuführen.
Die geringeren Taktfrequenzen führen auch zu einer höhere Effizienz, sieht man auch beim Titan sehr gut, breite Chips mit niedriger Taktrate sind deutlich effizienter, als andersherum.
Der Cell hat eine ganz andere Architektur als Jaguar, dass ist in dem Sinne kaum zu vergleichen.
Und bisher hat AMD nur Kabini für die G-Serie vorgestellt, maximaler Takt liegt bei 2 Ghz.
Architektonische Grenzen.
Jaguar hat eine kurze Pipelinestufe und ist nicht auf solche Frequenzen ausgelegt.
Je länger die Pipeline, desto leichter das Design hoch zu takten, dazu kommen natürlich auch viele weiter Faktoren.
Viel mehr als 2 Ghz erwarte ich bei Jaguar auch nicht.
Ich sage nicht das es ein problem für die PS4 ist aber das mit getrennten chipsätzen diese jeweils größer sein könnten und ein höherer Takt möglich gewesen wäre.Ich sehe das es leicht machbar bei einem GK104 ist und die Taktfrequenzen der PS4 sind niedrig, da erwarte ich überhaupt keine Probleme.
Paar Heatpipes drauf und ein simpler und relativ durchgängiger Luftzug und fertig.
Und klar bringt Takt mehr Leistung, aber nach der Leistungskrone und besonders nach der theoretischen im Vergleich zu einem PC hat Sony mit einem 500€ Paket natürlich nicht gegriffen und ist finanziell auch keine gute Idee.
Shamanu du weist das es total dumm wäre so etwas zu bauen, dann hättest du einen dummen PC der ineffizient arbeitet.Ich sage nicht das es ein problem für die PS4 ist aber das mit getrennten chipsätzen diese jeweils größer sein könnten und ein höherer Takt möglich gewesen wäre.
Der gemeinsame Speicher wäre mit 2 chips sicher auch realisierbar gewesen.
Ich sage nicht das es ein problem für die PS4 ist aber das mit getrennten chipsätzen diese jeweils größer sein könnten und ein höherer Takt möglich gewesen wäre.
Der gemeinsame Speicher wäre mit 2 chips sicher auch realisierbar gewesen.
Du denkst das dies Standard wird in allen Geräten? In mobilen und sparsamen macht es sicherlich Sinn aber wenn es um Leistung geht ist es schlechter. Nvidia macht oberflächlich dasselbe indem sie eine CPU zur GPU bauen aber der Grund ist das die GPU unabhängiger von der system CPU werden soll. Sie wollen also nicht näher zur CPU wie AMD sondern weitern weg.Shamanu du weist das es total dumm wäre so etwas zu bauen, dann hättest du einen dummen PC der ineffizient arbeitet.
Absolute Rohpower kannst du vielleicht in einen HPC stecken, aber nicht in ein Handy, Notebook oder eine Konsole. Selbst der PC wird den Wandel der Effizienz früher oder später mit machen. Das macht er ja bereits jetzt von unten.
An ein paar Stellen, ja. Du tust hier aber immer so, als würden die Komponenten im PC permanent nur Däumchen drehen. Ich bezweifle sehr stark, das Shader-Code auf der PS4 effizienter als auf einer NVidia oder AMD-GPU läuft. Wie soll das denn gehen?Es geht darum, dass dieses Konzept viel viel effizienter ist.
Weiss er doch selber nichtwovon faselst du?
wovon faselst du?
Kannst du das auch technisch erklären? :oVon der grössten Leistungsbremse des PCs. DirectX. Oder warum glaubst du, wie es zu einer 5800Ultra oder einer GTX 480 kam?
Gegen DX hilft nur mehr und mehr und nochmals mehr Rohpower, die vollkommen verschwendet wird.
Das selbe Ergebniss mit 25% der Leistung und Verbrauch zu erreichen ist natürlich unwichtig. Frickler...![]()
Zum Glück kann man bei der PS4 unendlich lange OS-Layer entfernen und muss dadurch nie wieder neue Hardware kaufen. :oVon der grössten Leistungsbremse des PCs. DirectX. Oder warum glaubst du, wie es zu einer 5800Ultra oder einer GTX 480 kam?
Gegen DX hilft nur mehr und mehr und nochmals mehr Rohpower, die vollkommen verschwendet wird.
Was gibt es da technisch zu erklären? Jeder Hans Otto weiss das. Aber das du diese Frage stellst sollte mich nun nicht wirklich wundern...Kannst du das auch technisch erklären? :o