Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
X ist auf einer Stufe mit den besten RPGs würde ich nie leugnen, Referenz ist das aber nicht und das ist schon traurig für eine angebliche Next Gen Konsole.

Einglück denk ich nicht so :)
NextGen hin oder her.Die Wii U kann mit dem jetzigen Konsolen mithalten,aber nicht mit der "richtigen" NextGen.
Da ist die PS4 meilenweit voraus
 
Ich hoffe das Next Gen Final Fantasy sieht in etwa so aus:

FinalFantasyXIV_Hero.JPG
 
Du vergleichst gerade cache mit CPU/GPU?
Integration ist nur sinvoll solange es keine größeren Nachteile bringt.

Was interessieren mich ein paar picojoule bei der Übertragung wenn die Rechenleistung dann bei 50% liegt?

SOC funktioniert einfach nicht wenn es um Leistung geht. Intel versucht das seit jahren. Was rauskommt sieht man ja, um eine 50-60€ gpu zu ersetzen ist es nett aber das war es dann auch. Gegen etwas ausgewachsenes kommt es einfach nicht an. Wenn man die CPU & GPU verheiratet bekommt man entweder eine bessere cpu mit einer "meh" gpu (intel) oder eine bessere gpu mit einer "meh" cpu (amd). Für die PS4 kann man das machen um Geld und Verlustleistung zu sparen aber bei der Rechenleistung ist es definitiv nicht der heilige Gral.
Ich habe L2-Cache + FPU verglichen. Die war damals noch nicht in einer CPU integriert.
Ebenso nicht der Speichercontroller und viele weitere Dinge.
Na, warum trennt man die FPU nicht mehr, erreicht dann getrennt doch sicherlich doppelt so viele Floating-Points-Operations.
Wie gesagt, hättest einen ekligen Verbindungsbus, hohe Latenzen und die Board-Designs wären noch komplizierter.
Irgendwann kam der Zeitpunkt da hat L2, FPU, Memory-Controller usw. keinen Sinn mehr gemacht diesen getrennt zu behalten.
Über kurz oder lang führt eine bessere Performance pro Watt zu einer insgesamt besseren Leistung.
Und da interessieren "paar" picojoule durchaus, weil Data-Movement einen großen Teil des Strom-Konsums ausmacht.
Ein SoC hat welchen Nachteil denn genau?
Ich gebe dir 500.000 Dollar für die Entwicklung und 2 Millionen für die Fertigung, mal sehen ob du mit zwei Chips eine bessere Performance und Kostenrechnung hinbekommst, als mit einem SoC.

Es geht einfach um die Linie, ab wann ist das sinnvoller und passt besser zu den Bedürfnissen? Bei den Konsolen war es auf jeden Fall ein SoC.
Hätten beide 550mm² SoCs haben wollen, wären die Yields wohl schlecht und bei paar Dotierungsfehler wären viele Chips im Eimer. Mit zwei mal 300mm² wäre das wohl besser.
Aber wenn der ganze Chip nur 300mm² groß ist?
Da gehen pro Belichtung deutlich weniger Chips kaputt, der Ausschuss am Rand ist geringer, da nur ein Wafer für das ganze System benötigt wird, anstatt zwei wegen zwei dies.
Die Integration spart auch Logik ein, insgesamt wäre das zusammen kleiner, als getrennt.

Bei Intel kommt eine meh GPU doch nur heraus, weil sie einfach da jahrelang geschlafen haben, weil der Markt keine zwanghaften Impulse gesetzt hat und Intel Gewinnmaximierung betreiben konnte.
Ein Corei5 mit einem GCN von AMD @ 22nm Tri-Gate würdest du dir sicher auch sofort kaufen, wenn du die Vorteile einer gemeinsamen Plattform in den Benchmarks sehen würdest, soweit diese am PC überhaupt richtig durchschlagen können, da OS, Treiber und die API auch schon viel dabei beachten müssen, damit das optimal läuft.

Aber ich denke einfach End of Discussion, glaube du deine Weisheiten, ich mache das bei meinem.
Bevor Kaveri nicht auftaucht, kann man über die Vorteile leider nur theoretisch reden.
Ein Vorgeschmack liefert schon Llano und Trinity und tut es Kabini demnächst und praktische Test über den Data-Transfer-Overhead gibt es auch schon. Faktor 2 besser ist nicht schlecht, vor allem da dies mit weniger Stromverbrauch einhergeht.
 
Zuletzt bearbeitet:
zusammen mit dem gameplay des vorgangers auf der wii langt mir das vollkommen, um zu einer referenz zu werden ;-)

Current oder Nextgen? Die Currentgen war, was JRPGs betrifft, wirklich die schwächste Generation aller Zeiten.
Ich denke mit der Nextgen wird vorallem SE wieder zu alter Stärke finden.
 
Ich habe L2-Cache + FPU verglichen. Die war damals noch nicht in einer CPU integriert.
Ebenso nicht der Speichercontroller und viele weitere Dinge.
Na, warum trennt man die FPU nicht mehr, erreicht dann getrennt doch sicherlich doppelt so viele Floating-Points-Operations.
Wie gesagt, hättest einen ekligen Verbindungsbus, hohe Latenzen und die Board-Designs wären noch komplizierter.
Irgendwann kam der Zeitpunkt da hat L2, FPU, Memory-Controller usw. keinen Sinn mehr gemacht diesen getrennt zu behalten.
Über kurz oder lang führt eine bessere Performance pro Watt zu einer insgesamt besseren Leistung.
Und da interessieren "paar" picojoule durchaus, weil Data-Movement einen großen Teil des Strom-Konsums ausmacht.
Ein SoC hat welchen Nachteil denn genau?
Ich gebe dir 500.000 Dollar für die Entwicklung und 2 Millionen für die Fertigung, mal sehen ob du mit zwei Chips eine bessere Performance und Kostenrechnung hinbekommst, als mit einem SoC.

Es geht einfach um die Linie, ab wann ist das sinnvoller und passt besser zu den Bedürfnissen? Bei den Konsolen war es auf jeden Fall ein SoC.
Hätten beide 550mm² SoCs haben wollen, wären die Yields wohl schlecht und bei paar Dotierungsfehler wären viele Chips im Eimer. Mit zwei mal 300mm² wäre das wohl besser.
Aber wenn der ganze Chip nur 300mm² groß ist?
Da gehen pro Belichtung deutlich weniger Chips kaputt, der Ausschuss am Rand ist geringer, da nur ein Wafer für das ganze System benötigt wird, anstatt zwei wegen zwei dies.
Die Integration spart auch Logik ein, insgesamt wäre das zusammen kleiner, als getrennt.

Bei Intel kommt eine meh GPU doch nur heraus, weil sie einfach da jahrelang geschlafen haben, weil der Markt keine zwanghaften Impulse gesetzt hat und Intel Gewinnmaximierung betreiben konnte.
Ein Corei5 mit einem GCN von AMD @ 22nm Tri-Gate würdest du dir sicher auch sofort kaufen, wenn du die Vorteile einer gemeinsamen Plattform in den Benchmarks sehen würdest, soweit diese am PC überhaupt richtig durchschlagen können, da OS, Treiber und die API auch schon viel dabei beachten müssen, damit das optimal läuft.

Aber ich denke einfach End of Discussion, glaube du deine Weisheiten, ich mache das bei meinem.
Bevor Kaveri nicht auftaucht, kann man über die Vorteile leider nur theoretisch reden.
Ein Vorgeschmack liefert schon Llano und Trinity und tut es Kabini demnächst und praktische Test über den Data-Transfer-Overhead gibt es auch schon. Faktor 2 besser ist nicht schlecht, vor allem da dies mit weniger Stromverbrauch einhergeht.
Sage ich ja, du vergleichst L2-cache integration mit GPU integration. Das sind zwei paar schuhe. Kannst doch nicht ein zwei mb cache mit einem monster chip vergleichen der als Paket 300 watt aufwärts zieht. :D

Der Nachteil der SOC ist wie gesagt die Kühlung. Wir hätten schon lange 3d chips die eher würfelförmig wären und bei denen alles direkt miteinander verbunden ist wäre das problem der Kühlung nicht. SOC bringt aktuell keine lösung es sagt einfach wir schrauben die leistung so lange runter bis es kühlbar ist. Der Ansatz macht einfach keinen Sinn wenn es auf dem Stand der Technik sein soll bei der Rechenleistung.
 
Ja ignorier schön fleißig weiter die FPU, den Memory-Controller usw.
Das waren damals auch große Dinge neben der CPU die man später wegen den Vorteilen vereinigt hat, so wird es den GPUs auch ergehen.
Erst very-low-cost, low-cost, dann mid-range.
Wenn sich das durchsetzt könnten Intel und AMD auch SoCs machen die größer sind. Zugegeben, dass dauert noch einige Jahre.
Für absolute Leistung ist der Ansatz nicht geeignet, weil man an die Belichtungsgrenze kommt, aber das wird von dem Durchschnitts-PC gar nicht verlangt.
Das wäre dann ein ganz anderer Bereich wo wir über die Vor- und Nachteile diskutieren müssten.

Und deiner Kühlungsgeschichte glaube ich aus logischen Gründen einfach nicht. Ich nehme deine Argumentation einfach nicht an.
Ich habe meine schon dargelegt, die du scheinbar ebenso wenig akzeptierst, wie ich deine.
 
Ja ignorier schön fleißig weiter die FPU, den Memory-Controller usw.
Das waren damals auch große Dinge neben der CPU die man später wegen den Vorteilen vereinigt hat, so wird es den GPUs auch ergehen.
Erst very-low-cost, low-cost, dann mid-range.
Wenn sich das durchsetzt könnten Intel und AMD auch SoCs machen die größer sind. Zugegeben, dass dauert noch einige Jahre.
Für absolute Leistung ist der Ansatz nicht geeignet, weil man an die Belichtungsgrenze kommt, aber das wird von dem Durchschnitts-PC gar nicht verlangt.
Das wäre dann ein ganz anderer Bereich wo wir über die Vor- und Nachteile diskutieren müssten.

Und deiner Kühlungsgeschichte glaube ich aus logischen Gründen einfach nicht. Ich nehme deine Argumentation einfach nicht an.
Ich habe meine schon dargelegt, die du scheinbar ebenso wenig akzeptierst, wie ich deine.
Die ganze North und South Birdge integration macht sinn da es sich dabei um keine 300 Watt monster handelt. Klar will man alles auf einen Chip bringen soweit wie es möglich ist. Aber mit 300 Watt ist das aktuell einfach nicht praktikabel. Mag sein das es mit genug shrinking in 10 oder 20 jahren besser geht und sich dann durchsetzt. Aber dann wird die Integration auch sicherlich viel stärker sein und nicht einfach die GPU an die CPU rangeklebt und schnell einen Verbindungspfad gezogen oder so. ;)

Wer sagt dir denn das man in zukunft zb nicht auf lichtwellenleiter umsteigt und die Verbindungsstrecke unwichtiger wird?
Du gehst halt davon aus das die Interaktion zwischen CPU und GPU extreme performance vorteile bringt, ich gehe davon aus das es ähnlich bleibt wie es aktuell ist und man daten sobald sie im gpu cache oder cpu cache sind nicht groß herumschicken will. Egal ob das in einem frame geht oder drei braucht. Ich verstehe garnicht wiso du darauf kommst das dies nun so super wichtig werden soll nur weil es ein bischen schneller ist wie früher aber im vergleich zu cache zugriffen noch immer um welten langsamer.

lol, was glaubst du bei der Kühlung aus logischen Gründen nicht?
 
Zuletzt bearbeitet:
Zeig mir ein schöneres Open World Spiel!

just cause 2. das zur zeit beste open world game, was geile grafik und spassiges gameplay angeht. und für mich persönlich eines der besten games dieser gen. leider gibt es keinen multiplayer teil auf den konsolen, was so episch geil wäre. wer einfach mal mit einem passagier jet fliegt, in grosser höhe aussteigt und abspringt, in der luft frei schwebt, den tollen panorama blick der insel geniesst und gleichzeitig sich an ein vorbeifliegenden helikopter mit dem enterhaken einklinkt, weiss was spielspass bedeutet.
 
Die APUs können doch schon koharänte Speicherbereiche teilen, die Cache-Daten der CPU austauschen und später kommt der gemeinsame Adressraum und auch der Fusion Compute Link wird ausgebaut.
Das ist deutlich verzahnter, als nur ist nebeneinander auf einem die.
Vom klassischem PC-System ist das schon weit voraus.

300 Watt Monster sind GPUs nicht, klar eine 550mm² GPU schafft man nicht zu integrieren.
Kaveri schafft schon einmal eine 7750.
Das ist keine Größenordnung die, die höhere Gamer interessiert, klar, aber die PS4 ist da eine Größenordnung darüber.
Für eine Konsole interessiert das Design ungemein.

Und lichtwellenleiter, okay, aber wie viele Jahre soll ich da noch warte, bis sich das als interconnect durchsetzt?
Wohl auch nicht gerade wenig.

Ich gehe nicht davon aus, dass APUs extreme Performance Vorteile bei klassischen Anwendungen auf die Waage bringen, aber deutlich Energie effizienter arbeiten, als Einheit den getrennten voraus sind und die Kosten insgesamt geringer für den Kunden.

Und jetzt schon Cache-Zugriffe zu verlangen, wo gerade der Wandel zum gemeinsamen Speicher vollzogen wird, ist ein extrem großer Sprung oder meins du nicht auch?
Wobei das durch den FCL auch schon funktioniert und Cache-Zugriffe möglich sind.
Faktor 2 und mehr besser, beim Data-Transfer ist für mich jedenfalls eine tolle Sache.
Ein gemeinsamer Adressraum wird das noch ausbauen und energetisch viel günstiger sein und wo kann ich Energie hineinstecken?
Richtig in Leistung.

Das mit der Kühlung glaube ich nicht, weil bessere Effizienz für mich weniger Strom und Wärme bedeutet, absolut eine geringere Kühlmenge. Der Chip ist größer, größere Kontaktoberfläche.
Der Chip ist nicht so heiß und auch nicht so groß, als das man es nicht mehr schafft die Wärmeabgabe rechtzeitig zu überführen.
Sonst würde so eine GPU wie der Titan oder Tahiti Ghz-Edition gar nicht funktionieren.
 
Die APUs können doch schon koharänte Speicherbereiche teilen, die Cache-Daten der CPU austauschen und später kommt der gemeinsame Adressraum und auch der Fusion Compute Link wird ausgebaut.
Das ist deutlich verzahnter, als nur ist nebeneinander auf einem die.
Vom klassischem PC-System ist das schon weit voraus.

300 Watt Monster sind GPUs nicht, klar eine 550mm² GPU schafft man nicht zu integrieren.
Kaveri schafft schon einmal eine 7750.
Das ist keine Größenordnung die, die höhere Gamer interessiert, klar, aber die PS4 ist da eine Größenordnung darüber.
Für eine Konsole interessiert das Design ungemein.

Und lichtwellenleiter, okay, aber wie viele Jahre soll ich da noch warte, bis sich das als interconnect durchsetzt?
Wohl auch nicht gerade wenig.

Ich gehe nicht davon aus, dass APUs extreme Performance Vorteile bei klassischen Anwendungen auf die Waage bringen, aber deutlich Energie effizienter arbeiten, als Einheit den getrennten voraus sind und die Kosten insgesamt geringer für den Kunden.

Und jetzt schon Cache-Zugriffe zu verlangen, wo gerade der Wandel zum gemeinsamen Speicher vollzogen wird, ist ein extrem großer Sprung oder meins du nicht auch?
Wobei das durch den FCL auch schon funktioniert und Cache-Zugriffe möglich sind.
Faktor 2 und mehr besser, beim Data-Transfer ist für mich jedenfalls eine tolle Sache.
Ein gemeinsamer Adressraum wird das noch ausbauen und energetisch viel günstiger sein und wo kann ich Energie hineinstecken?
Richtig in Leistung.

Das mit der Kühlung glaube ich nicht, weil bessere Effizienz für mich weniger Strom und Wärme bedeutet, absolut eine geringere Kühlmenge. Der Chip ist größer, größere Kontaktoberfläche.
Der Chip ist nicht so heiß und auch nicht so groß, als das man es nicht mehr schafft die Wärmeabgabe rechtzeitig zu überführen.
Sonst würde so eine GPU wie der Titan oder Tahiti Ghz-Edition gar nicht funktionieren.
Ja du gehst halt von der aktuellen PS4 hardware aus welche effezient und sparsam sein soll. Ich sage eh das es da schon prinzipiel passt. Meine Argumente gehen halt eher in die Richtung wie man mehr Leistung bekommt da mir dann die PS4 noch etwas besser gefallen hätte. Den meisten punkten stimme ich eh zu. Du sagst eh das es bis zu einem 7750 gereicht hat und größere problematisch wären. Mein argument ist eben das sonst mehr drin gewesen wäre.
Mit shared cache usw würde es natürlich wieder anderst ausschauen da man dann die Berechnungen wirklich effezient teilen könnte.
Stacked ram bringt nach meiner Meinung zb viel mehr wie die gpu und cpu nach amd's version zu verheiraten.

Ich will ja große sprünge. Gpu an Cpu kleben und beide von der Leistung etwas runterschrauben ist zwar nett aber haut mich nicht vom Hocker. :D

Das Kühlungs argument war nicht bezüglich effizienz sondern möglicher Kühlleistung. Höher takten für mehr leistung war halt immer ein einfacher weg für mehr Leistung. Die Chips werden auch immer größer mit mehr Transistoren -> mehr Verlustleistung. Darum hat eine top Grafikkarte auch 300 und nicht 30 Watt. Bei SOC geht das einfach nicht so gut. Sicher ist die effezienz da höher, aber das ist sie bei der 30 Watt grafikkarte auch...
 
Zuletzt bearbeitet:
Wenn man eine 300 Watt Monster-GPU kühlen kann, dann auch einen SoC mit einer 250W GPU plus 50W CPU. Der Anteil der CPU wird langfristig ohnehin immer unbedeutender, also wird der Unterschied zwischen einem SoC und einer dedizierten GPU langfristig immer kleiner. Das weitaus größere Problem ist doch, dass eine 300W GPU früher ein Dual-Chip war. Heute schafft das schon eine HD7970 wenn man sie wirklich komplett auslastet. In 10 Jahren geht das wahrscheinlich auch mit einem ~200mm² Chip. Die Schwelle sinkt einfach immer weiter und große Co-Prozessoren werden irgendwann keinen Sinn mehr machen.

Außerdem wird die Integration bei CPU und GPU nicht aufhören, es werden weitere Rechenwerke in die CPU wandern. QuickSync ist ja schon ein Beispiel dafür. Ein 4K H.265 Video zu encodieren wird selbst mit der schnellsten CPU Ewigkeiten dauern, auf QuickSync wird niemand mehr verzichten wollen sobald die Qualität auf einem Level mit Softwarelösungen liegt. Der Markt für dedizierte GPUs für Consumer wird langfristig zu einer extremen Nische, daran habe ich überhaupt keine Zweifel.
 
Wenn man eine 300 Watt Monster-GPU kühlen kann, dann auch einen SoC mit einer 250W GPU plus 50W CPU. Der Anteil der CPU wird langfristig ohnehin immer unbedeutender, also wird der Unterschied zwischen einem SoC und einer dedizierten GPU langfristig immer kleiner. Das weitaus größere Problem ist doch, dass eine 300W GPU früher ein Dual-Chip war. Heute schafft das schon eine HD7970 wenn man sie wirklich komplett auslastet. In 10 Jahren geht das wahrscheinlich auch mit einem ~200mm² Chip. Die Schwelle sinkt einfach immer weiter und große Co-Prozessoren werden irgendwann keinen Sinn mehr machen.

Außerdem wird die Integration bei CPU und GPU nicht aufhören, es werden weitere Rechenwerke in die CPU wandern. QuickSync ist ja schon ein Beispiel dafür. Ein 4K H.265 Video zu encodieren wird selbst mit der schnellsten CPU Ewigkeiten dauern, auf QuickSync wird niemand mehr verzichten wollen sobald die Qualität auf einem Level mit Softwarelösungen liegt. Der Markt für dedizierte GPUs für Consumer wird langfristig zu einer extremen Nische, daran habe ich überhaupt keine Zweifel.
Die Frage ist halt auch braucht man noch eine Integration wenn eine Nvidia GPU bereits einen arm cpu enthält und eine Intel CPU bereits eine GPU (bzw die Konsolen version genug Kerne hat)?
Welche Vorteile bringt es da noch die GPU und CPU zusammen zu legen für den Komprosmiss das sie weniger Verlustleistung haben müssen? Die GPU kann dann bereits sehr gut parallele probleme lösen und serielle auf ihren internen Kern auslagern. Die CPU ist demgegenüber auf serielle optimiert und kann parallele notfalls auf die internen kerne oder wenn es große brocken sind eben auf die GPU auslagern.
Mir kommen diese zwei starken Säulen einfach viel besser vor wie wenn man alles in einen Kern schmeißt und dann untertaktet nur weil es eine handvoll Probleme gibt bei denen man auch daten austauschen will und dies sonst ein bischen langsamer wäre.
 
Zuletzt bearbeitet:
Die Frage ist halt auch braucht man noch eine Integration wenn eine Nvidia GPU bereits einen arm cpu enthält und eine Intel CPU bereits eine GPU?
Welche Vorteile bringt es da noch die GPU und CPU zusammen zu legen für den Komprosmiss das sie weniger Verlustleistung haben müssen? Die GPU kann dann bereits sehr gut parallele probleme lösen und serielle auf ihren internen Kern auslagern. Die CPU ist demgegenüber auf serielle optimiert und kann parallele notfalls auf den internen kern oder wenn es große brocken sind eben auf die GPU auslagern.
Mir kommen diese zwei starken Säulen einfach viel besser vor wie wenn man alles in einen Kern schmeißt und dann untertaktet nur weil es eine handvoll Probleme gibt bei denen man auch daten austauschen will und dies sonst ein bischen langsamer wäre.
Zwei CPU und GPU-Architekturen in einem einzigen PC zu haben ist eben pure Ressourcenverschwendung. Warum sollte das irgendjemand mitbezahlen wollen? Diese Lösung kann niemals im Interesse der Kunden liegen und für den Mainstream wird sich das nie durchsetzen, was bedeutet, dass die Entwicklung extrem kostspielig wird.

Der einzige Grund warum Nvidia das macht ist die Tatsache, dass sie an keine X86-Lizenz kommen. Denen ist sehr wohl bewusst wo der Königsweg liegt. Meiner Meinung nach sollte man Intel dazu zwingen sie herauszurücken solange es derart viel Software nur für X86 gibt. Das ist im Interesse des Wettbewerbs und der Kunden. Mit Enthusiasten, denen es egal ist was der Spaß kostet, kann man langfristig nicht genug Geld verdienen. Außerdem wäre das Programmiermodell einer derartigen Lösung wohl ziemlich bescheuert.

Irgendwann gibt es vielleicht ein ARM-OS, welches mit Windows konkurrieren kann. Chrome OS oder Android. Dann könnte Nvidia einfach selbst wieder Boards entwickeln und aufgelötete GPUs mit integrierter ARM-CPU an PC-Hersteller verkaufen. Bis dahin bin ich aber sehr skeptisch was Nvidias Zukunft auf dem Desktop betrifft. Abgesehen von High-End GPUs gibt es wirklich keine Daseinsberechtigung mehr für separate Beschleuniger und High-End GPUs werden selbst immer unwichtiger.
 
Zuletzt bearbeitet:
Zwei CPU und GPU-Architekturen in einem einzigen PC zu haben ist eben pure Ressourcenverschwendung. Warum sollte das irgendjemand mitbezahlen wollen? Diese Lösung kann niemals im Interesse der Kunden liegen und für den Mainstream wird sich das nie durchsetzen, was bedeutet, dass die Entwicklung extrem kostspielig wird.

Der einzige Grund warum Nvidia das macht ist die Tatsache, dass sie an keine X86-Lizenz kommen. Denen ist sehr wohl bewusst wo der Königsweg liegt. Meiner Meinung nach sollte man Intel dazu zwingen sie herauszurücken solange es derart viel Software nur für X86 gibt. Das ist im Interesse des Wettbewerbs und der Kunden. Mit Enthusiasten, denen es egal ist was der Spaß kostet, kann man langfristig nicht genug Geld verdienen. Außerdem wäre das Programmiermodell einer derartigen Lösung wohl ziemlich bescheuert.

Irgendwann gibt es vielleicht ein ARM-OS, welches mit Windows konkurrieren kann. Chrome OS oder Android. Dann könnte Nvidia einfach selbst wieder Boards entwickeln und aufgelötete GPUs mit integrierter ARM-CPU an PC-Hersteller verkaufen. Bis dahin bin ich aber sehr skeptisch was Nvidias Zukunft auf dem Desktop betrifft. Abgesehen von High-End GPUs gibt es wirklich keine Daseinsberechtigung mehr für separate Beschleuniger und High-End GPUs werden selbst immer unwichtiger.

Intel verkauft schon seit einiger zeit CPU mit GPU obwohl viele eine extra gpu kaufen. Regt sich auch kaum jemand auf.

Bei Nvidia muß man bedenken das ein großteil ihrer entwicklungen auf den HPC markt ausgerichtet sind. Wo dann x grafikkarten im rack stecken wäre es ideal wenn diese komplett unabhängig von der CPU arbeiten und die ganze kommunikation untereinander selbst ausführen könnten. Die cpu kümmert sich dann nur um die Aufgabenstellung und die GPU's können als cluster diese selbständig lösen ohne das die CPU die ganze zeit Händchen halten muß. Das ist aber kein SOC.

Windows 8 rt läuft eh auf arm.
 
Zuletzt bearbeitet:
Ja du gehst halt von der aktuellen PS4 hardware aus welche effezient und sparsam sein soll. Ich sage eh das es da schon prinzipiel passt. Meine Argumente gehen halt eher in die Richtung wie man mehr Leistung bekommt da mir dann die PS4 noch etwas besser gefallen hätte. Den meisten punkten stimme ich eh zu. Du sagst eh das es bis zu einem 7750 gereicht hat und größere problematisch wären. Mein argument ist eben das sonst mehr drin gewesen wäre.
Mit shared cache usw würde es natürlich wieder anderst ausschauen da man dann die Berechnungen wirklich effezient teilen könnte.
Stacked ram bringt nach meiner Meinung zb viel mehr wie die gpu und cpu nach amd's version zu verheiraten.

Ich will ja große sprünge. Gpu an Cpu kleben und beide von der Leistung etwas runterschrauben ist zwar nett aber haut mich nicht vom Hocker. :D

Das Kühlungs argument war nicht bezüglich effizienz sondern möglicher Kühlleistung. Höher takten für mehr leistung war halt immer ein einfacher weg für mehr Leistung. Die Chips werden auch immer größer mit mehr Transistoren -> mehr Verlustleistung. Darum hat eine top Grafikkarte auch 300 und nicht 30 Watt. Bei SOC geht das einfach nicht so gut. Sicher ist die effezienz da höher, aber das ist sie bei der 30 Watt grafikkarte auch...
Die PS4 hätte mit getrennten Einheiten in ihrem Budget-Rahmen eben keine höhere Leistung geschafft.
Das behaupte ich einfach.
Und für 500 Dollar ist da genug Rohpower enthalten.
Klar 4 TF hätten mir mehr gefallen, aber Final Fantasy habe ich schon lange nicht mehr gespielt.

@ Cache, mit einem gemeinsamen Cache-System wäre das zwar noch einmal effizienter, aber gemeinsamer Adressraum + compute link ist eine deutliche Verbesserungen.
Was soll ich dann zu einem klassischen PC sagen? Ineffiziente Pferdescheiße?
Stacked-Ram ist auch eine sehr coole Sache, begrüße ich natürlich auch sehr, Bandbreite wird stark verbessert und die Latenzen verbessert, allerdings ist eine APU aus meiner Sicht technisch weiter Nutzbringend, als stacked-ram alleine.
Eine APU ist die ganze Berechnungslogik, stacked-ram nur ein sehr guter Zulieferer.
Aber klar, dass eine funktioniert ohne das andere auch nicht so gut.

Ich sehe bei SoCs kein Verlustleistungs- oder Temperatur-Problem, sondern ein Flächenproblem.
Ab 600mm² ist eben die Grenze und auf so "kleinem" Raum packt man eben mit einem SoC nicht so einfach die pure Kraft von getrennten Lösungen, falls diese auch so 200-500mm² groß sind.
Irgendwann kommt aber der Zeitpunkt, wo die Integrationsdichte es erlauben wird die theoretische Rohleistung von getrennten Lösungen mit den prinzipiellen Vorteilen einer gemeinsamen Lösung zu Überschatten.
Die PS4 ist aus meiner Sicht genau so ein Produkt für eine Konsole.
Kabini ja sowieso, Handy, tablets, Sub-Notebooks usw.

Und ja, die Effizienz einer 30 Watt Lösung ist höher, aber ein SoC hat auch Performance und Latenzvorteile, dass ist nicht nur wegen der Spannung effizienter, sondern wegen der internen Logik an sich und da es Performancevorteile hat, schafft man das gleiche mit weniger Logik.
 
Die PS4 hätte mit getrennten Einheiten in ihrem Budget-Rahmen eben keine höhere Leistung geschafft.
Das behaupte ich einfach.
Und für 500 Dollar ist da genug Rohpower enthalten.
Klar 4 TF hätten mir mehr gefallen, aber Final Fantasy habe ich schon lange nicht mehr gespielt.

@ Cache, mit einem gemeinsamen Cache-System wäre das zwar noch einmal effizienter, aber gemeinsamer Adressraum + compute link ist eine deutliche Verbesserungen.
Was soll ich dann zu einem klassischen PC sagen? Ineffiziente Pferdescheiße?
Stacked-Ram ist auch eine sehr coole Sache, begrüße ich natürlich auch sehr, Bandbreite wird stark verbessert und die Latenzen verbessert, allerdings ist eine APU aus meiner Sicht technisch weiter Nutzbringend, als stacked-ram alleine.
Eine APU ist die ganze Berechnungslogik, stacked-ram nur ein sehr guter Zulieferer.
Aber klar, dass eine funktioniert ohne das andere auch nicht so gut.

Ich sehe bei SoCs kein Verlustleistungs- oder Temperatur-Problem, sondern ein Flächenproblem.
Ab 600mm² ist eben die Grenze und auf so "kleinem" Raum packt man eben mit einem SoC nicht so einfach die pure Kraft von getrennten Lösungen, falls diese auch so 200-500mm² groß sind.
Irgendwann kommt aber der Zeitpunkt, wo die Integrationsdichte es erlauben wird die theoretische Rohleistung von getrennten Lösungen mit den prinzipiellen Vorteilen einer gemeinsamen Lösung zu Überschatten.
Die PS4 ist aus meiner Sicht genau so ein Produkt für eine Konsole.
Kabini ja sowieso, Handy, tablets, Sub-Notebooks usw.

Und ja, die Effizienz einer 30 Watt Lösung ist höher, aber ein SoC hat auch Performance und Latenzvorteile, dass ist nicht nur wegen der Spannung effizienter, sondern wegen der internen Logik an sich und da es Performancevorteile hat, schafft man das gleiche mit weniger Logik.
Für das Budget stimmt das wohl. Aber das ist eher so gering weil die letzte gen nicht ideal gelaufen ist und nicht weil Konsolen mit höherem Budget nicht funktionieren würden.

APU nützt dir auch nichts wenn du die Daten nicht mehr rein bringst. ;)

Denke eher irgendwann kommt die Zeit wo man mit klassischen optimierungen nicht mehr soviel mehrleistung erreicht wie wenn alles einfach näher zusammen rückt. Sehe die Zeit aber noch länger nicht gekommen für high performance gpus.

Die Performance und Latenzvorteile können aber nur in sehr wenigen bereichen ausgespielt werden. Darum sage ich ja das ein genereller Performance hammer der vollen gpu einfach mehr bringt wie die Optimierung für ein paar spezialfälle.
 
Würde sicher auch auf den jetzigen Konsolen laufen.
Aber die Wii U scheint ja trotzdem nicht schwächer zu sein als von den hatern gesagt.
Und das ist kein Roboter Spiel ^^

Die WiiU ist auch nicht schwächer, sie ist genau in der Mitte, siehe meine Sig, sollten noch unklarheiten herrschen :goodwork:
 
Zuletzt bearbeitet:
APU nützt dir auch nichts wenn du die Daten nicht mehr rein bringst. ;)

Denke eher irgendwann kommt die Zeit wo man mit klassischen optimierungen nicht mehr soviel mehrleistung erreicht wie wenn alles einfach näher zusammen rückt. Sehe die Zeit aber noch länger nicht gekommen für high performance gpus.

Die Performance und Latenzvorteile können aber nur in sehr wenigen bereichen ausgespielt werden. Darum sage ich ja das ein genereller Performance hammer der vollen gpu einfach mehr bringt wie die Optimierung für ein paar spezialfälle.
Was meinst du mit Daten rein bringen?

Für High-Performance-GPUs muss ich dir zustimmen, vor allem wenn es nur um massive Thread-Leistung geht, wo die CPU nur als Commander fungiert und ansonsten nichts gebraucht wird, außer 550mm² Schlachtschiffe.

Wieso sollten die Peformance und Latenzvorteile nur in wenigen Bereichen ausgespielt werden können?
Der Latenzvorteil ist IMMER da, wirkt sich je nach Szenario halt geringer aus.
Das sind aber potentiell hier ein paar Prozent und dort ein bisschen mehr wo dies immer existiert.
Zero Copy spart Strom und was tut das fehlende Kopieren der Daten noch sparen? Bandbreite, effektiv hat man also auch mehr Bandbreite.
Plus bessere Latenz, schnellere Versorgung der Einheiten ist ja auch sehr wichtig.
GDDR5 mit GDDR3 Bandbreite war 30% langsamer, weil die absoluten Latenzen im Vergleich dann natürlich richtig beschissen sind.
Und bei der PS4 werden viele Compute-Sachen profitieren.
Das wird die ganzen Spielchen mit Partikeln, DoF usw. deutlich billiger machen, als bei einem PC.
Gerade GPGPU beschleunigte Effekte ist doch genau das, wonach alle hinterher weinen.
Sogar Gameplay-Relevante Physik könnte Einzug finden.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom