ist ein typisches problem von großrechnern mit mega-algorithmen ^^Ich persönlich glaube, dass der Trend im CPU Bereich langfristig zu asymmetrischen Multicores gehen wird. Denn manche Aufgaben lassen sich (wie oben schon jemand erwähnt hat) einfach kaum oder nur schwer parallellisieren, weil die einzelnen Berechnungsschritte viel zu sehr voneinander Abhängen. KI und Co. sind hier zu nennen. Für solche Aufgaben bräuchte es also in einem auf den Konsolensektor spezialisierten Chip möglichst schnelle, einzelne Kerne. Bei anderen Aufgaben wäre eine Parallellisierung aber durchaus sinnvoll, dort könnte man dann eine Vielzahl einzelner Rechenkerne nutzen. Das macht die Programmierung nicht einfacher (sieht man schon allein am Cell), könnte aber den technischen Fortschritt zumindest in Teilen sichern.
dort löst man es allerdings etwas anders:
ein kern (vllt macht das auch derselbe kern der die berechnung macht) überwacht die rechnung und approximiert in einem bestimmten intervall immer wieder ein neues ergebnis so, dass wenn ein anderer kern jetzt dieses ergebnis braucht, er auf die approximation zurückgreifen kann.
am ende wird das wirklich ergebnis nochmals übergeben und die berechnungen laufen einwandfrei ab.
is natürlich verdammt schwer im konsolensektor sowas zu realisieren. KI, Physik etc sollte aber mit sowas machbar sein. wie man hiermit allerdings ne bildrealisierung darstellen will, übersteigt meine kenntnis