PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Die CPUs waren nicht viel starker, hat dir auch Coda schon geschrieben.

Wo? Da ging es doch um die GPU. :-?

Gleichzeitig kannst du nicht einfach die FLOPs der CPU auf die GPU ummünzen, was ist das denn :ugly:
Natürlich geht das nicht direkt aber es ist einfach und praktisch. :ugly:
Wie soll den sonst ein Vergleich möglich sein? Selbst wenn wir ohne CPU nehmen sind es
10x nach 2,5 jahre damals vs 7,5x nach 1,2 jahre heute.
 
Habe ich die Gamesfest-Präsentation, wo Microsoft X360-Code untersucht und eine IPC von 0,2 gefunden hat noch nicht oft genug gepostet? Es gab auf Anandtech auch einen Artikel mit den Meinungen anonymer Entwickler über die neuen Konsolen. Alle haben sich über die CPU beschwert. Auf Youtube gibt' sogar noch die 2004 Rede von Carmack auf der GDC, wo er die CPUs als großen Fehler bezeichnet hat.

Woher kommt plötzlich die Glorifizierung dieser Not-und Nagel CPU? :ugly:

Anandtech schrieb:
But then we come to the issue of the CPUs in these next-generation consoles, and the level of improvement they offer. Both the Xbox 360 and the PlayStation 3 offer multi-core CPUs to supposedly usher in a new era of improved game physics and reality. Unfortunately, as we have found out, the desire to bring multi-core CPUs to these consoles was made a reality at the expense of performance in a very big way.
 
Zuletzt bearbeitet:
Wo? Da ging es doch um die GPU. :-?

Wenn schon eine interessante Diskussion mit jemanden mit Kompetenz gestartet wird, dann bitte auch richtig lesen

Bei praktisch jedem Workload, der nicht zufällig perfekt zu den Vektoreinheiten passte. Skylake ist ja auch nicht doppelt so schnell wie Haswell und Haswell nicht doppelt so schnell wie Sandy Bridge, obwohl die GFLOPs das so suggerieren.



Weil ein einziger Kern bei AMD oder Intel mehr Leistung als alle drei Kenre in der Xbox. Ein Pentium/Athlon-Kern hatte ja auch mehr Transistoren. Am PC hätte man damit einfach nichts erreicht, CPUs verkaufen sich am PC primär über ihre Leistung bei alten Anwendungen und da ist Single-thread Leistung eigentlich bis heute enorm wichtig. In 10 Jahren hat sich da nicht so viel verändert. Damals dachten sicherlich einige, dass wir heute schon mit 16 Kernen liebäugeln. Ein 16-Kern Broadwell in 14nm hätte sogar in etwa die gleiche Chipgröße wie der originale Core 2 Duo.

Natürlich geht das nicht direkt aber es ist einfach und praktisch.
Wie soll den sonst ein Vergleich möglich sein? Selbst wenn wir ohne CPU nehmen sind es
10x nach 2,5 jahre damals vs 7,5x nach 1,2 jahre heute.

War aber 11* mit einer 4870X2 ^^ Hatte übrigens 4* so viel VRAM wie die 360 für das ganze System :v:
 
Habe ich die Gamesfest-Präsentation, wo Microsoft X360-Code untersucht und eine IPC von 0,2 gefunden hat noch nicht oft genug gepostet? Es gab auf Anandtech auch einen Artikel mit den Meinungen anonymer Entwickler über die neuen Konsolen. Alle haben sich über die CPU beschwert. Auf Youtube gibt' sogar noch die 2004 Rede von Carmack auf der GDC, wo er die CPUs als großen Fehler bezeichnet hat.

Woher kommt plötzlich die Glorifizierung dieser Not-und Nagel CPU? :ugly:

Und die One hat jetzt den super hohen IPC? Ist doch auch nicht viel stärker wenn die theoretischen Werte verglichen werden. Es geht nicht darum das die CPU damals die hammer Architektur war sondern das sie gegenüber dem was heute abgeliefert wird viel besser da stand.

War aber 11* mit einer 4870X2 ^^ Hatte übrigens 4* so viel VRAM wie die 360 für das ganze System :v:
Sind halt 50% bis zum Pascal. Alleine die neue AMD karte von heuer soll schon einen erheblichen Schub liefern.
Die One hat vielleicht mehr ram aber die Texturen sind trotzdem nicht besser wie auf dem PC. :lol:
Und was nützt der ganze ram wenn die CPU vorne und hinten bei beiden bremst?

Wenn schon eine interessante Diskussion mit jemanden mit Kompetenz gestartet wird, dann bitte auch richtig lesen
Das hatte ich schon gelesen nur geht es da um flops zu realität was aber nicht viel an der relativ höheren Leistung von damals ändert oder was ist aus coding to the metal geworden? :ugly:
 
Zuletzt bearbeitet:
Falls den Anandtech-Artikel mal jemand komplett lesen will, auf der Webseite gibt's den leider nicht mehr aber er wurde in einigen Foren komplett zitiert. Da sind einige tolle Zitate dabei.

Wobei das rückblickend natürlich viel zu negativ betrachtet war.
 
Falls den Anandtech-Artikel mal jemand komplett lesen will, auf der Webseite gibt's den leider nicht mehr aber er wurde in einigen Foren komplett zitiert. Da sind einige tolle Zitate dabei.

Wobei das rückblickend natürlich viel zu negativ betrachtet war.

Wird interessant ob die Einschätzung der aktuellen Konsolen zu negativ sein wird :-)


Sind halt 50% bis zum Pascal.

Mache deine Rechnung mal mit der PS4 GPU.

Übrigens, 1,5 Jahre nach dem PS3 ( nVidia )Release bekamst du die 3,6-fache FLOP Leistung bei einer GeForce ( Referenzmodell ), als Single-Karte. SLI gab es natürlich auch noch. Und dabei hattest du noch eine massive modernere Architektur.

Die One hat vielleicht mehr ram aber die Texturen sind trotzdem nicht besser wie auf dem PC. :lol:
Und was nützt der ganze ram wenn die CPU vorne und hinten bei beiden bremst?

Der größte Flaschenhals bei den Konsolen war immer der RAM, dieser ist mit der Gen das erste mal eliminiert.
PS360 Spiele rannten übrigens auch nicht alle mit 60fps umher, ein CPU intensives BF2 wie auf den PC ( erschien ein Jahr vor der 360 und zwei Jahre vor der PS3 ) haben PS360 früher auch nicht geschafft, ein BF4 mit gleicher Anzahl an Spielern haben PS4One geschafft.
 
Woher kommt plötzlich die Glorifizierung dieser Not-und Nagel CPU? :ugly:

Ich frage mich woher dieses schlechtreden kommt. Zum release der Konsole war das was ich gesehen habe noch ganz anders. Heute liest sich hier von Konsolenseite nur noch wie unglaublich langsam und schlecht die Teiler doch bei release waren und wie überlegen der PC war. Nach PS5 release liest sich dann hier wohl von Konsolenseite nur noch wie unglaublich schlecht und langsam die PS4 doch war. xD
 
Übrigens, 1,5 Jahre nach dem PS3 ( nVidia )Release bekamst du die 3,6-fache FLOP Leistung bei einer GeForce ( Referenzmodell ), als Single-Karte. SLI gab es natürlich auch noch. Und dabei hattest du noch eine massive modernere Architektur.
Also aktuell wären 6,5 nötig? Die neue von AMD sollte das gut überbieten.

Der größte Flaschenhals bei den Konsolen war immer der RAM
Das war früher, jetzt ist es die cpu. Ist nicht wirklich besser da ram nur für schlechte texturen sorgt wohingegen cpu engstellen überall probleme macht.
 
Also aktuell wären 6,5 nötig? Die neue von AMD sollte das gut überbieten.

Na dann bin ich ja mal gespannt, auch inwieweit diese deine These, die aktuellen wären so viel schlechter als damals, standhalten wird. Bei GCN wird es ja auch bleiben, womit schon einmal ein großer Vorteil wegfällt der von CineFX ( RSX ) zur 8000-Serie vorhanden war.

Das war früher, jetzt ist es die cpu. Ist nicht wirklich besser da ram nur für schlechte texturen sorgt wohingegen cpu engstellen überall probleme macht.

RAM ist für mehr zuständig als Texturen und einer der größten Hindernisse des Spieldesigns, bei Mangel. Mein BF Beispiel beweist übrigens das Gegenteil deiner CPU These in Relation zu denen von PS360.
 
Ich frage mich woher dieses schlechtreden kommt. Zum release der Konsole war das was ich gesehen habe noch ganz anders. Heute liest sich hier von Konsolenseite nur noch wie unglaublich langsam und schlecht die Teiler doch bei release waren und wie überlegen der PC war. Nach PS5 release liest sich dann hier wohl von Konsolenseite nur noch wie unglaublich schlecht und langsam die PS4 doch war. xD
Wenn man sich nicht wirklich mit Computerarchitekturen beschäftigt, sehen drei Kerne mit 3+ GHz ja auch mächtig aus. Damals ging das MHz-Rennen am PC ja auch gerade erst zu Ende und für viele Leute waren solche Daten beeindruckend. Es ist daher verständlich warum die Leistung damals nie kritisiert wurde. Die Performance war dennoch nicht gut, man hatte bloß mehr Spielraum für Optimierungen. Es ist jetzt eben umgekehrt und die GPU verlangt mehr Arbeit ab.

Ich habe bis jetzt auch noch kein Spiel gesehen, welches auf PC mit Mantle nicht selbst auf einer Low-end CPU hervorragend läuft. Ich frage mich deshalb schon woher alle wissen, dass die CPU bremst. BF: Hardline läuft auf einem 3770K@1,8GHz mit 200fps in der Beta wenn man Mantle hat. Wenn da irgendwo mal ein Frame droppt wissen aber sicherlich wieder alle, dass die Tablet-CPU der Übeltäter ist. Bei der Xbox One weiß man ja auch immer, dass der SRAM ein Flaschenhals ist, obwohl niemand eine Ahnung von den Speicherzugriffen des Spiels hat. Ich würde zu etwas mehr Zurückhaltung bei solchen Aussagen auffordern.
 
Zuletzt bearbeitet:
Na dann bin ich ja mal gespannt, auch inwieweit diese deine These, die aktuellen wären so viel schlechter als damals, standhalten wird. Bei GCN wird es ja auch bleiben, womit schon einmal ein großer Vorteil wegfällt der von CineFX ( RSX ) zur 8000-Serie vorhanden war.
Dafür geht es schon richtung Dx12.

RAM ist für mehr zuständig als Texturen und einer der größten Hindernisse des Spieldesigns, bei Mangel. Mein BF Beispiel beweist übrigens das Gegenteil deiner CPU These in Relation zu denen von PS360.

Gab es nach PS360 release auch 25fps Spiele?
 
Zuletzt bearbeitet:
Wenn man sich nicht wirklich mit Computerarchitekturen beschäftigt, sehen drei Kerne mit 3+ GHz ja auch mächtig aus. Damals ging das MHz-Rennen am PC ja auch gerade erst zu Ende und für viele Leute waren solche Daten beeindruckend. Es ist daher verständlich warum die Leistung damals nie kritisiert wurde. Die Performance war dennoch nicht gut, man hatte bloß mehr Spielraum für Optimierungen.
Hätte ich die alten ct's nicht weggeworfen könnte ich dir jetzt ein paar Artikel schicken wo der Cell in den Himmel gehypt wird und die 360 auch nicht schlecht weg kommt. Die hatten auch eigene Anwendungen auf cell portiert und waren ziemlich beeindruckt von der erreichbaren Leistung. Die Konsole wurde teilweise sogar in server farmen aufgestellt weil der Preis zur Leistung sogut war woraufhin Sony linux rauswarf.

Aber ja, die teiler waren totale schrottmühlen, die aktuelle Gen steht viel besser in relation dazu da. ;)
 
DirectX 12 wird zu komplett neuen Probleme führen. Man hat die Abstraktion ja nicht so lange aufrecht erhalten weil man zu dumm gewesen wäre das Problem zu erkennen. DX10 und DX11 haben versucht nachzubessern aber wenn CPUs fast stillstehen während GPUs immer stärker werden, reißt irgendwann jede Patchwork-Lösung.
 
Naja, der Cell war halt damals afaik ziemlich schnell mit Gleitkommarechnungen, u.a. mit doppelter Genauigkeit. Vielleicht täusche ich mich auch, aber das war ja zu Zeiten vor GPU-Computing, und da waren normale DesktopCPUs ziemlich lahm was Gleitkommazahlen anbelangte..
 
Und die One hat jetzt den super hohen IPC? Ist doch auch nicht viel stärker wenn die theoretischen Werte verglichen werden. Es geht nicht darum das die CPU damals die hammer Architektur war sondern das sie gegenüber dem was heute abgeliefert wird viel besser da stand.
Rohdaten bzgl. Flops sind ja bei CPUs nunmal wirklich ein sehr einseitiges Bild. Sobald mehr oder weniger ungünstige Speicherzugriffe oder ein Branch mit Leeren der Pipeline dazukommen, bricht das ordentlich ein. Deshalb kann ja auch ein recht schwacher 3Core in der WiiU halbwegs mit PS360 mithalten. Sind halt auch nur 3 Cores mit Hyperthreading in der 360.

Wobei das rückblickend natürlich viel zu negativ betrachtet war.
Seh ich nicht so. Performance da rauszuholen war halt aufwendig. So was muss eigentlich nicht sein. Das sind die Jaguar-Cores schon besser, weil pflegeleichter.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom