25. Xbox360 vs. Wii vs. PS3

Status
Nicht offen für weitere Antworten.
Tja Marketing ist alles. Wenn es nämlich heissen würde Konsole x hat eine 3Ghz CPU mit einem Kern, und Konsole y mit 3 Kernen, würde der Mainstream natürlich denken Konsole y ist 3 mal stärker. Die meisten Medien würden das warscheinlich auch so bringen.
 
wsippel schrieb:
Ich bin selbst Softwareentwickler, klar verstehe ich das. ;)

Auf dem PC, und in dem Bereich, aus dem ich komme, ist Multicore schön, weil man Audio-Applikationen ziemlich gut parallelisieren kann. Bei Konsolenentwicklung sieht die Welt etwas anders aus. :)

Die Sache stimmt aber wieder nicht, wenn ich den verschiedenen Cores nur eine bestimmte Aufgabe zu weise, zb. Core1: NUR Streaming von Level Daten; Core2: NUR KI Berechnung; Core3: NUR Physik usw.
Dann macht es durchaus sehr viel Sinn.
 
repent schrieb:
kannste die erklärung vielleicht copy&pasten? :D

btw. LÜGNER :P ;)

Das muss ich erst mal suchen. Aber ich wurde schonmal gefragt, ob man hier nicht mal einen Grafikthread machen kann, wo nicht gebasht wird, sondern wissenschaftliche Fakten erklärt werden. Da könnte ich das dann auch nochmal neu und noch ausführlicher schreiben.
Im Moment beschäftige ich mich mit graphischer Darstellung von Flüssigkeiten und der Interaktion dieser mit Festkörpern und untereinander.
Also sowas wie ein Objekt stürzt ins Wasser, wirft Wellen und der Wasserspiegel steigt. Oder Flüssigkeiten mit verschiedenen Viskositäten und Dichten fließen ineinander.
Die Frage ist nur wo man einen solchen Thread macht (im Warforum wohl kaum) und welcher Moderator die Posts von den Fanboys rauswirft, die mit Screenshots zeigen wollen, dass ihre Konsole die beste ist.
 
iimpact schrieb:
Die Sache stimmt aber wieder nicht, wenn ich den verschiedenen Cores nur eine bestimmte Aufgabe zu weise, zb. Core1: NUR Streaming von Level Daten; Core2: NUR KI Berechnung; Core3: NUR Physik usw.
Dann macht es durchaus sehr viel Sinn.

Das schon. Habe ich ja auch vorher geschrieben. Nur der Renderscenegraph, der für die grafische Darstellung zuständig ist, kann nicht parallelisiert werden. Die Grafik wird durch mehrere CPUs nicht sonderlich schneller oder besser.
 
iimpact schrieb:
Die Sache stimmt aber wieder nicht, wenn ich den verschiedenen Cores nur eine bestimmte Aufgabe zu weise, zb. Core1: NUR Streaming von Level Daten; Core2: NUR KI Berechnung; Core3: NUR Physik usw.
Dann macht es durchaus sehr viel Sinn.

kurze frage: irgendwo hab ich mal gelesen ein core der box wird für den 5.1 sound gebraucht. stimmt das oder ist das ne urban legend?
 
Xenobit schrieb:
Die Grafik wird durch mehrere CPUs nicht sonderlich schneller oder besser.

Das stimmt die CPU hat ja seit Einführung spezieller GPU's sowieso nur noch minimal mit Berechnungen in dem Bereich zutun.
 
iimpact schrieb:
Die Sache stimmt aber wieder nicht, wenn ich den verschiedenen Cores nur eine bestimmte Aufgabe zu weise, zb. Core1: NUR Streaming von Level Daten; Core2: NUR KI Berechnung; Core3: NUR Physik usw.
Dann macht es durchaus sehr viel Sinn.
Und genau das macht nämlich keinen Sinn, weil die Threads a) ständig synchronisiert werden müssen und b) unterschiedlich rechenintensiv sind. Wenn's also gerade keine Physik zu berechnen oder keinen Sound zu mixen gibt, machen die Kerne garnichts und idlen nur fröhlich. Herzlichen Glückwunsch.
 
Xenobit schrieb:
Das muss ich erst mal suchen. Aber ich wurde schonmal gefragt, ob man hier nicht mal einen Grafikthread machen kann, wo nicht gebasht wird, sondern wissenschaftliche Fakten erklärt werden.
So ein Grafikthread wäre die Idee, da wenigstens Argumente fallen würden und keine solch belanglosen
Vergleiche wie im Grafikvergleichsthread den wir momentan haben. :D

Aber das Problem wäre, dass dann nicht so viele mitreden können, man müsste schon die ganzen Begriffe
(Bumpmapping, Normalmapping, Bloom, Tiefenunschärfe etc. etc.) erklären, damit auch mehr Leute mitreden können. :)
 
wsippel schrieb:
Und genau das macht nämlich keinen Sinn, weil die Threads a) ständig synchronisiert werden müssen und b) unterschiedlich rechenintensiv sind. Wenn's also gerade keine Physik zu berechnen oder keinen Sound zu mixen gibt, machen die Kerne garnichts und idlen nur fröhlich. Herzlichen Glückwunsch.

was wäre dann ein sinnvoller weg gewesen? mit den taktfrequenzen is ja bald mal schluss? gibt es keine ansätze diese probleme softwaretechnisch zu umgehen?
 
wsippel schrieb:
Und genau das macht nämlich keinen Sinn, weil die Threads a) ständig synchronisiert werden müssen und b) unterschiedlich rechenintensiv sind. Wenn's also gerade keine Physik zu berechnen oder keinen Sound zu mixen gibt, machen die Kerne garnichts und idlen nur fröhlich. Herzlichen Glückwunsch.

Klar sind sie unterschiedlich Rechenintensiv aber bei genügend Kernen macht es nicht wenn mal ein Kern kurz idled. Es ist halt simpler einen Mehrkern Prozzi zu Bauen als immer weiter an der Taktschraube zu drehen.
 
Captain Smoker schrieb:
So ein Grafikthread wäre die Idee, da wenigstens Argumente fallen würden und keine solch belanglosen
Vergleiche wie im Grafikvergleichsthread den wir momentan haben. :D

Aber das Problem wäre, dass dann nicht so viele mitreden können, man müsste schon die ganzen Begriffe
(Bumpmapping, Normalmapping, Bloom, Tiefenunschärfe etc. etc.) erklären, damit auch mehr Leute mitreden können. :)

automatischer wiki link für die begriffe und die sache hat sich :D

wird ja acuh für dieses board ein plugin geben :D
 
Das Problem bei Single-Core ist ja, aber die Leistungssteigerung ansich.

Natürlich wäre ein 6GHZ-SG_CORE beser geeignet als ein 3*3GHZ-Multi-Cores, nur alles unterliegt der Physik ;)


Das Problem denn dabei ist, (um ein >6GHZ zu ermöglichen), ist , dass dieser Core derzeit so technisch nicht möglich sei unter normal Bedingungen (Temp,größe, Verbrauch).

Und auch **irgendwann* in der Zukunft ist ein SG-Core (nach heutiger Physiker) limitiert; denn kleiner *als ein ATOM* kann ein Transistor nicht sein :D


Und die Lösung statt einen sehr schnellen Core für die CPU zu bauen, der durch spezielle Fertigungstechniken gekühlt sowie produziert wird, lieber drei *normale schnelle* Cores für die CPU zu packen, um auch *eine* qualitative Leistungssteigerung zu erhalten, ist heutiger Sicht sehr viel plausibeler.


BZW. die Raytracing Technoligie wurde ja auch zuerst auf x*CPUs entwickelt.
 
iimpact schrieb:
Das stimmt die CPU hat ja seit Einführung spezieller GPU's sowieso nur noch minimal mit Berechnungen in dem Bereich zutun.
Die CPU muss den angesprochenen Scenegraph abarbeiten. Da bringt Dich die GPU nicht weiter. Und ein komplexer Scenegraph ist sehr rechenintensiv.
 
repent schrieb:
automatischer wiki link für die begriffe und die sache hat sich :D

wird ja acuh für dieses board ein plugin geben :D
Joa stimmt xD

Vielleicht eröffne ich den Thread später, wäre mal endlich interessanter als diese Vergleiche im Thread den wir jetzt haben. :P :)
 
wsippel schrieb:
Die CPU muss den angesprochenen Scenegraph abarbeiten. Da bringt Dich die GPU nicht weiter. Und ein komplexer Scenegraph ist sehr rechenintensiv.

aber er muss sich nicht wie früher mit der ganzen Geometrie und deren Transforamtion rumschlagen und ums Texturieren mit kümmern. Dies wird ja nun mal jetzt in hardware in der GPU gemacht anstatt software emuliert.
 
repent schrieb:
was wäre dann ein sinnvoller weg gewesen? mit den taktfrequenzen is ja bald mal schluss? gibt es keine ansätze diese probleme softwaretechnisch zu umgehen?

Stichwort: DX


Man kann durch spezielle Logirthmen graphische Situation *abwandeln* und dadurch Leistung sparen. Dies macht aber primäer die GPU.
 
repent schrieb:
was wäre dann ein sinnvoller weg gewesen? mit den taktfrequenzen is ja bald mal schluss? gibt es keine ansätze diese probleme softwaretechnisch zu umgehen?
Weniger schnellere Kerne, Out-of-Order, gute Branch-Prediction, viel Cache. Solche CPUs sind aber leider wesentlich komplexer und teurer. Dazu noch DSPs für Standardaufgaben wie eben Audio.
 
McJohny schrieb:
BZW. die Raytracing Technoligie wurde ja auch zuerst auf x*CPUs entwickelt.

Und genau deswegen denke ich, dass wir in spätestens 10 Jahren keine Polygone mehr haben, sondern Nurbs und die Grafik dann mittels Raytracer dargestellt wird. Dieses Verfahren lässt sich nämlich perfekt parallelisieren. Zudem gibt es Effekte, die sich nicht mit Polygongrafik korrekt darstellen lassen. (indirekte Beleuchtung, Caustics)
Das man in Echtzeit Raytracen kann, hat Slusallek bereits gezeigt.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom