PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Du sprichts von Architektur-revisionen, ich hingegen spreche von der Architektur
selbst. Diese aendert sich deweilen sogut wie gar nicht. Z.B. haben Pentium und
Itanium zwei verschiedene Architekturen. Und nur weil man z.B. die Pipeline
verkuerzt, etc., aendert sich dadurch ja nicht die Architektur.
Naja, du tust aber gerade so als wäre das Memoryinterface der ganze Larrabee. Mein punkt ist das vor 2 Jahren die Performance wohl gereicht hätte um mit den Grafikkarten gut mitzumischen/diese zu topen und jetzt reicht es eben nicht mehr. Nun schaut Intel halt welche stellen sie überarbeiten können damit das teil schneller wird bzw. was man damit noch machen kann.

Fuer MS Word & Co. braucht man sowas natuerlich nicht, aber wenn
Multimediaanwendungen ins Spiel kommen, so aendert sich die Situation schon
gewaltig. Software wie Photoshop, Datenbanken, Video De- und Encoder,
Physikengines, etc. profitieren kaum vom der Taskparallelisierung.
Ja, und für die Bereiche wo man es braucht hat man eine Grafikkarte. Ich verstehe nicht so recht wiso die CPU das übernehmen soll was jetzt die Grafikkarte viel besser kann.
Das ist ja genau das Problem am Cell, er übernimmt Aufgaben die bereits eher in richtung Grafikkarte gehen würden und auf dieser oft besser funktionieren, ist dann im CPU bereich aber schlechter unterwegs.

Dann bist Du aber schlecht informiert. :wink3:
Den auf platz 2 habe ich ja herausgenommen da er ein Mischsystem ist. Naja, und die Plätze >100 werden in den Artikeln welche ich lese wohl nicht mehr als beachtenswert empfunden.
Für die angeblich revolutionäre architektur welche damals angekündigt wurde sprechen die 3 plätze mit >100 aber auch nicht gerade...

Hier zeigt sich etwas von Deinem Missverstaendnis ueber Architekturen. Der
PowerPC bildet ja nicht die Cell-architektur, er ist (bzgl. der Cell-architektur)
eine austauschbare Komponente. Der PowerPC im Cell spielt nur eine
Managementrolle, mehr nicht. Man koennte ihn gar durch einen Power-7
ersetzen. Nochwas. Der PowerXCell 8i Prozessor ist lediglich eine Revision
der Cell-architektur. Die allgemeine Cell-architektur ist unter den Namen
Cell Broadband Engine Architecture (CBEA) bekannt. Schaut man sich
nun CBEA genau an, dann sieht man was daran revolutionaer ist. Dafuer
benoetigt man aber 'einiges' an Wissen.
Ich habe nicht gesagt das der PowerPC die Architektur bildet, er ist jedoch teil von der Cell cpu.

Ob Raytracing oder nicht, spielt keine Rolle. Larrabee bekommt seine Daten
nicht schnell genug. Und dass ist ein Fehler im Design des Memoryinterfaces.
Interessanterweise spiegelt das Design eines Memoryinterfaces schon zu einem
Grossteil die Architektur selbst wieder.
Das Intels erster
Entwurf ein paar Macken hat ist ja nicht verwunderlich. Wer entwirft schon solch einen Hybriden der den Spagat zwischen Grafikkarte/Vektorisierung, Raytracing und naher x86er Programmierung schaft sowie beim ersten Anlauf perfekt ist? Und dann auch noch halbwegs bei der Performance/Leistungsverbrauch usw. mit über jahrzehnte optimierten/spezialisierten Grafikkarten mithalten soll?
Wenn sie es je schaffen solch eine eierlegende Wollmilchsau auf den Markt zu werfen die nur halbwegs mit den dann aktuellen Grafikkarten mithalten kann lache ich doch nur noch über das "super" Cell/CBEA design. xD
 
... Mein punkt ist das vor 2 Jahren die Performance wohl gereicht hätte ...
Klares nein.

Ja, und für die Bereiche wo man es braucht hat man eine Grafikkarte. Ich verstehe nicht so recht wiso die CPU das übernehmen soll was jetzt die Grafikkarte viel besser kann.
Ich weiss ja nicht was Deine Qualifikation ist, aber hast Du ueberhaupt schonmal
programmiert (auf CPUs und Graphikkarten)? Wenn ja, hast Du auch schonmal
komplexere mathematische Sachen programmiert wie z.B. gewichtete Filter, NURBS,
Polynominterpolationen, interative Matrixloeser oder aehnliches? Oder
programmiere doch einfach mal einen K/D- bzw. Rot-Schwarz-baum (eine dynamische
Datenstruktur) auf einer Graphikkarte.

Das ist ja genau das Problem am Cell, er übernimmt Aufgaben die bereits eher in richtung Grafikkarte gehen würden und auf dieser oft besser funktionieren, ist dann im CPU bereich aber schlechter unterwegs.
Graphikkarten sind fuer gewisse Sache sehr gut, aber fuer viele andere Sachen
auch wieder nicht. Eine Graphikkarte ist i.d.R. genau dann gut, wenn sich das
jeweilige Problem auf ein sogenanntes Steaming-problem abbilden laesst.
Graphikkarten werden ja oft auch als Streaming-architekturen bezeichnet.

Den auf platz 2 habe ich ja herausgenommen da er ein Mischsystem ist.
Deswegen hatte ich ja die Unterscheidung gemacht. Nichtsdestotrotz kommen 99%
der Leistung (beim Roadrunner) von den Cell Prozessoren.

Naja, und die Plätze >100 werden in den Artikeln welche ich lese wohl nicht mehr als beachtenswert empfunden.
Für die angeblich revolutionäre architektur welche damals angekündigt wurde sprechen die 3 plätze mit >100 aber auch nicht gerade...
Ich moechte ja nicht arrogant wirken, aber Deine Worte hier sind schon sehr
haltlos. Ich habe selber jahrelang an / mit einem Cluster gearbeiten; 400
Pentium Xeon Prozessoren. Unser Cluster kam kaum in die Top200 und wir hatten
den zweit-schnellsten Cluster in ganz NRW (nach Juelich). Also bitte.

... Das Intels erster Entwurf ein paar Macken hat ist ja nicht verwunderlich. Wer entwirft schon solch einen Hybriden der den Spagat zwischen Grafikkarte/Vektorisierung, Raytracing und naher x86er Programmierung schaft sowie beim ersten Anlauf perfekt ist? Und dann auch noch halbwegs bei der Performance/Leistungsverbrauch usw. mit über jahrzehnte optimierten/spezialisierten Grafikkarten mithalten soll?
Wenn sie es je schaffen solch eine eierlegende Wollmilchsau auf den Markt zu werfen die nur halbwegs mit den dann aktuellen Grafikkarten mithalten kann lache ich doch nur noch über das "super" Cell/CBEA design. xD
In einer meiner Kommentare (siehe Xenobyte's Blog) habe ich den 4k x 4k
SGEMM-Kernel Test angesprochen. Dieser Test zeigt sehr gut wie performat
ein System ist. Intel ist *technisch* zwar nun weiter als 'Cell', aber sagt
dieses ueber die Performance / Effizienz nur sehr wenig aus.
 
Zuletzt bearbeitet:
Ok, wiso bist du dir da so sicher? Zumindest die speziellen Performance tests sahen nicht extrem schlecht aus - verglichen mit dem was vor 2 Jahren da war.
Du sagst also Intel hat seit mindestens 2 Jahren an einem System weiter entwickelt das bereits vor diesem Zeitraum keine Chance hatte?

Ich weiss ja nicht was Deine Qualifikation ist, aber hast Du ueberhaupt schonmal
programmiert (auf CPUs und Graphikkarten)? Wenn ja, hast Du auch schonmal
komplexere mathematische Sachen programmiert wie z.B. gewichtete Filter, NURBS,
Polynominterpolationen, interative Matrixloeser oder aehnliches? Oder
programmiere doch einfach mal einen K/D- bzw. Rot-Schwarz-baum (eine dynamische
Datenstruktur) auf einer Graphikkarte.
Ja, ich habe bereits programmiert/programmiere und auch bereits auf CUDA. Ich weiß jetzt jedoch nicht was es bringen soll über spezielle strukturen/probleme zu diskutieren die sich besser oder schlechter für Grafikkarten eignen. Es kommt halt mit dieser Technik das Ansätze die auf der CPU gut laufen sich so oft nicht effizient abbilden lassen.
Viel wichtiger ist hier doch das sich in der praxis Grafikkarten für Video En/Dekodierung, Physik effekte, Rendering, ein paar Photoshop effekte usw. verwenden lassen und diese hierbei schneller wie die CPU sind. Im Endeffekt bleibt für den Heimanwender eine verschwindend geringe Anzahl an spezialfällen bei der viele Threads/Prozesse einen großen Vorteil bringen und die Grafikkarte nicht geeignet ist.
Graphikkarten sind fuer gewisse Sache sehr gut, aber fuer viele andere Sachen
auch wieder nicht. Eine Graphikkarte ist i.d.R. genau dann gut, wenn sich das
jeweilige Problem auf ein sogenanntes Steaming-problem abbilden laesst.
Graphikkarten werden ja oft auch als Streaming-architekturen bezeichnet.
Siehe oben.

Deswegen hatte ich ja die Unterscheidung gemacht. Nichtsdestotrotz kommen 99%
der Leistung (beim Roadrunner) von den Cell Prozessoren.
Ja, dies belegt für mich jedoch nur das der Cell keine gute CPU ist. Eine CPU ist für mich die zentrale Recheneinheit welche alle dinge übernimmt die von Speziellen geräten wie GPU, Physik einheit usw. schlecht schlecht erledigt werden, die alles verwaltet, allgemeine aufgaben erledigt usw. Und genau für die Verwaltung haben sie keinen Cell genomen da ein gewöhlicher CPU scheinbar besser war. Daher lasse ich das System als Beleg für Cell = gute CPU nicht gelten. Eher wäre das ein Beleg für Cell = gute spezialisierte Recheneinheit.

Ich moechte ja nicht arrogant wirken, aber Deine Worte hier sind schon sehr
haltlos. Ich habe selber jahrelang an / mit einem Cluster gearbeiten; 400
Pentium Xeon Prozessoren. Unser Cluster kam kaum in die Top200 und wir hatten
den zweit-schnellsten Cluster in ganz NRW (nach Juelich). Also bitte.
Naja, du hast doch gesagt das die Cell nur nicht so gut dasteht weil bei Spielen wenig Optimiert wird, im Wissenschaftlichen/Professionellen bereich sei die Optimierung jedoch wichtiger. Die Top500 Liste ist doch wohl der beste Bereich für letzteres und einen Bereich in dem mehr Optimierarbeiten für eine CPU gegenüber einer anderen zweitrangig sind.
Wenn es gerade einmal 3 Systeme und ein Hybrid in diese Liste schaffen - die viele gewöhnliche Endverbraucher CPU's enthält - und die es (ausser dem Hybrid system) nicht einmal in die vorderen Ränge schaffen, dann kann man doch wohl getrost sagen das die Cell von der Performance zumindest nicht so stark heraussticht das sie wirkliche relevanz erreicht hätte.
 
Zuletzt bearbeitet:
Also wirklich neu is das nicht, man hört/liest oft genug davon...
Und leute ohne Netz sind damit dann sowieso gearscht...
 
Abgesehen davon soll die Videokompression so mies sein, dass Crysis auf Very high nichtmal an High Settings auf einem PC rankommt. Statt den Abogebühren (die sicher nicht gerade billig ausfallen werden) kann ich mir da gleich alle 2 Jahre ne neue GPU kaufen und komme qualitativ sogar noch besser weg.
 
Mal was neues:
PC und Konsolengaming sind beide irgendwann dead, denn dies hier ist die Zukunft:
http://www.areagames.de/artikel/detail/OnLive-Demonstrationsvideo-ist-DER-HAMMER/106241

Hängt alles an der Technik, obs gut funktioniert. Und da die Technik immer weiter voran schreitet ...

Crysis aufm iPhone :D
Interessantes video. Nach seiner Hochrechnung mit den 80ms klingt es aber so als wäre es trotz ihrer anstrengungen auch unter sehr guten/fast idealen Bedingungen bereits am Limit.
 
80ms sind für mich bereits über dem Limit. Das sind immerhin ganze 5 Frames, die Latenz der Engine und des Fernsehers nicht mitgerechnet. Unter 8 Frames Latenz kommt man im Normalfall nicht weg und das ist eigentlich schon lächerlich viel. Bei P2P-basierten Onlinegames noch viel witziger weil der OnLive-Server dann auch noch mit einem anderen PC der irgendwo stehen kann abgleichen muss. :ugly:
 
war das nicht klar, dass OnLive genau so ein Hirngespinst ist, wie die Phantom Konsole? sowas hat imho keine Zukunft
 
war das nicht klar, dass OnLive genau so ein Hirngespinst ist, wie die Phantom Konsole? sowas hat imho keine Zukunft
Naja, in ein paar Jahren könnte ich mir doch vorstellen das soetwas kommen könnte. Die Publisher hätten das sicher gerne.

Auf der anderen Seite, wenn sich das so weiter entwickelt muß man bis soetwas kommt den PC garnicht mehr aufrüsten wodurch ihr Hauptargument für den Endverbraucher auch weg wäre. xD
 
Naja, Cloud-Gaming geb ich wesentlich bessere chancen als der Phantom...

Ich auch, aber nicht signifikant bessere. In den Gebieten mit einer gut ausgebauten IT-Infrastruktur kann man das System sicher exzellent nutzen, aber in Gebieten mit einer miesen Internetverbindung (Stichwort "weiße Flecken auf der DSL-Karte") ist so ein Gerät Unsinn.

Hie und da wird sich das System sicher etablieren können, allein weil EA dahinter steht, aber mittelfristig wird das Projekt keine Unterstützung mehr bekommen, weil entweder a) eine schnelle Marktsättigung eintritt oder b) die technischen Hindernisse dazu führen, dass die User abspringen.
 
ich glaube du verwechselst da einiges - wer sagt, dass das auch "individuell" ist?
Weil man immer noch die Punkte selber vergibt?!?
Ansonsten:Wo im ersten Teil war das individueller?
Auch dort hat man mit Spectre Training die Gesundheitspunkte steigern können.Eventuell noch durch Immunität,wenn man Soldat oder Infiltrator war?

ich
und auf das "es wird actionreicher" gehst du diesmal gar nicht mehr ein?
Was daran ist actionreicher?Diesmal können die Konsolenspieler mehr Knöpfe belegen,was auch im ersten Teil für die Pcler schon ging,so daß das Spiel weniger pausiert werden muss.Man kann aber immer noch pausieren.Was ist also actionreicher?Die Interupts sind außerdem keine Pflicht und noch eine Ergänzung der Rollenspielelemente.
 
Weil man immer noch die Punkte selber vergibt?!?
Ansonsten:Wo im ersten Teil war das individueller?
Auch dort hat man mit Spectre Training die Gesundheitspunkte steigern können.Eventuell noch durch Immunität,wenn man Soldat oder Infiltrator war?
schön, du redest von Mass Effect 1 - bei Mass Effect 2 musst du das noch beweisen, so ziemlich alle Magazine sprechen gegen dich

Was daran ist actionreicher?Diesmal können die Konsolenspieler mehr Knöpfe belegen,was auch im ersten Teil für die Pcler schon ging,so daß das Spiel weniger pausiert werden muss.Man kann aber immer noch pausieren.Was ist also actionreicher?Die Interupts sind außerdem keine Pflicht und noch eine Ergänzung der Rollenspielelemente.

nur weil man pausieren kann, soll das Kampfsystem nicht actionreicher sein? ich kann in Half Life 2 auch jederzweit auf die Pause-Taste drücken. das ganze Spielsystem ist nunmal deutlich schneller als ME1 (hast du ja auch schon gut mit dem "Konsolenspieler können mehr Knöpfe belegen" bewiesen), daran gibt es nichts zu rütteln, so ziemlich alle Videos sprechen gegen dich, auch wenn du das nicht sehen willst
 
Dass ME 2 deutlich mehr Actionelemente als der Vorgänger beeinhaltet, sollte doch *normalerweise* jeder Mensch in den letzten Gameplayvideos erkannt haben.

Aber egal, hier wird etwas vom Thema abgedriftet.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom