PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Früher gab es Zelda, heute gibt es Twilight Princess

Liste ließe sich beliebig fortsetzen ^^

Bei Shootern musste man früher noch Healthpacks oder ähnliches suchen und hölle aufpassen, dass man nich in Gegner reinrennt. Heute wartet man einfach kurz :ugly:
Das erinnert einen an die guten Quake, Soldier of Fortune und Half-Life Zeiten. Mit 12 HP die Daumen drücken das man es doch irgendwie überlebt.
 
Finde diese vercasualisierung der Shooter auch blöd. Demnächst füllt sich dann auch die Munition von alleine auf ...
Es ist nicht nur blöd sondern auch verdammt schade.
So einen Adrenalinstoß wie damals als ich den Leviathan (hieß das Ding so?) bei Half-Life 1 mit nur noch 3 HP besiegt hatte gibts bei der "Ich versteck mich kurz hinter dem Felsen und die Elfen füllen meine Energie wieder auf" Methode nicht mehr.
Aber die Methode ist halt einfacher für faule Entwickler weil sie nicht darüber nachdenken müssen wo ein Medkit hinkommt um das Spiel fair zu machen.
 
Wird es auch bei Mass Effect 2 geben.
Kurz hinter eine Kiste stellen und die HPs laden sich vollautomatisch wieder auf...
 
Standard sehe ich als einfach an, ganz links sehe ich als sehr einfach an :ugly:
Oblivions Standardeinstellung entspricht denen der höchsten Mass Effect Schwierigkeitstufe.
Und da sie eh mit Mods gespielt haben,wo sich Gegner nicht dem Level entsprechend anpassen(Ziel eines Rpgs soll doch sein,deutlich stärker als die Gegner zu werden)
 
Oblivions Standardeinstellung entspricht denen der höchsten Mass Effect Schwierigkeitstufe.
halte ich für ein Gerücht


Mass Effect war zwar einfach, aber so einfach war es dann doch nicht
Und da sie eh mit Mods gespielt haben,wo sich Gegner nicht dem Level entsprechend anpassen(Ziel eines Rpgs soll doch sein,deutlich stärker als die Gegner zu werden)

ich habe Oblivion zuerst ohne Mods durchgespielt, da habe ich einen guten Eindruck auf das verhunzte System bekommen



schon die Mass effect Zitate gelesen, die ich gepostet habe?
 
Zuletzt bearbeitet:
Das die PowerPC architektur viel mehr beeindruckt bezweifle ich. Für die XBox hat es ja scheinbar auch gereicht.
Der Power-7 beeindruckt schon um einiges mehr. Ein Memorykontroller pro Kern ist schon
eine feine Sache. Schau Dir mal die On-chip-speicherbandbreite vom Power-7 an. :D

Und der Larrabee war für 2/3 Jahre früher geplant. Das er nun performance mäßig nur mit der letzten Grafikgeneration mithalten kann verwundert da nicht alzu sehr. ...
Hat mit Zeit nicht wirklich viel zu tun. Es geht viel mehr um die Architektur.

Was für eine Parallelisierung würdest du dir den wünschen? Das modell von den Grafikkarten ist für viele Probleme garnicht/schlecht verwendbar.
Threading (task-parallelism) ist fuer Server und fuer kleinere Problemgroessen recht okey.
Aber leider skalieren ge-threadete Programme i.d.R. nur sehr schlecht mit der
Problemgroesse.

Was ich mir wuensche? Data-parallel + Message-passing. Message-passing ist leider auf
Graphikkarten noch nicht moeglich, aber vielleicht wird Fermi hier nun auch Abhilfe schaffen
koennen. Auf Intel Prozessoren geht sowas auch nicht, weil Intel eben den direkte Zugriff auf
den Speicher selber kontrollieren will (mit nur einem Memorykontroller, den man nicht mal
programmieren kann, oh man). Das heisst, es gibt keine Memory-assembler-befehle mit
denen man Datenbloecke (Messages) asynchron, z.B. zwischen den einzelnen 'Caches' der
jeweiligen Kerne, hin und her schieben kann. Ob man dieses mit dem Power-7 machen kann,
ist momentan noch nicht klar. Aber immerhin hat jeder Power-7 Kern schonmal seinen
eigenen Memorykontroller.

Auf Cell kann man dieses aber alles machen. Cell ist Freiheit par excellence. Auf Cell
kann man jedes Parallelisierungsmodell abbilden. Natuerlich ist das 'Data-parallel +
Message-passing'-Modell etwas schwieriger zu programmieren, aber der Performancegewinn
ist enorm. Leider checken das aber nur recht wenige (Spiele-) Programmierer, da deren
Intel-Sicht sie voellig blind gemacht hat (siehe Valve). In der Wissenschaft (Scientific
Computing) kennt man die Vorteil aber nur zu gut. Spieleprogrammierer haben aber leider
nicht dasselbe Level.

Wie auch immer, wenn Du mehr wissen willst, dann lies einfach mal ein paar meine
Comments in Xenobyte's Blog; Playstation 4: Gerüchte zur Technik - Update: PS4-Controller.

@PC-Intel-Fanboys; Wenn hier jemand hinterher hinkt, dann ist es Intel. War mal anders,
I know. Architekturmaessig ist AMD z.B. viel weiter. Und auch die Graphikkarten machen
die richtigen Schritte, siehe Fermi und Fusion. Was macht Intel? Intel steckt Millionen in
FailToBe (Larrabee). Wie kann so ein Produkt (von Intel!) failen? Die Leute (PC'ler) sprechen
von Cell als ein Fail, oh man.... Ich hoffe, einige wachen bald mal auf.
 
das Spiel wird actionorientierter und es werden Skills gestrichen, das ist Fakt

Nein,wird es nicht.Es gibt lediglich die Möglichkeiten,mehr Fähigkeiten zu "mappen",so daß man nicht ständig das Pausenrad aktivieren muss und ein größerer Teil des Kampfes in "Echtzeit" standfinden.
Man kann aber weiterhin pausieren.
Das wars schon mit actionorientiert.Falsch ist auch,daß es weniger Fähigkeiten gibt.Sämtliche Fähigkeiten lassen sich in zwei Richtungen weiterentwickeln.Bonustalente (etwa Slam) kommen noch hinzu.
Das erfährt man aber nur,wenn man ab und zu mal im offiziellem Forum vorbeischaut.
http://meforums.bioware.com/viewforum.html?forum=144
http://masseffect.wikia.com/wiki/Throw
Hier ein Beispiel.Werfen lässt sich zu Heavy Throw oder Throw Field weiterentwickeln.

Oh,es wird sogar die Möglichkeit einer schwule Romanze geben...
 
Zuletzt bearbeitet:
"Die Spezialisierungen auf bestimmte Waffentypen hat Bioware ebenso entfernt wie den individuellen Ausbau von Lebenspunkten und Rüstungswerten."

Falsch.Mehr "Lebenspunkte" erhält man durch Ausbau des klasseneigenen Talentes,mit dem man auch seine Verhandlungsfähigkeiten und Abkühlzeiten verbessert.Rüstung lässt sich nun selber an seine Bedürfnisse anpassen.Ist keine Fähigkeit mehr,aber abhängig von den Forschungsmissionen,die man gemacht hat.
 

*

*lol* also wenn die PS4 mit einem stink normalen Intel auf den Markt kommen sollte dürfte es lustig werden und die Mutation zum besseren wäre vollendet.

Inwiefern ist Intelschrott besser als die Powerpcarchitektur?
Den Fehler von Microsoft wird Sony nicht wiederholen.Oder Intel verzichtet gänzlich auf die üblichen Gewinnspannen,um im Konsolengeschäft Fuss zu fassen,was eher unwahrscheinlich ist.
 
http://img51.imageshack.us/img51/4265/engineerskills.jpg
Letzer Versuch.Letzes Bild.Was liest man da?
"Health +5%"
Also,kein individueller Ausbau von Lebenspunkten mehr???

ich glaube du verwechselst da einiges - wer sagt, dass das auch "individuell" ist?

und auf das "es wird actionreicher" gehst du diesmal gar nicht mehr ein?

Ein Bespiel für den Nonsens,den das zitierte Spielemagazin geschrieben hat.
hauptsache man reimt sich selber etwas zusammen
 
Hat mit Zeit nicht wirklich viel zu tun. Es geht viel mehr um die Architektur.
Es hat sehr wohl mit Zeit zu tun. Als sie das teil entwickelt haben war CUDA noch nicht einmal auf dem Markt.
Als Vergleich:
Bei AMD hat man das selbe ja öfters gesehen, gutes Produkt/Architektur, verzögerungen um ein Jahr oder so und schon war es nur noch zweitklassig.

Threading (task-parallelism) ist fuer Server und fuer kleinere Problemgroessen recht okey.
Aber leider skalieren ge-threadete Programme i.d.R. nur sehr schlecht mit der
Problemgroesse.
Na dann was ist das Problem bei Intel? Mich interessiert doch relativ wenig wie schnell der CPU bei wissenschaftlichen anwendungen ist bzw. sein könnte. Relevant ist wieviele Probleme es für Heimanwender gibt die durch hochparallelen CPU's (trotz Grafikkarte die dasselbe macht) merklich schneller laufen.

Auf Cell kann man dieses aber alles machen. Cell ist Freiheit par excellence. Auf Cell
kann man jedes Parallelisierungsmodell abbilden. Natuerlich ist das 'Data-parallel +
Message-passing'-Modell etwas schwieriger zu programmieren, aber der Performancegewinn
ist enorm. Leider checken das aber nur recht wenige (Spiele-) Programmierer, da deren
Intel-Sicht sie voellig blind gemacht hat (siehe Valve). In der Wissenschaft (Scientific
Computing) kennt man die Vorteil aber nur zu gut. Spieleprogrammierer haben aber leider
nicht dasselbe Level.
Meines wissens gibt es keine reinen Cell systeme die in der Top 500 liste der schnellsten systeme liegt. Wiso ist das so? Wenn irgendwo die performance zählt dann doch wohl dort.

@PC-Intel-Fanboys; Wenn hier jemand hinterher hinkt, dann ist es Intel. War mal anders,
I know. Architekturmaessig ist AMD z.B. viel weiter. Und auch die Graphikkarten machen
die richtigen Schritte, siehe Fermi und Fusion. Was macht Intel? Intel steckt Millionen in
FailToBe (Larrabee). Wie kann so ein Produkt (von Intel!) failen? Die Leute (PC'ler) sprechen
von Cell als ein Fail, oh man.... Ich hoffe, einige wachen bald mal auf.
Mein letzter CPU war von AMD, der aktuelle ist wieder von intel, nach meiner Meinung aktuell die bessere architektur (wenn es um höhere performance geht). Vor ein paar jahren war es anderst.
Und Intels versuch würde ich nicht direkt mit Cell vergleichen. Zum einen sitzen beim Cell mehrere Unternehmen im Bot und IBM hat bereits einiges an Erfahrung mit CPU entwicklungen. Und so revolutionär ist der Cell von der Technik nicht - enthält ja sogar einen Power PC.

Intel hat/hatte demgegenüber noch keine Erfahrung im High end Grafikbereich, hoher parallelisierung von x86 und raytracing. Im Raytracing mußten sie ja die Forschung selbst vorantreiben und schauen wer von den Spieleentwicklern überhaupt bei soetwas mitmachen würde.
-> Ein Flop vielleicht, aber unter komplett anderen Bedingungen.
 
Es hat sehr wohl mit Zeit zu tun. Als sie das teil entwickelt haben war CUDA noch nicht einmal auf dem Markt.
Als Vergleich:
Bei AMD hat man das selbe ja öfters gesehen, gutes Produkt/Architektur, verzögerungen um ein Jahr oder so und schon war es nur noch zweitklassig.
Du sprichts von Architektur-revisionen, ich hingegen spreche von der Architektur
selbst. Diese aendert sich deweilen sogut wie gar nicht. Z.B. haben Pentium und
Itanium zwei verschiedene Architekturen. Und nur weil man z.B. die Pipeline
verkuerzt, etc., aendert sich dadurch ja nicht die Architektur.

Na dann was ist das Problem bei Intel? Mich interessiert doch relativ wenig wie schnell der CPU bei wissenschaftlichen anwendungen ist bzw. sein könnte. Relevant ist wieviele Probleme es für Heimanwender ...
Fuer MS Word & Co. braucht man sowas natuerlich nicht, aber wenn
Multimediaanwendungen ins Spiel kommen, so aendert sich die Situation schon
gewaltig. Software wie Photoshop, Datenbanken, Video De- und Encoder,
Physikengines, etc. profitieren kaum vom der Taskparallelisierung.

Meines wissens gibt es keine reinen Cell systeme die in der Top 500 liste der schnellsten systeme liegt. Wiso ist das so? Wenn irgendwo die performance zählt dann doch wohl dort.
Dann bist Du aber schlecht informiert. :wink3:

Top500.org : Nov. 2009

Reine Cell-systeme:
[Rang] [Institut] [System]
[110] [FZJ] [QPACE SFB TR Cluster, PowerXCell 8i, 3.2 GHz]
[111] [Uni Regensburg] [QPACE SFB TR Cluster, PowerXCell 8i, 3.2 GHz]
[112] [Uni Wuppertal] [QPACE SFB TR Cluster, PowerXCell 8i, 3.2 GHz]

Cell-systeme:
[2.] [DOE/NNSA/LANL] [Roadrunner: BladeCenter QS22/LS21 Cluster, PowerXCell 8i
3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband]

Die hohe Peak-performance bei Roadrunner kommt von den Cell-prozessoren. Die
Opterons spielen lediglich eine Managementrolle (job scheduling, etc.).

"Interessanterweise" fuehren die reinen Cell-systeme gar die green-Top500 an
(~ GFLOPS / Watt).

Mein letzter CPU war von AMD, der aktuelle ist wieder von intel, nach meiner Meinung aktuell die bessere architektur (wenn es um höhere performance geht). Vor ein paar jahren war es anderst.
Right. AMD hat eben etwas gepennt. Aber AMD's Memoryinterface
(Memorykontroller + Hyper-Transport) ist wesentlich leistungsfaehiger als das
von Intel. Leider schwaechelt AMD aber an anderer Stelle.

... Und so revolutionär ist der Cell von der Technik nicht - enthält ja sogar einen Power PC.
Hier zeigt sich etwas von Deinem Missverstaendnis ueber Architekturen. Der
PowerPC bildet ja nicht die Cell-architektur, er ist (bzgl. der Cell-architektur)
eine austauschbare Komponente. Der PowerPC im Cell spielt nur eine
Managementrolle, mehr nicht. Man koennte ihn gar durch einen Power-7
ersetzen. Nochwas. Der PowerXCell 8i Prozessor ist lediglich eine Revision
der Cell-architektur. Die allgemeine Cell-architektur ist unter den Namen
Cell Broadband Engine Architecture (CBEA) bekannt. Schaut man sich
nun CBEA genau an, dann sieht man was daran revolutionaer ist. Dafuer
benoetigt man aber 'einiges' an Wissen.

Intel hat/hatte demgegenüber noch keine Erfahrung im High end Grafikbereich, hoher parallelisierung von x86 und raytracing. Im Raytracing mußten sie ja die Forschung selbst vorantreiben und schauen wer von den Spieleentwicklern überhaupt bei soetwas mitmachen würde.
-> Ein Flop vielleicht, aber unter komplett anderen Bedingungen.
Ob Raytracing oder nicht, spielt keine Rolle. Larrabee bekommt seine Daten
nicht schnell genug. Und dass ist ein Fehler im Design des Memoryinterfaces.
Interessanterweise spiegelt das Design eines Memoryinterfaces schon zu einem
Grossteil die Architektur selbst wieder. Intel wollte halt mit ihrer
x86-variante ein Multicoresystem aufbauen. War klar, dass das nicht
funktioniert. Und weisst Du was Intel derzeit macht? Sie bauen ein neues
Memoryinterface fuer Larrabee. ;)
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom