Xyleph
L99: LIMIT BREAKER
- Seit
- 9 Mai 2006
- Beiträge
- 42.348
Ich verstehe schon was du meinst, das beflügelt aber eher deine Neugierde als Konsument und Fan, weniger die Entwickler selbst. Prozessoren sind für mich ein Mittel zum Zweck, die sollen kein Ausdruck einer Vorliebe zu einer gewissen Architektur sein, sondern jeglichen Code so schnell wie möglich berechnen. Das kann ein Cell oder auch jeder andere eigenwillige Prozessor einfach nicht in gleichem Maße liefern wie ein POWER7+Fermi. Wenn man eine älter GPU verwendet ist Cell natürlich schon viel sinnvoller, üblicherweise liegt der Fokus aber auf der GPU. Je ähnlicher sich GPU und CPU werden, desto weniger Sinn macht es mir drei Compilern auf drei Architekturen zu arbeiten und sich zusätzliche Komplexität ins System zu holen wo man sie nicht unbedingt braucht. Natürlich wär's interessanter für einen Techjunkie einfallsreiche Architekturen zu sehen aber ich bin dann doch eher Pragmatiker und Utilitarist als Technikfreund. Mir wär's lieber wenn alle Konsolen exakt die gleiche Hardware hätten und man sich primär auf Inhalte und Effizienz konzentrieren würde. Hier wird eh viel zu viel über Technik gebrabbelt, woran ich zugegebenermaßen nicht ganz unschuldig bin. ;-)
Eine Art der Optimierung ziehlt darauf ab mehr Berechnungen auf Hardware X auszuführen. Eine andere Art der Optimierung zielt darauf ab mit weniger Berechnungen zum gleichen Ziel Y zu kommen. Jetzt rate mal in welcher Methode deutlich mehr Potenzial und Möglichkeiten für Experimente steckt. ;-)
Ich habe überhaupt keinen Zweifel daran, dass es selbst mit Standardhardware Ewigkeiten dauern wird bis man sie vollkommen ausreizt, vorausgesetzt sie ist flexibel genug. Auf der SIGGRAPH werden jedes Jahr unzählige Ideen präsentiert, die nur auf ihren Einsatz warten. Bis es neue Kosolen gibt wird da aber nicht viel passieren.
Da hast du natürlich recht, einerseits dass es mich eher als Interessierter interessiert und anderseits dass die Sicht mehr auf die Software gelegt werden sollte, und nachdem ich nun seit zwei Jahren wiedermal die Zeit gefunden habe mein C++ Kompendium auszugraben, werde ich wohl irgendwann deine Sicht teilen, dass die Herausforderung beim Coden nicht bei der zeitaufwendigen Entkryptung der Hardware liegen sollte. Konsolen der ersten Genereationen waren vergleichsweise auch einfach gestrickt, sei es SNES oder PSone, und auch bei diesen wurden immer wieder Wege gefunden bessere Ergebisse zu liefern, was deine These unterstützt. Hier weiß ich aber nicht, ob es allgemein an dem Wachsen der Erfahrung des früher noch jungen Mediums lag, dessen Wachstum heute schon dünner geworden ist, die Programmierung generell hardwareseitiger verlief als es heute der Fall ist und heute in dem Umfang auch gar nicht mehr möglich ist, oder ob Devs durch einen einfacheren Einstieg mehr Zeit fanden auch mal einen anderen Weg zu testen, was aber wiederum Bestandteil der ersten beiden Punkte wäre.
Interessant war die Methodik von Sega bei der Dreamcast. Meines Wissen stellten sie Entwicklern zwei APIs zur Verfügung, eine Windowsnahe, welche Ports davon eineinfachte, und eine zusätzliche welche einen tieferen Zugriff auf die Hardware erlaubte. Das Ergebnis dieser waren dann wohl Spiele wie Shenmue, Soul Calibur, Resi CV und Sonic, welche sich teilweise extrem von den anderen unterschieden.
Und genau durch diesen API Beispiel stell ich mir die Frage, inwieweit Entwickler heute noch Zugriff auf die Hardware haben, oder wie stark sie doch an die Eigenschaften dieses Abstraction Layers gebunden sind, was gleichzeitig Einschränkungen mit sich führt?
Wenn letzteres der Fall ist, wirkt Fermi nach den bisherigen Erklärungen fast wie Back to the Roots ( hab mich ewig nicht mehr mit Prozessortechniken auseinander gesetzt, hatte daher keinen Schimmer was das Ding überhaupt ist

Zuletzt bearbeitet: