Das Ende der Konsolen: DirectX-Erfinder prophezeit den Untergang

Du siehst aber leider das gesamtbild nicht, ist ja schön und gut das man direkt mit c drauf zugreifen kann, das löst aber immernoch nicht das problem das verschiedene bauteile verschiedene möglichkeiten also auch verschiedene programmierung benötigt, als gehen die möglichkeiten auf xhochn wenn man sämtliche grafikkarten durchgeht. nehmen wir mal an das 1 graka generation 10 ableger pro hersteller (in wahrheit mit sämtlichen austattungen weit über 50) das ganze mal 2 (ich nehm nur nvidea und ati/amd) so haben wir in einem kleinen fall 20 verschiedene karten mit 20 verschiedenen specs. die eine engine berücksichtigen muss. das funktioniert so einfach nicht. hier wird dann wieder eine schnittstelle benötigt, und da ist es mir völlig egal ob die hersteller sich au eine einigen (was ich nicht glaube) oder ob dx umgebaut wird um sich dieser neuen generation anzupassen.

und wenn ich das schon lese:
"Ich rechne damit, dass wir in der nächsten Generation 100 Prozent unseres Renderingcodes in einer echten Programmiersprache schreiben werden - nicht DirectX, nicht OpenGL, sondern eine Sprache wie C++ oder CUDA. Eine echte Programmiersprache ist nicht limitiert durch irgendwelche Schnittstellenrestriktionen. Ob das nun auf nVidia-Hardwarte, Intel-Hardware oder ATI-Hardware läuft, ist eine davon unabhängige Frage. Man könnte es auf jeder Hardware laufen lassen, die allgemeinen Code effizient handhaben kann."

nett wie der werte herr (ich denke mal marketingabteilung) sich auskennt... ob opengl oder dx beides wird auch mit c angesprochen es werden hier nur (z.b. für shader 3 effekt x) 1 schnittstelle von c aus angesprochen, was die direkte programmierung des shaders nicht mehr notwendig macht. und wie gesagt, meinetwegen setzen sie nicht auf dx, dann wegen mir auf eine schnittstelle der hersteller.
 
Zuletzt bearbeitet:
also ich denke das Tim Sweeney schon weiß wovon er redet den wen man hauptberuflich den ganzen tag nichts anderes macht als die Leitung der Entwicklung der UT Engin und die Abwicklung der Zusammenarbeit mit Hardware Entwicklern besonders in Hinblick auf zukünftige Programmierung dann ist das bestimmt kein marketing bla bla das macht eher der DirectX-Erfinder der ist in der Situation das die Wichtigkeit seiner Entwicklung in frage steht.

Den Hardwareherstellern legt er nahe, sich an C++ zu orientieren. Andernfalls müsste man sich auf bestimmte Chips festlegen, da es sonst unmöglich sei, eine Engine auf mehreren Plattformen gleichzeitig laufen zu lassen bzw. dorthin zu portieren. Das große Unterscheidungsmerkmal zwischen kommender, konkurrierender Hardware wird Sweeney zufolge einzig die Leistung, nicht die Schnittstellen sein.
Genau das meine ich auch, Grade der größte Hersteller von Grafikkarten Chips INTEL strebt ja diese Lösung an eine einheitliche Mikroprozessor-Architektur die in C angesprochen werden kann. ist dieser schritt erstmal geschafft dann ist ein DX in Zukunft unnötig.
 
DX wird doch nicht unnötig, MS setzt ja alles daran, jetzt auch Programmierung über die GPU einzubauen(ähnlich Nvidias Cuda) .

Und warum sollte man in C++ programmieren wenn DX10 speziell auf grafikanwendungen zugeschnitten ist?! Ich denke es hat schon seinen Grund warum 95% der Spiele am PC DX vorraussetzen, und die restlichen 5% auf OpenGL setzen ^^
 
@MTC001
Ich denke Microsoft hat da nicht viel mitzureden die wichtigen Entscheidungen werden bei INTEL gefällt AMD und ATI kann dann nicht untätig bleiben und wen die auch mitziehen wird Nvidia gezwungen obwohl Nvidias derzeitige Ausgangsposition am schlechtesten aussieht. Die Softwarehersteller werden bei der Sache nicht gefragt die müssen wie immer auf das reagieren was die Hardwarehersteller in ihren Labors herstellen. Was soll Microsoft auch machen wen INTEL sagt wir stellen eine neue Generation an Multicore CPUs her an den spielehersteller wie Epic an dem Chip in C programmieren können und auf den DX gänzlich verzichten.

und Entwicklungen wie Larrabee zeigen ganz eindeutig in welche Richtung die Entwicklung geht und das ding wird kommen da hat Microsoft nix zu melden.
 
Zuletzt bearbeitet:
@MTC001
Ich denke Microsoft hat da nicht viel mitzureden die wichtigen Entscheidungen werden bei INTEL gefällt AMD und ATI kann dann nicht untätig bleiben und wen die auch mitziehen wird Nvidia gezwungen obwohl Nvidias derzeitige Ausgangsposition am schlechtesten aussieht. Die Softwarehersteller werden bei der Sache nicht gefragt die müssen wie immer auf das reagieren was die Hardwarehersteller in ihren Labors herstellen. Was soll Microsoft auch machen wen INTEL sagt wir stellen eine neue Generation an Multicore CPUs her an den spielehersteller wie Epic an dem Chip in C programmieren können und auf den DX gänzlich verzichten.

Du stellst dir das mit, allen ziehen mal fix mit wenn Intel hü oder hot ruft, ziemlich einfach vor- wenn dem so wäre gäbe es heutzutage keine Konkurenz mehr für Intel - die freie Marktwirtschaft funktioniert so nich und AMD/ATI ziehen bestimmt nicht nach sondern bieten was anderes an und dann hat man schon wieder 2 hersteller wo für jeden wieder seperat programmiert werden muss. Und solange es Konkurenz Produkte gibt wird es bei Schnittstellen bleiben um es den Programmiern zu vereinfachen für verschiedene Plattformen zu entwickeln.
Und was sich der Herr Sweeney wünscht und was wirklich wird sind zwei ganz unterschiedliche Paar Schuhe, sieht man auch an der Unreal Engine 3 - welche Features sie ursprünglich hatten sollte laut Herrn Sweeney und welche sie letztendlich hat.
 
@Duke-PCFreak
äh du weist schon das INTEL einen Marktanteil bei CPUs in PCs von 80% hat und mit weitem abstand Marktführer bei GPUs ist oder?
Und bitte was soll Microsoft gegen die Entwicklung von Larrabee ausrichten? die können garnix machen INTEL will auch nun auch in das Pro gaming mit einem neuen ansatz von Grafikchips auf Multiprozessoren die am Anfang noch DX und OpenGL unterstützen aber vor allem das direkte programmieren in C ermöglichen und wenn man das von Epic hört dann weiß mann das ein großes Interessen bei den Herstellern an einer solchen Plattform besteht.
 
@Duke-PCFreak
äh du weist schon das INTEL einen Marktanteil bei CPUs in PCs von 80% hat und mit weitem abstand Marktführer bei GPUs ist oder?
Und bitte was soll Microsoft gegen die Entwicklung von Larrabee ausrichten? die können garnix machen INTEL will auch nun auch in das Pro gaming mit einem neuen ansatz von Grafikchips auf Multiprozessoren die am Anfang noch DX und OpenGL unterstützen aber vor allem das direkte programmieren in C ermöglichen und wenn man das von Epic hört dann weiß mann das ein großes Interessen bei den Herstellern an einer solchen Plattform besteht.

Dir is schon klar das du die 80% net auf den Gamingsektor beziehen kannst?
Da hat AMD einen 1/3 Anteil bei den CPUs und bei den GPUs und keiner, wirklich keiner (selbst Tim Sweeney nicht) programmiert für Intels OnChip Lösungen und bisher hat sich Larrabee in noch rein gar nix bewiesen das er kann was Intel rausposaunt - Echtzeit Ray-Tracing kann ich mit meiner 8800GTS auch machen in Echtzeit - nur in welchem Maße?
Vor allem weil Intel im Grafiksektor bis jetzt ja immer durch Leistung aufgefallen ist (/sarcasm) - nix deutet darauf hin das die jetzt nach Jahren der grässlichen OnChip Lösungen den heiligen Grafikgral gefunden haben.
Übrigens haben Schnittstellen gegenüber C einen Riesenvorteil: sie sind keine Jahrzehnte alte Programmiersprache und es hat einen Grund warum sich die Schnittstellen Programmierung durchgesetzt hat, nur weil Sweeney C Programmierung wünscht muss das nich für alle zählen. Das einzige was sich ändern wird ist die Schnittstelle in ihren Fähigkeiten - eher noch wird die Schnittstelle zum effektivem Tool zur Multihreaded-Programmierung, wo die Schnittstelle die Tasks verwaltet und ja nach System auf CPU und GPU leistungseffizent zu verteilen.
 
Übrigens haben Schnittstellen gegenüber C einen Riesenvorteil: sie sind keine Jahrzehnte alte Programmiersprache und es hat einen Grund warum sich die Schnittstellen Programmierung durchgesetzt hat, nur weil Sweeney C Programmierung wünscht muss das nich für alle zählen.

:rofl2:
Mann oh mann dir ist klar das DX Anwendungen meist in C geschrieben werden und wahrscheinlich ist DX selber in C geschrieben worden.
und wen hier irgentwas veraltet ist dan ja wohl der DX Standard du hast echt keinen plan:
"Ich denke, wir werden eine Unmenge an neuen Spieltypen und Look&Feels sehen sobald das Rendern endlich vom traditionellen SGI-Rendering befreit wurde."

Das derzeitige auch von DirectX verwendete Modell basiere nämlich immer noch auf dem vor 25 Jahren von SGI entwickelten Verfahren und sei damit einfach veraltet.

Das grundkonzept von Larrabee ist alle mal zukunftweisender den die wie schon gesagt:

"Bei den GPU-Kriegen ging es immer darum, immer merkwürdigere Optionen für anisotropische Filterung oder andere esoterische Funktionen, die die Qualität von Spielen nicht grundsätzlich verbessern, hinzuzufügen. Sie verbessern diesen Parameter schrittweise, aber wir sind immer noch im gleichen Maße eingeschränkt, wie wir es vor zehn Jahren waren."

Und daher ist es alle mal besser wen endlich die fesseln die DX und OpenGL den 3D Welten auferlegen abzuschütteln.
 
Zuletzt bearbeitet:
:rofl2:
Ne ist klar wen hier irgentwas veraltet ist dan ja wohl der DX Standard du hast echt keinen plan:


Das grundkonzept von Larrabee ist alle mal zukunftweisender den die wie schon gesagt:



Und daher ist es alle mal besser wen endlich die fesseln die DX und OpenGL den 3D Welten auferlegen abzuschütteln.

Du schmeißt immernoch ständig mit dem Wort Plan rum ohne dabei keinen zu haben.
Erstens ist C eine veraltete Programmiersprache aus den 70ern die einfach nur umständlich zu handeln ist (warum gibts wohl C++ und C Express und C Sharp).
DirectX ist eine Schnittstelle die sich ständig weiterentwickelt (du willst mir ja nich erzählen das DX11 noch irgendwelche Ähnlichkeiten mit DX3 hat) - wer sagt es bleibt bei den aktuellen Rendermethoden bei DX? Früher gabs auch nur DDraw und dann kam Direct3D.
Und ehe wir uns zu einer genormten Standardchiptechnick nähern (was nie passieren wird), und damit der Möglichkeit von alles über C an die Hardware zu programmieren, wird man sich vom traditionellen BUS-System verabschieden und damit den bisherigen I/O Routinen, was C ebenfalls hinfällig macht.
 
@Duke-PCFreak
Ich denke mal das wen heute jemand von C spricht er nicht die Sprache aus den Siebzigern meint sondern die aktuelle Derivaten so viel generelles Verständnis sollte sein. Aber für die langsamen unter uns wen ich im weiterem verlauf von windows spreche dann meine ich nicht Windows 3.11 sondern ein aktuelles nicht das du das auch wieder falsch verstehst. :uglyhammer2:

Das einzige was sich an DX entwickelt ist wie schon gesagt das sich esoterische Funktionen hinzufügen die aber nicht wirklich mehr was bringen die ganze DX Technik hat sich seit DX 9 und den shedern absolut festgefahren es ist mal hier mal da ein etwas bessere oder aufgemöbelter Effekt zu sehen aber nix von Bedeutung. Das ganze System steckt in der Sackgasse und nur wen sich ganz davon gelöst wird kann es weitergehen. DX ist veraltet und mit neuer Technik wie Multicore total hinfällig. So das schon hardwaren und engin Hersteller offen über die Abschaffung von DX sprechen also wie deutlich soll es noch werden?
 
@Duke-PCFreak
Ich denke mal das wen heute jemand von C spricht er nicht die Sprache aus den Siebzigern meint sondern die aktuelle Derivaten so viel generelles Verständnis sollte sein. Aber für die langsamen unter uns wen ich im weiterem verlauf von windows spreche dann meine ich nicht Windows 3.11 sondern ein aktuelles nicht das du das auch wieder falsch verstehst. :uglyhammer2:

Wie gesagt du hast halt keine Ahnung, wenn man auch heutzutage von C spricht meint man C, wenn man C Sharp meint sagt man auch C Sharp und wenn man C++ meint sagt man C++ - lass dir das von einem Informatik Studiertem gesagt sein.

Das einzige was sich an DX entwickelt ist wie schon gesagt das sich esoterische Funktionen hinzufügen die aber nicht wirklich mehr was bringen die ganze DX Technik hat sich seit DX 9 und den shedern absolut festgefahren es ist mal hier mal da ein etwas bessere oder aufgemöbelter Effekt zu sehen aber nix von Bedeutung. Das ganze System steckt in der Sackgasse und nur wen sich ganz davon gelöst wird kann es weitergehen. DX ist veraltet und mit neuer Technik wie Multicore total hinfällig. So das schon hardwaren und engin Hersteller offen über die Abschaffung von DX sprechen also wie deutlich soll es noch werden?

Das heißt übrigens Hardware-Hersteller und Engine-Hersteller und bisher spricht nur Sweeney von einem weiterkehrendem Software-Modus (was übrigens die Kernaussage seines Statements ist) und keinesfalls von einer kompletten Abschaffung von DX. BTW halte ich nach wie vor John Carmage für wesentlich fähiger als Tim Sweeney und der ist mit der ID Tech 4 und 5 erstmal überhaupt zu DX gewechselt, im Gegensatz zu den OpenGL Engines vorher (was übrigens nur eine Art C Compiler speziell für Grafikanwendungen ist). Zu Dx5 Zeiten gabs bestimmt auch Leute wie dich die gesagt haben das System hat sich festgefahren und dann kam D3D und schon war neuer Schwung da, wer sagt denn das DX nicht Multicore-fähig ist? wer sagt denn es bleibt bei D3D? Vielleicht kommt ja ne Art DirectRayTrace.
 
@Duke-PCFreak
Genau und wenn man von einem Mac spricht meint mann natürlich immer den mac von 1984 und und wenn jemand sagt das er ein mercedes fährt dann meint er natürlich den von 1898 is ja klar nicht! :rofl2:
Das problem ist das zwischen C, C++ und C# teilweise sehr große unterschiede bestehen. Außerdem werden alle drei Sprachen noch immer verwendet.
Deshalb sagt jemand sicherlich nicht C++ und bezieht sich auf C#.

Ach ja und CUDA wird noch immer in einem abgespekten C programmiert. (Und mit C meine ich das ursprüngliche C)
 
@Underdog: solche Beleidigungen machen dich nicht gerade glaubwürdig *rolleyes*. Zudem weiss ich nicht, was du immer mit deinem "Multicore"-Geschwätz willst. Grafikchips sind Multicores, bevor MulitGPU-Lösungen aufkamen! Wenn du gross die Multicore-Zukunft prophezeist, dann bitte, was stellst du dir genau darunter vor?
 
lustigerweise ist die Lebensdauer der PS3 auf 10 jahre angesetzt - ebenso wie die Lebensdauer der PS2 auf 10 Jahre angesetzt war. Die wird die 10 Jahre ohne Zweifel erreichen und evtl sogar noch länger leben, als dem Herrn da bewusst ist. Was Nintendo und Sony schaffen müssen ist sich von MS und DX deutlich abzusetzen. In der PS3 arbeitet ja bekanntermaßen ein Derivat eines DX Kerns. Und Sony sollte sich, auch evtl mit Unterstützung von Nvidia, sich wieder selber um die Grafikchips kümmern.
 
So wie es finanziell bei Sony läuft, könnten es auch 15 oder 20 Jahre PS3 werden.
 
Zurück
Top Bottom