DirectX Desaster

Ist auf dem PC Spielemarkt tote Hose?

  • Klar, es gibt zur Zeit gar nichts zum Zocken

    Stimmen: 0 0,0%
  • Es gibt was, nur leider sind es nur Enttuschungen

    Stimmen: 0 0,0%
  • Bldsinn. Auf dem PC gibt es einen Haufen an Titeln und geilen Top Titeln

    Stimmen: 0 0,0%
  • Ich zocke nicht am PC. Konsolen sind sowieso besser

    Stimmen: 0 0,0%

  • Stimmen insgesamt
    0
Status
Nicht offen für weitere Antworten.

Lord Hectic

L11: Insane
Thread-Ersteller
Seit
15 Aug 2001
Beiträge
1.668
Ich zeige euch jetzt mal was:
Das kann der PC. Echtzeit!
105794fotostory.jpg


105791fotostory.jpg


105790fotostory.jpg


Das sieht man am PC. Echtzeit!
Wer will kann es sich hier runterladen.

sof2-007.jpg


sof2-006.jpg



Wieso der Unterschied? Heee! Der PC kann doch alles. Ole, Ole.
Ganz einfach. Deswegen:
Da es das Diagramm bei Tom's Hardware nicht mehr gibt, sieht man den Grund leider nicht :(

Die Sache mit DirectX und OpenGL ist zur Zeit ein riesen Desaster.
DirectX8.0 unterstützt Pixel Shader 1.2 (GeForce). DirectX8.1 unterstützt Pixel Shader 1.4 (Radeon, nix GeForce).
OpenGl hat nichts davon, noch nicht mal Texturkompression, ist aber in anderen Sachen, dank das offenen Codes, meiner Meinung nach leistungsstärker, wenn man sich einige OpenGL Benchmarks anguckt (GLexcess ist sehr empfehlenswert. Hat sogar meinen Lieblingseffekt: Motion Blur. Und nicht so ein lausiges Motion Blur von nVidia mit dem Vertex Shader). Können soll es OpenGL erst ab Version 2.0 und der offzielle Release ist erst im Frühjahr 2003. Mit DirectX9 wird sich Microsoft Zeit laßen (Xbox).

Erst DirectX10 soll aber diese plattformunabhängige, auf C basierende Shader Sprache beinhalten.

Alles klar. Also, was läuft jetzt?

Achso nVidia plant Ende des Jahres eine neue Grafikkarte auf den Markt zu schmeißen.
Nein. Keine GeForce5, sondern was ganz neues. Mit neuer GPU Archtiktur, etc. Deshalb auch nicht der Name GeForce mehr. nVidia spricht von einem Sprung, wie von TNT auf GeForce. Was soll das aber, wenn es keine passenden Schnittstellen gibt?

_________________
penguin.gif

Alles was schiefgehen kann, wird schiefgehen

<font size=-1>[ Diese Nachricht wurde geändert von: Adam am 2002-04-09 23:01 ]</font>

<font size=-1>[ Diese Nachricht wurde geändert von: Adam am 2002-04-19 13:37 ]</font>
 
wow, motion Blur mag ich auch total gernem dass ist doch so ne art Hitzeflimmern oder??? z.b. in der wüste wenn man in die ferne guckt , ober bei GT3 aus, motor! ist doch motion blur oder??
 
SilentSin schrieb am 2002-04-09 22:59 :
wow, motion Blur mag ich auch total gernem dass ist doch so ne art Hitzeflimmern oder??? z.b. in der wüste wenn man in die ferne guckt , ober bei GT3 aus, motor! ist doch motion blur oder??

Ich glaube, daß es eine Art ist. Aber so was ähnliches gibt es schon dank des Texture Shaders. Sieht man schon in der X-Isle Tech Demo.
 
OpenGl hat nichts davon, noch nicht mal Texturkompression, ist aber in anderen Sachen, dank das offenen Codes, meiner Meinung nach leistungsstärker, wenn man sich einige OpenGL Benchmarks anguckt (GLexcess ist sehr empfehlenswert. Hat sogar meinen Lieblingseffekt: Motion Blur. Und nicht so ein lausiges Motion Blur von nVidia mit dem Vertex Shader). Können soll es OpenGL erst ab Version 2.0 und der offzielle Release ist erst im Frühjahr 2003. Mit DirectX9 wird sich Microsoft Zeit laßen (Xbox).

Es gibt auch OpenGL mit allen neuen Features. NVidia selbst hat Erweiterungen geschrieben. Is' zwar noch nicht offiziell als Standard verabschieded, wird aber mit Sicherheit benutzt werden (z.B. von Doom). Texture-Kompression kann OpenGL übrigens auch.

Erst DirectX10 soll aber diese plattformunabhängige, auf C basierende Shader Sprache beinhalten.
Dann ist doch der Sinn des Shaders dahin. Ich will doch die T&L-Engine mit dem Shader sozusagen selbst beeinfluss und programmieren, damits schneller wird... da kommt man wohl um Assembler nicht rum.
Achso nVidia plant Ende des Jahres eine neue Grafikkarte auf den Markt zu schmeißen.
Nein. Keine GeForce5, sondern was ganz neues. Mit neuer GPU Archtiktur, etc. Deshalb auch nicht der Name GeForce mehr. nVidia spricht von einem Sprung, wie von TNT auf GeForce. Was soll das aber, wenn es keine passenden Schnittstellen gibt?
Das war schon immer NVidias Produktpolitik. Jedes Jahr ne neue Generation (TNT, Geforce, Geforce3) und ein halbes Jahr danach jeweils eine aufgebohrte Version davon (TNT2, Geforce 2, Geforce 4). Is also nix neues sondern das war schon immer so. Das NVidia den Namen Geforce aufgibt halte ich für unwahrscheinlich, da sie ihn als Markennamen doch gerade so schön aufgebaut haben. MS benennt "Windows" auch nicht plötzlich in "Doors" um und der Gameboy heisst immer noch Gameboy.
Wegen der Schnittstellen... die Geforce 3 ist ja schon länger da. Und? Seit wann gibt es Spiele, die die Features der GeForce 3 unterstützen (so dass man auch einen Unterschied sieht!!!)? Noch nicht. Comanche 4 oder Aquanox sehen auf ner GeForce 1 so ähnlich aus, dass ich selbst bei genauerer Betrachtung keine Unterschiede sehen konnte. Is also auch alles wie immer. NVidia bringt den Chip, MS ein halbes Jahr später das passende DirectX und noch ein halbes Jahr später kommen dann so langsam die ersten Spiele, die das ausnutzen.


 
Mit Motion Blur versuchen die Entwickler oft das schlechte AA zu vertuschen! ;-)
z.B. in GT3, dort sieht man es eindeutig.
 
WOLVERINE schrieb am 2002-04-10 08:02 :
Mit Motion Blur versuchen die Entwickler oft das schlechte AA zu vertuschen! ;-)
z.B. in GT3, dort sieht man es eindeutig.

Das ist nichts neues. Cool sieht es aber trotzdem aus. ;-)
 
Motion Blurr ist ne ziemlich geile Technik. Sieht geil aus und vertuscht AA. Also was will man mehr? :-D
 
Lord Hectic schrieb:
Ich zeige euch jetzt mal was:
Das kann der PC. Echtzeit!

Das Problem ist nur, daß das eine nette Grafikdemo ist - aber sonst nichts.
Zu einem richtigen Spiel (und darum geht es hier doch eigendlich) gehört allerdings viel, viel mehr als nur die Grafik auf den Bildschirm oder Fernseher zu zaubern.

Selbst die ersten PS2 Grafikdemos hatten übertrieben viele Effekte, welche sich in einem Spiel gar nicht alle gleichzeitig realisieren lassen, da man ja auch noch etwas Interaktion haben möchte. Alleine die Routinen für die KI können die schöne Rechenzeit gleich wieder ruinieren.
 
Ja, aber die KI wird meiner Meinung nach nicht viel an der Performance ändern ,da die Cpu sie berechnet und nicht die GPU.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom