RADEON™ X800: Erste Grafikdemos !

  • Thread-Ersteller Thread-Ersteller Frenck
  • Erstellungsdatum Erstellungsdatum

Frenck

L19: Master
Thread-Ersteller
Seit
24 Apr 2003
Beiträge
18.644
x800_Ruby1.jpg

x800_ruby4.jpg

21748508_0be8f7d587.jpg


http://www.ati.com/developer/demos/rx800.html

Also mir bleibt die Spucke weg :o

Wird das wohl der X-Box 2 Grafikchip über den gemunkelt wird ?
 
Zu diesen Lippen sag ich nur:

:love7:


:lol:

Mal sehen ob die jetzt auch noch zusatzlüfter zusatznetzteil und zusatzgehäuse brauchen. :rolleyes:

/ajk
 
in der xbox2 SOLL(->ist keines falls sicher) der übernächste ati chip verwendung finden(R500(?))
 
darkman schrieb:
in der xbox2 SOLL(->ist keines falls sicher) der übernächste ati chip verwendung finden(R500(?))

ja du hast recht, es wird sicher kein r420 abkoemmling der x800er serie!

ich tipe alleine schon wegen der unterstuetzung von direktX next auf einen derivat des r500er chipes. ich gehe jedoch von einer abgewandelten form des orginal r500er desigen aus, da fuer die konsole differierende gesichtspunkte gegenueber pc-hardware wichtig sind!
 
naja die grafikdemo haut mich echt nicht um.
da gefiel mir die NV40 demo um einiges besser.

allein die animationen in der ati demo sind nicht grad hammer.
 
/ajk schrieb:
Mal sehen ob die jetzt auch noch zusatzlüfter zusatznetzteil und zusatzgehäuse brauchen. :rolleyes:

/ajk

"Leistungsaufnahme: 300-Watt-Netzteil genügt
Neben der Performance hat ATI besonders auf eine geringere Leistungsaufnahme der neuen X800-Reihe geachtet. GeForce-6800-Ultra-Grafikkarten benötigen zwei zusätzliche Stromanschlüsse, dabei ist ein Netzteil von mindestens 480 Watt Voraussetzung. Dagegen genügen den neuen Radeon-X800-Modellen ein Stromstecker und Netzteile, die eine Ausgangsleistung von 300 Watt bieten. "

Die Karte wird nicht wirklich mehr Strom als die jetzige Radeon 9800XT schlucken, eindeutig der richtige Weg, Nvidias NV40 frisst doppelt soviel strom wie die RX800 und hinkt bei benshmarks auch noch hinterher...
 
Hmm...
Das sieht echt nicht besonders dufte aus!
Ich finde jedes PS2 FF Rendervideo schöner und spektakulärer.
 
Ähem... das sieht nicht gut aus?

Sorry, aber das kann ich nicht ganz ernst nehmen.
Ich persönlich finde die Grafikdemo des X800 Chips von ATi DEUTLICH beser als diese Fish-Frau-Demo von nVidia...

Zum Vergleich:

nVidia Nalu Demo

- Verwendet mehr oder weniger Pixel Shader 3 und einen ganzen Haufen Polygone für das Haar, welches sich sehr realistisch bewegt.
Jedoch fehlt es an abwechslung. Sieht gut aus, mehr nicht.

ATi "Ruby" Demo:

- Verwendet laut Angaben Pixel Shader 2(+) und ebenfalls einen ganzen Haufen Polygone. Allein 80.000 Polys für die Hauptdarstellerin "Ruby", Bösewicht und Ninjas besitzen ebenfalls eine sehr hohe Anzahl an Polygonen + sehr scharfe Bump Maps, Texturen und Echtzeitschattenwurf. Zudem kommt die recht aufwändige Mimik der Charaktere "Ruby" und "Bösewicht". Ninjas haben keine wirklich super Animationen, reichen aber locker aus für eine Grafikdemo.
Ebenfalls beachtlich sind die hintergrunddetails. Environment Bump Mapping, Depth of Field, Replacement Mapping, Dynamic Lights und eine nicht wirklich zu verachtende Polygonanzahl.
Alles in einem ists wirklich schön anzuschauen (Jedenfalls in der Quicktime-Movie-Variante, die andere ist ziemlich schlecht aufgelöst) und in Echtzeit auf deinem Monitor bestimmt noch schöner als im Videoformat.


Aufgrund dessen finde ich die ATi "Ruby" Demo im Vergleich zur nVidia "Nalu" Demo deutlich schöner, abwechslungsreicher und unterhaltsamer.
 
Gibts das Mehrjungfrauenvideo auch irgendwo zum runterladen?

Naja, also ich find die Ruby-Demo auch nicht soooo Beeindruckend!
 
@DarkSeed
Deine ganzen Fachausdrücke kannst du dir sparen.
Für mich sieht die Grafikdemo lasch und unspektakulär aus.
Vieleicht ist ja mit diesen Feinheiten tolle Grafik möglich, nur beurteile ich das was ich auf dem Video gesehen habe.
Und das hat mich wirklich nicht vom hocker gehauen.
 
GranTurismo:

Schön schön, aber ebenso sparen kannst du dir den tollen vergleich mit FF Rendervideos. Die wurden auf Workstations vorgerendert und sind keineswegs beeinflussbar noch kannst du dir die Vids nicht aus mehreren verschiedenen Perspektiven anschauen. Klar sind sie schöner, aber die RUBY Demo von ATi kommt einer Rendersequenz verflucht nahe, nur halt in Realtime.

Von daher war dein Kommentar "FF X Vids sind doch viel geiler als sowas" mehr als .... überflüssig (um es milde auszudrücken ;) )
 
Mir sind die beiden Hersteller egal, daher habe ich einen von Feindbildern unbeschmutzten Betrachterstandpunkt. Aber irgendwie scheint es mir, als würde ATI immer etwa einen Monat nach Nvidias Kinnladensenkenden Neuvorstellungen eine noch bessere Karte präsentieren. Und das seit Geforce 4 Zeiten.
 
darkman schrieb:
in der xbox2 SOLL(->ist keines falls sicher) der übernächste ati chip verwendung finden(R500(?))

Glaube ich nicht, wenn die X-Box erst Ende 2005 erscheint. Zu dem Zeitpunkt gibts dann für den PC schon den Nachfolger des Radeon Nachfolgers :D
 
:-? .. neuer spike ?

aber auch wenn es nen neuen Chip für den PC gibt, so wird aus der Xbox 2 noch ne ganze Weile mehr rausgekitzelt werden. Ninja Gaiden auf Xbox sieht genial aus und Rally Sport Challenge 2 macht auch ganz ordentlich was her. Sicher die Auflösung ist bei den meisten Games zu gering, aber die Spiele in 720p (=1280x720) sehen verdammt gut aus :rolleyes:
 
Zurück
Top Bottom