nVidia vs. ATi: Next-Gen GPUs

Status
Nicht offen für weitere Antworten.

Necrophorus

L14: Freak
Thread-Ersteller
Seit
21 Jan 2002
Beiträge
6.534
Xbox Live
IllusiveKane
PSN
TripleAChris
Tech-Fans dürfen gespannt sein auf nVidias neuen Grafikchip, der heute, am 13.04. auf nVidias LAN Party seinen ersten offiziellen Auftritt hat.

Die Final Specs des Chips sind nicht komplett bekannt.
Sicher ist, dass der Chip mit 210 Millionen Transistoren gefertigt wurde und 16 Pipelines besitzt (16x1, nicht 8x2).

Hoffentlich werden heute weitere Details bekannt gegeben auf der nVidia LAN.
Falls ihr interessante Infos habt: Postet sie hier rein! :)
 
http://koti.mbnet.fi/elixir/NV40/

Hier findet ihr massenweise Infos zum nv40 -> GeForce 6800

10813058804U5m1JdTdm_3_1_l.jpg

10813058804U5m1JdTdm_3_2_l.jpg

10813058804U5m1JdTdm_4_1_l.jpg

10813058804U5m1JdTdm_6_2_l.jpg

10817474486qLMOmeutS_1_12_l.jpg

10817474486qLMOmeutS_1_15_l.jpg


Auf der Seite findet man auch ein paar Benchmarks zu einigen aktuellen Spielen.
Mein persönliches erstes Fazit:
Das Problem der Floating Point Operationen hat nVidia perfekt bereinigt. Was den nv40 noch bei aktuellen DX9 Spielen leicht humpeln lässt, ist der fehlende Support für 24 Bit Pixel Shader Präzision, die für DX 9.0 sozusagen notwendig ist. Gleiches Problem wie bei der 59xxer-Reihe.
Unter DirectX ist der nv40 mit eingeschalteten Qualitätseinstellungen wie FSAA und AF zur Zeit leicht schneller als die aktuellen Geschwindigkeits-Könige.
Einen grossen Geschwindigkeitssprung macht der nv40 unter OpenGL.
Selbst mit FSAA und AF (wärend der Rest ohne diese Qualitätseinstellungen läuft) zieht der nv40 auf und davon.
Ich schätze mit der Einführung von DirectX 9.0c und der Unterstützung für Shader Version 3.0 wird es sich unter DirectX ähnlich verhalten wie jetzt unter OpenGL, da DirectX 9.0c auf die hardwareseitig unterstützte 32 Bit Pixel Shader Präzision setzt.

UPDATE:
Es handelt sich bei dem Board auch nicht um die Verkaufsversion.
Die Retail-Fassung wird GeForceFX 6800 heissen und das vorliegende Board trägt den Namen GeForce 6800.
Sämtliche Benchhmarks wurden mit sehr frühen Beta-Treibern durchgeführt
 
Sooo, nochmehr News/Previews!

http://www.hardwareanalysis.com/content/article/1708.1/

hardwareanalysis.com hat die GeForce 6800 Ultra ( ähnlich der GeForceFX 6800 Retail ) durch einige Benchmarks geschickt und hier sind die Ergebnisse!

As you can see from the benchmarks we did just that and the GeForce 6800 Ultra did not dissapoint, on the conterary we have never seen a graphics card perform this well or so convincingly beat the competiton in every single benchmark.

http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/

Firingsquad zeigt als erste Seite nVidia-Demos des nv40

05.jpg

02.jpg

07.jpg


Final Thoughts:
Clearly when it comes to performance GeForce 6800 Ultra is in a class of its own. In many cases GeForce 6800 Ultra outperforms its nearest competitor by a factor of nearly two, and keep in mind that this is with early drivers, performance will only get better from here.

Es sieht ganz so aus, als ob nVidia die vergleichsweise magere Phase der nv3x-Modelle hinter sich gelassen hat und wieder in Topform ist.
Die Benchmarks sprechen Bände, eine echte Monsterkarte!
 
Wenn das Techdemos von neuester PC Hardware sind, dann ist das ja wohl ein wenig lächerlich.
 
Wieso meinst du :-?
Mich wunderts was ATI hervorzaubern wird! Weiss schon jemand etwas?
 
Ich denke man muss die Demos in Bewegung sehen. Es geht ja in erster Linie darum zu präsentieren, wie präzise die Shader V3.0 arbeiten.
Da hätte man sicherlich mehr machen können, aber was solls.
Hauptsache ist ja, das die GeForceFX 6800 in den Games rockt, und das tut sie unglaublich!
 
Oliboli schrieb:
Wieso meinst du :-?
Mich wunderts was ATI hervorzaubern wird! Weiss schon jemand etwas?

ati und nVidia haben den gleichen Retail-Launchtag.
Die neuen ati-Modelle sollen angeblich RX800 heissen.
Das Modell wird laut ati 12 Pixel Pipelines besitzen, also 4 Pipelines weniger als der nv40. Shader V3.0 werden bei ati nicht von Hardwareseite unterstützt.
ati setzt weiterhin auf 24 Bit Shaderpräzision anstatt auf 32 Bit wie nVidia.
 
SunshineMario schrieb:
ist die besser als die ati radeon 9800XT von saphire?

In fast allen Fällen bis zu 120% schneller als Atis 9800XT.
Schau dir einfach die Benchmarks an, die unter den URLs oben gepostet wurden.
z.Z. ist nVidia wieder der absolute 3D-King, egal in welchem Bereich.
Mal sehen, wie Ati nachzieht mit dem R420
 
Für alle, die die neue Generation von Spielen in Bewegung sehen wollen...

Die UnrealEngine3 Präsentation zeigt diese neue Shader Generation auf der NV40 Konferenz.

:o WOW... Ein kleiner Vorgeschmack auf Next Gen Grafiken...

Zu dumm, dass wir noch nicht mal die Knaller dieser Generation haben. :neutral:
 
Lest mal:

empfohlen wird ein 480 Watt (!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!) Netzteil

na super..... :oops:
 
P4inkiller schrieb:
Lest mal:

empfohlen wird ein 480 Watt (!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!) Netzteil

na super..... :oops:

Das ist auch der einzige "Nachteil" der Karte.
Wenn ich das Geld für die Ultra hätte, hätte ich auch kein Problem mir ein stärkeres Netzteil dazu zu kaufen.
nVidia hat genau das ausgebügelt, was in der nv3x-Reihe falsch gemacht wurde.
Mit dem Release finaler Treiber und DirectX9.0c wird ein weiterer Performance-Schub erwartet.
Selbst mit Schwächen in den Floating Point Berechnungen konnten die 5900er-Karten noch mithalten und in OpenGL übertrumpfen.
nVidia hat selbst diese Schwäche ausgebügelt und die Floating Point-Leistung ist überragend!
Ich bin nun echt gespannt, wie Ati darauf reagiert.
Regulär hat man Performancezuwächse von ca. 30% erwartet, der nv40 hat einen Performancezuwachs von mehr als 60% geliefert!

Wie gesagt, für dieses Traumboard lohnt es sich locker, ein stärkeres Netzteil zu kaufen.
 
hrelescu schrieb:
Für alle, die die neue Generation von Spielen in Bewegung sehen wollen...

Die UnrealEngine3 Präsentation zeigt diese neue Shader Generation auf der NV40 Konferenz.

:o WOW... Ein kleiner Vorgeschmack auf Next Gen Grafiken...

Zu dumm, dass wir noch nicht mal die Knaller dieser Generation haben. :neutral:

WOOOW :o
Hast du noch mehr von denen ???
DAS IST JA DERB
 
Necrophorus schrieb:
P4inkiller schrieb:
Lest mal:

empfohlen wird ein 480 Watt (!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!) Netzteil

na super..... :oops:

Das ist auch der einzige "Nachteil" der Karte.
Wenn ich das Geld für die Ultra hätte, hätte ich auch kein Problem mir ein stärkeres Netzteil dazu zu kaufen.
nVidia hat genau das ausgebügelt, was in der nv3x-Reihe falsch gemacht wurde.
Mit dem Release finaler Treiber und DirectX9.0c wird ein weiterer Performance-Schub erwartet.
Selbst mit Schwächen in den Floating Point Berechnungen konnten die 5900er-Karten noch mithalten und in OpenGL übertrumpfen.
nVidia hat selbst diese Schwäche ausgebügelt und die Floating Point-Leistung ist überragend!
Ich bin nun echt gespannt, wie Ati darauf reagiert.
Regulär hat man Performancezuwächse von ca. 30% erwartet, der nv40 hat einen Performancezuwachs von mehr als 60% geliefert!

Wie gesagt, für dieses Traumboard lohnt es sich locker, ein stärkeres Netzteil zu kaufen.

Die Kohle holst Du im Winter wieder rein, wenn die Heizung ausbleiben kann :)
 
Wie gesagt... ich hab meinen rechner 24/7 am laufen und da macht das schon was aus... sogar ne menge.... wenn man noch bei den eltern lebt ist das ja kein problem aber zahl du mal die stromrechnung..... meiner verbaucht ja jetzt schon soviel wie ein trockner.... ich glaub ich lass mir bals ne starkstromleitung legen.... das wird wohl bald von nöten sein.... :evil:
 
Oliboli schrieb:
WOOOW :o
Hast du noch mehr von denen ???
DAS IST JA DERB

Probiers mal hiermit:

1. Video zeigt Far Cry mit Pixel Shader 3.0 Erweiterungen. Hauptsächlich realistischer Schattenwurf, Soft Shadows etc.

http://home.comcast.net/~tdwitzke/103_0372.avi

2. Video zeigt Far Cry mit Per-Pixel Lightning etc.

http://home.comcast.net/~tdwitzke/103_0373.avi

Nicht so beeindruckend wie die Unreal 3 Demo aber trotzdem kann man sich einen guten Eindruck verschaffen, was die neue Shader Generation so alles leisten kann...
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom