Offizieller allgemeiner Grafikvergleichs Fred!

Das weiß keiner, und die Daten sehen derzeit für ATI besser aus ;)
Das ist hoffentlich ein Scherz, ATI hat noch zwischen 25 - 100% auf den G80 aufzuholen. Auf gar keinen Fall wird RV770 200% bis 300% schneller sein als RV670. ATI muss über den Preis verkaufen, was Anderes bleibt ihnen kaum über.
 
Es sieht zumindest nach 100% aus, und 100% müssen sie NIERGENDS aufholen. Es sind max. 30% in gängigen Auflösungen und das auch nur weil die radeons bei FSAA so schwächeln, ohne das sinds nur noch ca. 15% die ne 3870 hinter einer 8800GTS 512 liegt.

Und die bescheuerten Micro ruckler dualkarten ignore ich jetzt dezent, kannst auch gerne 2 3870er reinpacken wenn du auf die stehst ;)


Das sind alles Billig-Teile.

RAM, Mainboard, Netzteil...alles fürn Arsch...

Und wir alle wissen, dass man ein teures Netzteil und teuren Ram braucht um alles auf very high zu zocken, nicht wahr? :lol:

Was meinst denn was in deiner 360 erst für billigteile drinnen stecken :-?
 
Zuletzt bearbeitet:
Es sieht zumindest nach 100% aus, und 100% müssen sie NIERGENDS aufholen. Es sind max. 30% in gängigen Auflösungen und das auch nur weil die radeons bei FSAA so schwächeln, ohne das sinds nur noch ca. 15% die ne 3870 hinter einer 8800GTS 512 liegt.
Ich weiß ja ned welche Tests du so liest aber auf HT4U und CB gibt es durchaus Benches wo eine 9800GTX 100% schneller ist. Natürlich mit AA und AF, warum sonst sollte man sich so ne Karte kaufen wenn man dann ohne AA und AF spielt? Diese Argumentation geht leider ziemlich an der Realität vorbei.

Kannst dir ja mal Bioshock (99%), CoD4 (67%), Crysis (44%), Oblivion (67%), UT3 (65%), TR: Legend (63%), CoH (38%) oder Anno 1701 (35%) ansehen. In 1680x1050 mit 4xAA und 16xAF ist die 9800GTX jeweils um den in den Klammern stehenden Prozentsatz schneller. Du betreibst da einfach Realitätsverweigerung, ATI is nun mal ziemlich schlecht positioniert im High-End. GT200 wird zumindest den RV770 zerbröseln, 2xRV770 wird schon spannender aber aus dem von dir genannten Grund ist die Sinnhaftigkeit der Karte fraglich.

HT4U Benches
 
Und wir alle wissen, dass man ein teures Netzteil und teuren Ram braucht um alles auf very high zu zocken, nicht wahr? :lol:

Was meinst denn was in deiner 360 erst für billigteile drinnen stecken :-?
Nein, aber der PC da oben ist trotzem Müll. :lol2:

Ich würd dem keinem so empfehlen...
 
Was ein Unsinn. Wo soll denn der Pc Müll sein? Dann lässt du eben noch 2 Gb Ram weg. Nimmst statt dessen ein bequiet NT.

Und der preisliche Unterschied zwischen Noname-RAM und Highend RAM ist für den normalen User inakzeptabel. Der Pc hat - so ie er gepostet wurde - eine gute CPU, MB und GraKa. Genauso wie er da steht, hat der Pc auf jedenfall eine höhere Überlebensdauer als alle aktuellen Konsolen. Dazu kommt, dass er 3 Jahre Garantie bei Atelco/HW-Versand hat, weil er als Komplett-Pc bestellt werden kann. Was natürlich fehlt ist ein OS.
 
Wenn man schon 600 Euro ausgeben kann, sollte man nicht sparen...sogar noch mehr ausgeben,

Bequiet-Netzteil, Kingston (oder was auch immer) RAM etc.
 
Kannst dir ja mal Bioshock (99%), CoD4 (67%), Crysis (44%), Oblivion (67%), UT3 (65%), TR: Legend (63%), CoH (38%) oder Anno 1701 (35%) ansehen. In 1680x1050 mit 4xAA und 16xAF ist die 9800GTX jeweils um den in den Klammern stehenden Prozentsatz schneller. Du betreibst da einfach Realitätsverweigerung, ATI is nun mal ziemlich schlecht positioniert im High-End. GT200 wird zumindest den RV770 zerbröseln, 2xRV770 wird schon spannender aber aus dem von dir genannten Grund ist die Sinnhaftigkeit der Karte fraglich.

Und schau dir die benches der Spiele in der selben auflösung mit 8XAA an, dann siehts ganz anders aus, wozu 4xfsaa wenn man 8x haben kann? Dass die 3870 Architektur enorm potential in dem Bereich hat und die 4870 das noch mehr auspielen wird, dürfte klar sein.

8x lassen deine benches aber gekonnt weg... kannst ja hier nachsehn http://www.computerbase.de/artikel/hardware/grafikkarten/2007/kurztest_ati_radeon_hd_3870_rv670/3/ oblivion: http://www.computerbase.de/artikel/...ztest_ati_radeon_hd_3870_rv670/9/?no-prefetch

...

unter 8xfsaa, da legt sie gewaltig zu bzw verliert nicht so gewaltig wie die Geforce Reihen. Mal abgesehn davon, dass die Radeon in dem Modus auch eine bessere Bildqualität laut diversen tests hat ;)

Wenn die 4870, und davon gehe ich aus, die 4xFSAA probleme in den griff bekommt, steht da eine Karte in den Startlöchern, die die 8800Ultra pulverisieren wird, und das mit nem <300 Euro Preis, da muss Nvidia schnell nachlegen, sonst werden sie überrumpelt :)
 
Zuletzt bearbeitet:
4xFSAA reichen eigentlich...

8xFSAA sind unnötig und fressen zu viel Ressourcen.
 
Das Nvidia die reinen PerformanceKings sind steht jawohl außer Frage und auch die AMD HD4870 wird von den neuen Nvidias dann in den Hintern bekommen - Preis/Leistungstechnisch sieht das ganze dann wieder vollkommen anders aus und genau da wird AMD wieder punkten - Nvidia wird wieder ein teueres Monster auf dem Markt schmeißen (und der G200 wird dieses Monster sein) und damit die Performancetabellen mal wieder anführen.
Was die tatsächliche Performance von aktuellen Karten angeht kann man noch gar kein Urteil fällen da es keine echten nur auf DX10 basierenden Benchmarks gibt, es gibt nur DX9 Games mit DX10 Modus für einen Benchmark - das ist ein Himmelweiter Unterschied zu einer echten DX10 Engine - in 5 Tagen wird das Problem wohl behoben sein ( www.futuremark.com )

FSAA wird überbewertet :P - bei hohen Auflösungen jenseits von 1600x reicht 4xFSAA vollkommen aus, es sei denn man zockt auf nem 2 Meter großen Bildschirm ;)
 
Und schau dir die benches der Spiele in der selben auflösung mit 8XAA an, dann siehts ganz anders aus, wozu 4xfsaa wenn man 8x haben kann? Dass die 3870 Architektur enorm potential in dem Bereich hat und die 4870 das noch mehr auspielen wird, dürfte klar sein.
Weil 8xAA bei 1680x1050 oder 1920x1200 an der Grenze liegt. Da nehme ich lieber 4xAA, noch dazu funktioniert 8xAA nicht mal in allen Spielen sauber. Es gibt keine Veranlassung zu glauben, dass die Z-Fillrate des GT200 genauso einbricht wie die des G80 bei 8xAA. Daran kann man arbeiten.

MTC001 schrieb:
unter 8xfsaa, da legt sie gewaltig zu bzw verliert nicht so gewaltig wie die Geforce Reihen. Mal abgesehn davon, dass die Radeon in dem Modus auch eine bessere Bildqualität laut diversen tests hat ;)
Ja, die Samples sind bei Nvidia ein wenig dämlich platziert, was ich auch nicht so ganz verstehe. Ich bin da aber recht zuversichtlich, dass mit dem GT200 auf dem Gebiet einiges verändert wird. CFAA sollte ja auch endlich Einzug halten.


MTC001 schrieb:
Wenn die 4870, und davon gehe ich aus, die 4xFSAA probleme in den griff bekommt, steht da eine Karte in den Startlöchern, die die 8800Ultra pulverisieren wird, und das mit nem <300 Euro Preis, da muss Nvidia schnell nachlegen, sonst werden sie überrumpelt :)
Das wird sie auch müssen um halbwegs mit dem GT200 mitzuhalten. Ich weiß ja nicht was du dir vorstellst aber ATI müsste schon ein kleines Wunder vollbringen um mit einem 150Watt Chip einen 250 Watt Chip zu schlagen. GT200 hat außerdem deutlich mehr Transistoren. Insofern wird die Krone bei Nvidia bleiben, keine Sorge. ;-)

Ich will den RV770 gar nicht madig reden, nur die Behauptung er wäre schneller als GT200 ist "etwas" abenteurlich.
 
Das wird sie auch müssen um halbwegs mit dem GT200 mitzuhalten. Ich weiß ja nicht was du dir vorstellst aber ATI müsste schon ein kleines Wunder vollbringen um mit einem 150Watt Chip einen 250 Watt Chip zu schlagen. GT200 hat außerdem deutlich mehr Transistoren. Insofern wird die Krone bei Nvidia bleiben, keine Sorge. ;-)

Die G200 kommt irgendwann zu Weihnachten. Die 4870 steht schon kurz vorm launch! Die kommt nächsten Monat auf den Markt wie es aussieht. Bis Weihnachten hat ATI eventuell wieder was neues ^^

Ich will den RV770 gar nicht madig reden, nur die Behauptung er wäre schneller als GT200 ist "etwas" abenteurlich.

Davon hab ich doch nie geredet!

Ich habe lediglich gesagt, dass sie alles was bislang draußen ist auf die Plätze weisen wird, samt der 8800Ultra eben, wird aber auch zeit, ich mein Nvidia gammelt auch schon seit nem jahr auf dem gleichen Niveau rum und wartet auf ati... Was mir aber wiederum ein rätsel ist, wenn sie die Technik hätten, warum brauchen sie ne Dual GPU Karte um die 3870X2 zu knacken, normalerweise sollten sie das locker mit ner single gpu schaffen aber scheinbar doch nicht, was mich wiederum zur annahme bringt, dass Nvidia tatsächlich etwas gepennt hat und die halbe belegschaft auf ein halbes Jahr betriebsurlaub geschickt hat.

Auch hätten sie imo was andres bringen können als 9800gtx, schlicht ne übertaktete 8800GTS zu nehmen, die dann auch noch immer wieder gegen die 8800GTX die 1 Jahr alte Vorgänger Karte verliert ist sowie ein Witz. Ich mein, sie hätten da ruhig ne 400 Euro oder so Karte raushaun können, die würde auch von einigen gekauft werden die immer am neuesten Stand sind, so haben sie ne 9800GTX die nicht mit ner 1 Jahr alten Ultra mithalten kann, ist zwar preislich dementsprechend aber halt dennoch eher lachhaft wozu die karte überhaupt :-?

Und du schreibst ja sehr gut, warum ich keine G200 holen werde, ich will keine 250 Watt fressende Grafikkarte für 700 Euro, da hört sich das ATI versprechen erheblich besser an, 10 Watt im 2D Desktop betrieb und 150 Watt im gaming betrieb, damit kann ich leben :)
 
Ich kaufe mir grundsätzlich ATI-Karten. Aus dem einfachen Grund, weil es sie immer ein gutes Preis-/Leistungsverhältnis geboten haben und ich auf keinen Fall ein nVidia-Monopol haben will.
Außerdem gabs mit meiner einzigen nVidia-Karte TNT32 zu viel Ärger. Nach einem Treiber-Update fror mein Bildschirm unerklärlicherweise nach einiger Zeit immer ein; nachdem ich dann den alten Treiber aufgesetzt hatte, liefs wieder. Hat aber Zeit und Nerven gekostet.
 
ach das mit den treibern kann dir auch bei ATI passiern, mir ist das zwar auch erst einmal mit meiner Geforce 6600 passiert aber nicht weil ich nen neuen treiber drauf gegeben habe sondern nen zu alten hatte für F.E.A.R. das beim starten nen BSOD erzeugte...Preis/Leistung wird die nächste Generation garantiert wieder lange zu gunsten der ATI Karten sein, alleine weil ATI kleiner fertigen kann als Nvidia und sich nvidia die mehrperformance die der G200 haben dürfte sehr gut bezahlen lassen wird...
 
Die G200 kommt irgendwann zu Weihnachten. Die 4870 steht schon kurz vorm launch! Die kommt nächsten Monat auf den Markt wie es aussieht. Bis Weihnachten hat ATI eventuell wieder was neues ^^
Inzwischen taucht der GT200 auf den Roadmaps für Q3 2008 auf, ebenso wie G92b.

MTC001 schrieb:
Davon hab ich doch nie geredet!
Du hast geschrieben die Daten würde aktuell eher für ATI sprechen als Antwort auf den GT200. Ich habe das nun mal so verstanden und wenn du ehrlich bist war das eigentlich auch nur so zu verstehen.

MTC001 schrieb:
Was mir aber wiederum ein rätsel ist, wenn sie die Technik hätten, warum brauchen sie ne Dual GPU Karte um die 3870X2 zu knacken, normalerweise sollten sie das locker mit ner single gpu schaffen aber scheinbar doch nicht, was mich wiederum zur annahme bringt, dass Nvidia tatsächlich etwas gepennt hat und die halbe belegschaft auf ein halbes Jahr betriebsurlaub geschickt hat.
Die Entwicklung eines neuen Chips kostet Unmengen an Geld. Nur um einer Karte die eigentlich keiner haben will etwas entgegenzusetzen ist das ziemlich überzogen.

MTC001 schrieb:
Ich mein, sie hätten da ruhig ne 400 Euro oder so Karte raushaun können, die würde auch von einigen gekauft werden die immer am neuesten Stand sind, so haben sie ne 9800GTX die nicht mit ner 1 Jahr alten Ultra mithalten kann, ist zwar preislich dementsprechend aber halt dennoch eher lachhaft wozu die karte überhaupt :-?
Die 9800GTX dürfte eine höhere Marge abwerfen. Außerdem kommt ja noch die 9800GT.
 
-Und was soll ne 9800GT bringen? 2% weniger leistung als ne 9800GTX 1% mehr leistung als ne 8800GTS, gratuliere!

Inzwischen taucht der GT200 auf den Roadmaps für Q3 2008 auf, ebenso wie G92b.

Du hast geschrieben die Daten würde aktuell eher für ATI sprechen als Antwort auf den GT200. Ich habe das nun mal so verstanden und wenn du ehrlich bist war das eigentlich auch nur so zu verstehen.

Ne hab in keinem Wort den G200 in den Mund genommen, du hast den mal beiläufig erwähnt habe aber lediglich von der aktuellen Generation geredet und die wird die 4870 ziemlich stark toppen können, egal in welcher Qualitätseinstellung. Ich schätze mal die Highend version des G200, also ne 9900GTX wird ca. 10-20% schneller sein als die ATI, das wird aber in keiner Relation zum Preis stehen fürchte ich...

Nvidia wird auch sicher wieder ne 9900GX2 bringen dann, einfach zum spaß, mit 400 Watt stromverbrauch :goodwork:

Die 9800GTX dürfte eine höhere Marge abwerfen. Außerdem kommt ja noch die 9800GT.

Ändert aber nix drann dass es zu 99% ne 8800GTS ist die etwas höher taktet. Nvidia hätte von Anfang an nicht diese scheisse mit 8800GTS, 8800GT bringen sollen sondern die einfach 8900GT/GTS nennen sollen, die 9800GTX sollte eher 8900GTX und die GX2 eben 8900GX2 heißen.

Wenn sie wirklich die 9er serie gehabt haben wollten, hätten sie diese imo gleich mit der 8800GT starten können, halt als 9800GT und das würde wenigstens Sinn ergeben...
 
Ne hab in keinem Wort den G200 in den Mund genommen, du hast den mal beiläufig erwähnt habe aber lediglich von der aktuellen Generation geredet und die wird die 4870 ziemlich stark toppen können, egal in welcher Qualitätseinstellung. Ich schätze mal die Highend version des G200, also ne 9900GTX wird ca. 10-20% schneller sein als die ATI, das wird aber in keiner Relation zum Preis stehen fürchte ich...
Dann helfe ich dir mal auf die Sprünge, ich rede von diesem Post. Lies mal den ersten Satz und dann wirst du verstehen warum ich das so verstanden habe. Ich denke es werden eher mehr als 20%, GT200 wird wicher effizienter als G80.
 
Zurück
Top Bottom