PS3 vs. Xbox360 vs. Nrev

Status
Nicht offen für weitere Antworten.
frames60 schrieb:
@mia.max
Wie was ich damit meinte? Die ATI-Karten haben bishern immer noch kein Shader 3.0, die nVidia-Karten schon, seit über einem Jahr, das meinte ich... ;)
ah... alles klar

aber das muss einem ja nicht kümmern, da dies bei der xbox360 nach der info von ati ja mehr als gut nachgeholt wurde.
 
nightelve schrieb:
Justy : Du verbreitest ganz klar Falschinformationen...
Jetzt lass es mal mit deinen Transistoren + co sein...

Welche Graka dieser Generation klar besser ist - kann man leider nicht so genau sagen. Wo NVidia Karten ganz klar in ID Engines punkten (Carmack ist klarer Nvidia bzw ex 3dfx Befürworter) punkten die ATI Karten in der HL2 Engine.
die aktuelle FX Reihe der Nvidia Karte ist jedenfalls derzeit die schnellere Karte (allgemein bzw im Durchschnitt).
Komm mir bitte jetzt nicht mit Benshmarks, weil sonst zwings du mich dir auch Benshmarks zu posten wo die NVidia Karte schneller ist...

Aber genug Technikgebrabbel, bleiben wir beim Thema und bei dem "handfesten" was wir sehen : Die PS3 techdemos und Echtzeitgames stecken die der Xbox360 in die Tasche :)

Ich brauch Dir nicht mit Benchmarks kommen, es ist Fakt das die ATi Karten schneller sind, sie haben auch die höhere Pixelfüllrate und arbeiten effizienter. Das sind Fakten die auch durch BM gezeigt werden. Bis auf ein Doom3 sind die ATi karten schneller. Ja sogar an die G70 kommen sie ran. Also informier Dich vorher etwas mehr. Dabei redest Du von Falschinformationen, das ist lachhaft! Des weiteren wie soll man denn die Leistung ohne BM zeigen?

Des weiteren.. Keiner weiß wieso der R520 nicht vorgestellt worden ist. Nvidia hat ja nun den G70 vorgestellt der technisch gesehen ziemlich Banane ist, die Benchmarks sind für einen neuen Chip erbärmlich, sogar die X850 kann die GPU hier in einigen Bereichen schlagen. Also bitte.. Der R520 wird deswegen sicher nicht schlechter.. das Problem ist, das ATi den Chip noch nicht in ausreichenden Mengen zur Verfügung hat.

Was passiert wenn sie die GPU vorstellen? Ja, die ersten BM sagen ja aus das der R520 fast doppelt so schnell ist wie der G70. So, jetzt rennen die ganzen Spieler in den Laden und wollen einen R520 haben, den gibt es aber noch nicht. Also wird evtl zur Konkurenz gegriffen, dem G70.

Deswegen produziert ATi nun vor damit sie auch was verkaufen können wenn die Bombe einschlägt.
 
Shader schrieb:
HellFireWarrior schrieb:
Ähm.. woher kennst du die Anzahl der Pipelines und Shader Units?
Man kennt den Transistorcount, die Taktung und das Herstellverfahren.
Sonst nichts.

Ich glaube nicht, dass sie Sachen wie einen Videodekoder usw. in eine Konsolen GPU miteinbauen. So haben sie mehr Platz für wichtigere Dinge, wie z.B. Mehr Pipelines usw.


Also wenn das ganze PC Zeug noch immer mit drin ist im RSX, dann wirds wohl auch nur bei dem schnelleren Takt bleiben.

Tja, mal sehen...

Hätte der RSX mehr Shader müsste er auch zwangsläufig mehr Transistoren haben



;)

Irgendwie haste nicht richtig gelesen oder verstanden.

Es wird davon ausgegangen das der RSX auf dem G70 basiert und beide haben einen sehr ähnlichen Transistorcount. Wenn man denn jetzt beim RSX das ganze PC Zeug weglässt hat man auch mehr Transistoren für andere Dinge wie z.B. mehr Pipelines.

Wenn sagen wir mal beim G70 von den 300M Transistoren an die (ich rate jetzt einfach mal) 50M Transistoren für Videodekoder usw. draufgehen, und dieses PC Zeugs nicht im RSX eingebaut iwird, dann hätten wir eine nicht unbedeutende Transistormenge für andere Sachen übrig.
 
nightelve schrieb:
Justy, unter "Fakten" verstehe ich etwas anderes :lol:
Nur weil du meinst es ist so, ist es noch lange kein Faktum...

Komm geh heim.

Es ist FAKT das die Geforce 6800 Ultra nur 6400 MPixel und PTexel hat, eine X800 hat schon 8320.

Schau hier:

http://www.alltests.de/hardware/reviews_05/madmoxx_x800x850xtpe/graka_1.php

und schau mal an wie schlecht die G70 wirklich ist.bei 6/8 AA und 16 fachem AF geht die G70 so in die Knie das sie X850 Niveau bietet. Die 6800 Ultra hat mit AA usw.. eh absolut keine Chance.


Das ist interessant. Wir wissen ja alle das wir entweder mit 1280 x 1024 oder mit 1600x1400 zocken, so schauen wir mal wieviel schneller die neue G70 als eine alte X850 ist mit 6xAA und 16fachen AF:

Mehrleistung 7800GTX: 1280x960, 6/8xAA + 16xAF 5,4%

Mehrleistung 7800GTX: 1600x1200, 6/8xAA + 16xAF 1,5%


Somit hat es Nvidia also geschafft in den heutigen "normalen" Auflösungen mit den normalen AA und AF Einstellungen (für weniger brauche ich keine neue Karte) fast 5,4% schneller zu sein als eine alte X850... obwohl sie das DOPPELTE als Transistoren haben usw...

Bei 1600x1200 gibt es sogut wie kein Unterschied. Das ist also die neue G70? Mit nem höheren Takt, doppelt sovielen Transistoren, und du meinst allen ernstes das ATi nicht die bessere Technik benutzt!?


Sehr gut zu sehen ist, wo die GeForce 7800 GTX ihre beste Performance gegenüber der GeForce 6800 Ultra hinlegt: Bei 8x Anti-Aliasing unter 1280x960 und 1600x1200 mit satten 49 bzw. 71 Prozent Leistungsgewinn. Hier kommt die Karte wohl schon ihren theoretischen Limits nahe - und dies immerhin mit einer nur geringfügig höheren Speicherbandbreite als diejenige der GeForce 6800 Ultra.

Doch dieser exzellente Eindruck wird etwas getrübt, wenn man sich den Vergleich zu Radeon X850 XT-PE ansieht: Hier ergibt sich ironischerweise das umgedrehte Bild: Unter 4x Anti-Aliasing sind es immerhin durchschnittlich 24 Prozent, welche die GeForce 7800 GTX mehr leistet (zur GeForce 6800 Ultra: 22 Prozent), unter 8x Anti-Aliasing jedoch nur noch 5,5 Prozent. Sicherlich ist dieser Vergleich aufgrund der unterschiedlichen Bildqualität gegenüber dem 6x Anti-Aliasing von ATI nicht ganz nach der reinen Lehre, jedoch zeigen die Zahlen klar an, daß nVidia - trotz oder eben gerade wegen der Leistungen der GeForce 7800 GTX - ein guter Anti-Aliasing Modus überhalb von 4x fehlt.

Faktisch gleicht nVidia hier den bisher bestehenden riesigen Abstand zwischen Radeon X850 XT-PE und GeForce 6800 Ultra nun bei der GeForce 7800 GTX mit schierer Rohpower aus. Oder anders formuliert: Im Bereich überhalb von 4x Anti-Aliasing liegt die ATI mit der Radeon X850 XT-PE trotz deutlich geringerer Rohpower immer noch auf Augenhöhe der neuen GeForce 7800 GTX von nVidia. Wenn ATI hier also die Rohpower seinerseits demnächst erhöht, wird auch die GeForce 7800 GTX unter 8x Anti-Aliasing ganz schnell wieder überrannt werden.

Doch auch schon jetzt steht nVidia vor der Situation, mit einem Refresh-Chip einen älteren Konkurrenzchip unter den fordernsten Settings nicht klar übertrumpfen zu können. nVidia muß dringend an weiteren schlagkräftigen Anti-Aliasing Modi arbeiten, welche hochwertige Kantenglättung mit guter Performance verbinden - was im übrigen schon einmal vor immerhin anderthalb Jahren das Thema eines unserer Artikel war ;).

http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/

Und jetzt Nightelve, zeig mir mal die deutliche Überlegenheit der G70.. Genau wie ich sage, Nvidia kann nur durch Rohpower etwas schneller werden, aber ATi macht das genüßlich mit der hälfte an Transistoren weg. Sei mal gespannt auf die R520. Denn ich denke das die 10.000 3D Marks vom 05er durchaus sein können. Somit wäre Nvidia mal wieder richtig in den Arsch getreten worden.

EDIT: Und wenn ich nun an den Xenos und den RSX denke, dann muss ich echt lauthals lachen. Nvidia hat es nämlich noch nicht geschafft, somit wird der Unterschied gigantisch sein. Denn ATi ist mit der herkömmlichen Ati Technik schon weit besser und was passiert wenn ATi nun eine neue noch bessere Technologie einsetzt!? :lol: Das wird ein Fest. Ich seh hier ganz schln schwarz. Da hilft auch kein Unter die Arme greifen eines Cells mehr was... Wie die Entwickler sagen. Die Rohpower der PS3 ist stärker, aber die XBOX360 ist so effizient das sie die PS3 in die Tasche stecken wird. Und das über 6 Monate vorher. Wie geil ist das denn???
 
na na na
du hast sicherlich verpasst dass die unreal3 Engine und auch die Oblivion Engine ebenfalls besser laufen auf NVidia Karten...

Ansonst... du redest relativ viel wenn der Tag lang ist *gähn*
 
nightelve schrieb:
na na na
du hast sicherlich verpasst dass die unreal3 Engine und auch die Oblivion Engine ebenfalls besser laufen auf NVidia Karten...

Ansonst... du redest relativ viel wenn der Tag lang ist *gähn*

Der Test kam nicht von mir. ja was sagste denn nun zu Nvidias technischem meisterwerk der Grafikkarten! :lol: :lol: :lol: Tja, hättest Dich nicht so weit aus dem fenster lehnen sollen wenn Du schon keinen Plan von der Materie hast.
 
zuweit aus dem Fenster lehnen?

Na pass auf dass du nicht aus deinem Hochhaus aufeinmal runterpurzelst mit deinem "xbox360 wird viiiieeel stärker sein als die ps3" Statement... :D :D :D

Na weist du, ich muss meine Kompetenz wenigstens nicht in einem Gamingforum beweisen... :lol:
 
nightelve schrieb:
zuweit aus dem Fenster lehnen?

Na pass auf dass du nicht aus deinem Hochhaus aufeinmal runterpurzelst mit deinem "xbox360 wird viiiieeel stärker sein als die ps3" Statement... :D :D :D

Na weist du, ich muss meine Kompetenz wenigstens nicht in einem Gamingforum beweisen... :lol:

Achja, jetzt wird ne andere Schiene eingeschlagen. Naja, was solls. Hötte ich mir denken können das Du nun den Schwanz einziehst und nicht drauf eingehst. Wird hätten ja ruhig darüber diskutieren können. Es geht nur darum das Nvidia im Schnitt schlechter ist als ATi. Es geht nicht um ein DOOM oder EIN Riddik.. nein.. es geht ums ganze. Deswegen ist die Nvidia Karte nicht schlecht, aber die neue Karte ist nun auf dem Level der alten ATí Karte oder etwas drüber.. das ist lächerlich. Ich denke das weißt Du auch. Willst Dir nur nicht eingestehen das was dran sein könnte und es Nvidia wirklich nicht gebacken bekommt mit dem RSX. Kann die Sorge verstehen, habe sie auch. Aber es wird so kommen. Es wäre ziemlich naiv zu glauben das Nvidia nun ein Ass aus dem Ärmel zieht wenn sie sich schon im PC Bereich so schwer tun.
 
nightelve schrieb:
Und die MS / ATI PR-Tournée geht weiter...

Also da hätte ich Dir schon mehr Rückrad zugetraut. Naja.. dann lass bitte in Zukunft Deine Kommentare bei Dir. Denn bis jetzt hast Du hier Falschmeldungen verbreitet. Meine basieren auf Wissen, Fakten und tests.

Ich hätte ja nichts gesagt, aber wenn Du es nicht im Kreuz hast und anderes belegen kannst sei einfach still, ok?
 
@Justy
Dein Problem ist, dass du alles so extrem einseitig siehst.
Deine Meinung über das Stärkerverhältniss zwischen ATi und NVidia ist sowas von lächerlich...

Und mein Problem ist es, dass ich deinen Blödsinn nicht ignorieren kann.
 
OWA : Ich kann seine Kommentare auch leider nicht ignoriern... die sind einfach zu ääähhhhhh schwachsinnig ;)
Selten so ein Unfug gelesen... absolut unglaubwürdig, als würde es von MS selbst entstammen :lol:


Jedenfalls kann man getrost sagen, dass die NVidia Karten mit den ATI Karten mithalten. ATI musste sogar das 520er Modell nach hinten verlegen weil sie wohl überrascht waren vom Nvidia gegenstück!
IMO schenken sich beide Grafikkartenhersteller nix.

PS3-RSX und die Xbox-GPU werden sich imo absolut nix geben.
 
One Winged Angel schrieb:
@Justy
Dein Problem ist, dass du alles so extrem einseitig siehst.
Deine Meinung über das Stärkerverhältniss zwischen ATi und NVidia ist sowas von lächerlich...

Und mein Problem ist es, dass ich deinen Blödsinn nicht ignorieren kann.

Wieso einseitig? Nvidia hat es doch verbockt, was gibt es da anders zu sehen!? Ausser das Nvidia auf dem zweiten Platz ist kann man nicht viel dazu sagen. Es ist wie es ist. ich würde genauso reagieren wenn jemand sowas über Nvidia sagen würde wenn es nicht stimmt.
 
nightelve schrieb:
OWA : Ich kann seine Kommentare auch leider nicht ignoriern... die sind einfach zu ääähhhhhh schwachsinnig ;)
Selten so ein Unfug gelesen... absolut unglaubwürdig, als würde es von MS selbst entstammen :lol:


Jedenfalls kann man getrost sagen, dass die NVidia Karten mit den ATI Karten mithalten. ATI musste sogar das 520er Modell nach hinten verlegen weil sie wohl überrascht waren vom Nvidia gegenstück!
IMO schenken sich beide Grafikkartenhersteller nix.

PS3-RSX und die Xbox-GPU werden sich imo absolut nix geben.

Sagmal, stehst Du unter Drogen? Das ist nicht mein test, die Kommentare der Test, die Benchmarks kommen von www.3dcenter.de

Was ist daran also unglaubwürdig, schwachsinnig oder unfug? Der einzige der Schwachsinn redet bist Du, weil Du offensichtlich nicht mehr aus kannst und jetzt auf dieser Schiene fahren musst. Meine Güte, hattest Du halt ein Griff ins Klo, davon geht die Welt nicht unter.

ATI musste sogar das 520er Modell nach hinten verlegen weil sie wohl überrascht waren vom Nvidia gegenstück!

Das ist ja der beste Witz! Die sind überrascht! Ja war ich auch, das die neue 7800 mit 1600x1400 und 6xAA sowie AF nur 1,5 % schneller ist als derr alte Schinken von ATI..So kann man das natürlich auch sehen, die waren überrascht... wieso waren sie überrascht, weil sie Nvidia nicht soviel Mehrleistung zugetraut hätten. Naja, ATI ist nicht so wild drauf, die legen immer nur 0,4% pro generation vor. :lol: Da sind 1,5% schon richtig utopische Werte... man waren die überrascht, ich hoffe die können das toppen mit der R520, vielleicht so 1,52%.. wäre ja der Wahnsinn. Also wenn die genauso schnell reinhauen wie Nvidia gibt echt bal technisch gesehen hier also keine Grenzen mehr bei dem Fortschritt den Nvidia an den Tag bringt! :lol: :lol: Wie geil ist das denn? ich krieg mich nicht mehr ein... Die werden sich jetzt fragen wie sie die R520 etwas langsamer machen können, vielleicht 10 Pipelines weniger.. immerhin wäre der R520 fast 100% schneller als die 7800er.. ich weiß nicht ob ATI als guter Konkurent und Gentlemen das Nvidia antun kann. :lol:
 
justy du nervst.

Hör auf so einseitig zu reden.. bist ja schlimmer als ich im Bezug auf das Böshaftige von Microsoft.. :rolleyes:
 
Justy schrieb:
Justy schrieb:
Ja war ich auch, das die neue 7800 mit 1600x1400 und 6xAA sowie AF nur 1,5 % schneller ist als derr alte Schinken von ATI..So kann man das natürlich auch sehen, die waren überrascht... wieso waren sie überrascht, weil sie Nvidia nicht soviel Mehrleistung zugetraut hätten.


Vergleich zu GeForce 7800 GTX Radeon X850 XT-PE
Mehrleistung 7800GTX: 1024x768, 4xAA + 8xAF 21,4%
Mehrleistung 7800GTX: 1024x768, 6/8xAA + 16xAF 9,6%
Mehrleistung 7800GTX: 1280x960, 4xAA + 8xAF 27,3%
Mehrleistung 7800GTX: 1280x960, 6/8xAA + 16xAF 5,4%
Mehrleistung 7800GTX: 1600x1200, 4xAA + 8xAF 22,5%
Mehrleistung 7800GTX: 1600x1200, 6/8xAA + 16xAF 1,5%

1. Der G70 ist nur 1,5% schneller, weil er 8XAA achafft und die X850 nur 6fach.
Darum kann er in dieser Disziplin sich logischerweise nicht durchsetzen, weil er logischerweise mehr AA bringt und dabei eben die fps flöten geht.

2. Wenn beide exakt das selbe AA benutzen und exakt die selbe performance bringen, hat der G70 eine Merhleistung von über 20% gegenüber der X850!

Wenn man beide also dirket miteinander Vergleicht, ist der G70 ca 23% schneller.
Du hingegen postest alles möglich, um die G70 schlecht darstehen zu lassen. Wieso hast du denn nicht die 27% Mehrleistung bei 1280 x960 und identische AA gespoetet?
Dies wäre nächmlich VIEL aussagekräftiger.

Bei einigen Spiele bietet der G70 sogar 100% mehr Leistung!

Und du fragst mich erlich, was du hier einseitig siehst?
So lächerlich das ganze....
 
@One Winged Angel

Du solltest Dich fragen wieso man bei der ATi Karte nur 6x AA benutzt. Des weiteren ist das 6 fache AA der ATi Karte ähnlich gut wie das 8 fache der Nvidia Karte. Das traurige ist das wie 3DCenter schreibt die Karte nur wegen der Rohpower etwas schneller ist, aber mit irgendwelchen Features wie eben bei dem AA an Perfomance sparen, das haben sie immernoch nicht drauf.

Du kapierst wahrscheinlich nichtmal den Unterschied zwischen MultiSampling und SuperSampling..

Fakt ist, das die neue Geforce in einer guten Einstellung die man von so einer Karte absolut erwarten kann, auf Augenhöhe mit der alten Konkurenz ist. Keine Sau schaltet hier noch auf 4xaa usw..vorallem nicht das AA von Nvidia da Nvidias 4x AA so schlecht ist wie ATis 2x AA. Das sind alles Faktoren Die Du angeblich nicht kennst.

Jetzt schau Dir mal diese Daten an:

Vergleich zu GeForce 7800 GTX Radeon X850 XT-PE

Mehrleistung 7800GTX: 1024x768, 6/8xAA + 16xAF 9,6%

Mehrleistung 7800GTX: 1280x960, 6/8xAA + 16xAF 5,4%

Mehrleistung 7800GTX: 1600x1200, 6/8xAA + 16xAF 1,5%


Und Du denkst Nvidia hat es geschafft? Sie haben mehr Rohpower, keine Frage, aber das doppelte an Transistoren verbraten nen weit höheren takt und SO ein ergebnis? Das ist einfach lächerlich.
 
@Justy
Typisch, Du musst IMMER Recht haben und dabei ist deine Argumentation puurer schwachsinn/wunschdenken.

So eine unfassbar schlechte Antwort habe ich noch nie bekommen und ich frage mich inzwischen erlich, was DIR NVidia angetahn haben muss, damit man so extrem verblendet ist wie du.... ist ja nicht zum aushalten....

Witzig ist außerdem, dass du bei wirklich konkreter Kritik immer in irgendein Technikgeschwafel abdriftest.

Fakt ist, das die neue Geforce in einer guten Einstellung die man von so einer Karte absolut erwarten kann, auf Augenhöhe mit der alten Konkurenz ist.

:lol:
Es ist Fakt, dass bei gleicher Einstellung die 7800GTX über 20% schneller ist als eine X850.

Das was du labberst ist DEIN wunschdenken, da die X850 NUR bei 1600X140 und 6fachen AA auf Augenhöhe ist und das eben NUR weil NVidia 8faches AA bringt!
Das du jetzt versuchst das 8 fach AA bei NVidia schlecht zu reden war eh klar.


Hier extra für dich:
3dcenter schrieb:
Sicherlich ist dieser Vergleich aufgrund der unterschiedlichen Bildqualität gegenüber dem 6x Anti-Aliasing von ATI nicht ganz nach der reinen Lehre...
 
Wer labert hier Bullshit?

Fakt ist dass das AA von Nvidia schlechter ist.

Fakt ist das die 7800er in hohen Einstellungen ca. 1 bis 5 % schneller ist.

Fakt ist das sie in den niedrigen EInstellungen ca. 20% schneller ist.

Fakt ist das 6faches AA ca. gleichtgut aussieht wie 8faches Nvidia AA.

Nvidia hat SuperSampling, das heißt sie filtern das komplette Bild. Hier werden auch Texturen mit einbezogen.

Für Texturen gibt es AF, wenn dies auf 16x steht bleiben keine Wünsche offen.

les doch mal im Internet nach wieso es AA4Free bei ATi heißt. Les Dich doch mal ein wenig in die Materie.

Und 1 bis 20% sind einfach lachhaft für eine neue Generation.


Denk doch mal nach, ich habe eine X850 mit einem TFT der 1280x1024 unterstützt. SO, jetzt habe ich mit meinen normalen 6xAA und 16x AF ein sehr gutes Bild. Würde ich mir ne neue 7800er kaufen hättte ich für die ca. gleiche Qualität (bei einigem schlechter da verwaschen beim anderen besser) nur ca. 4% Mehrleistung.

Und mir gefällt dieses Ergebnis nicht, was ist daran so lächelrich, Wunschdenken usw.. was, erkläre es mir. Du hast es schwarz auf weiß das Nvdidia nicht auf neue techniken setzt und nur mit Rohpower schießt. Findest Du das Ergebnis von nvidia ehrlich gut? Mal ehrlich, findest Du das toll?
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom