GPU:(PS3 vs X-BOX360 vs NRev) +Wird NRev stärkste Konsole?

Status
Nicht offen für weitere Antworten.
Für alle die es interresiert, die GeForce 7800 GTX wird doppelt so schnell sein wie ihr Vorgänger. Im SLI Betrieb geht's dann erst richtig ab ;)

Auf Gamestar.de gibts einen ausführlichen Test des neuen Chips.
 
iriedaily schrieb:
Für alle die es interresiert, die GeForce 7800 GTX wird doppelt so schnell sein wie ihr Vorgänger. Im SLI Betrieb geht's dann erst richtig ab ;)

Auf Gamestar.de gibts einen ausführlichen Test des neuen Chips.
Die Benchmarks, die ich gerade gesehen habe, waren mehr als ernüchternd für eine Grafikkarte der nächsten Generation. Die war in machen Punkten sogar der ATI Radeon X850 XT-PE unterlegen.
Und da die PS3 kein Sli System bekommt, scheint ATI mit dem Xenos mal wieder einen ordentlichen Vorsprung geschafft zu haben.
http://3dcenter.de/artikel/nvidia_g70_benchmarks/
 
With G70 now fully dissected we know have a little greater understanding of the part. Of course one element that characterises G70 is that of die size: its big.

Estimates of the die size put it in the order of around 330mm2, which on a 12" wafer would give in the order of around 150-170 full die to the wafer. Now, the issues here are one of yield - the fewer die there are on a wafer the more likely they are prone to defects. An analyst has suggested to us that there may be as many as 130-160 defects per wafer for earlier 110nm lines from TSMC (although the process is now more mature so that is likely to have decreased) which could give could potentially give very low yields for the chips should everyone need to work without any defects at all.

Now, one thing that we have been used to over the past few years releases is that of utilising defect cores in as lower performance products. The pixel pipelines, followed by the vertex pipelines, are taking the majority of the die space on products such as these and so a natural process defect is most likely to manifest itself in one of these areas; by disabling the pixel quad or vertex shader the defect has manifested itself in the IHV is then still able to recoup much of the cost of that particular piece of silicon, rather than wasting the entire die area.

The difference with G70 is that it is even larger than previous die sizes, which means that it is quite possible that full product yields may be quite small. Could it be that, in order to alleviate this, the defect rate is already built in to the current GeForce 7800 GTX and 24 fragment shaders is not the full number that G70 supports? Whilst many have speculated on an Ultra variant still to come and have been looking at the overclocks of the GTX’s to speculate where it may hit, perhaps it could be the case that there are 32 fragment pipelines in G70 and the fully working die are quietly being collected for use at a later date?

source : http://www.beyond3d.com/index.php#news24313

Das ist sehr interessant .. SONy kann auch die G70 Ultra mit 32 fragment Pips haben :D :) (Das wäre eine performance Steigerung um 1/3 :devil: )
 
Haben sie nicht, die restlichen Pipelines sind wie die eine SPE beim Cell Redundanz um die Erfolgsrate bei der Produktion zu erhöhen. Das hat zumindest Ken Kutaragi gesagt.

Es ist aber möglich das RSX nur Pixel-Pipelines hat und die SPEs alle Vertex-Berechnungen übernehmen, somit würde RSX in etwa die gleiche Performance bieten wie eine GPU mit 32 Pipelines.
 
Die G70GTX hat 24 Pixel und 8 Vertex Pips ... es wäre möglich das die 8 SPEs in Cell die 8 Vertex Shaders unterstuzt und es theoretisch "16 VS" sind. (Da wir wissen das Cell auf 3D abgestimmt ist kann es ähnlich wie SLi sein)... dann noch die G70 ultra mit 32 Pixel Pips.. und der vorteil durch die Unified Shader der X-Box 360 ist flutch ;)

Aber das ist nur Pure Theory 8-)
 
Semik schrieb:
Die G70GTX hat 24 Pixel und 8 Vertex Pips ... es wäre möglich das die 8 SPEs in Cell die 8 Vertex Shaders unterstuzt und es theoretisch "16 VS" sind. (Da wir wissen das Cell auf 3D abgestimmt ist kann es ähnlich wie SLi sein)... dann noch die G70 ultra mit 32 Pixel Pips.. und der vorteil durch die Unified Shader der X-Box 360 ist flutch ;)

Aber das ist nur Pure Theory 8-)

Die Theorie ist das RSX nur Pixel Shader hat und das die SPEs als Vertex Shader dienen. Das wäre ähnlich wie die Unified Shader Archtitektur weil man die Wahl hat ob man die SPEs als Vertex Shader oder etwas anderes benuzten will.
 
Frenck schrieb:
Haben sie nicht, die restlichen Pipelines sind wie die eine SPE beim Cell Redundanz um die Erfolgsrate bei der Produktion zu erhöhen. Das hat zumindest Ken Kutaragi gesagt.

Es ist aber möglich das RSX nur Pixel-Pipelines hat und die SPEs alle Vertex-Berechnungen übernehmen, somit würde RSX in etwa die gleiche Performance bieten wie eine GPU mit 32 Pipelines.

Bis RSX in Serien-Produktion geht, dürfte man aber die mögliche Fehlerrate beim G70 ziemlich minimiert haben. Daher könnten 32 Pipes vielleicht doch hinkommen..., und dazu hat die PS3 ja quasi HDR for free..., was die Xbox360 net hat... ;)
Xenos "Vorsprung" wird letzten Endes wohl dahingeschmolzen sein..., wenngleich ich immer noch nicht ganz glaube, dass RSX nur ein höhergetakteter G70 ist...
 
An 32 Pipelines glaube ich inzwischen nicht mehr, R520 wird auch mir 32 Pipelines gefertig und davon werden nur 24 genutzt.

Das ist gang und gebe, umso mehr Pipelines umso höher ist die Fehlerquote.
 
frames60 schrieb:
und dazu hat die PS3 ja quasi HDR for free..., was die Xbox360 net hat... ;)
da HDR durch den eDRAM übernommen wird, der ne riesen Bandbreite hat, wird der ATI Chip meiner Meinung nach die HDR Berechnungen auf der XBox360 noch n Stück Performanter hinkriegen als die auf der PS3 möglich ist.

n HDR 4 Free gibts aber nicht, so wie dies mit MSAA gelöst wurde.
 
Frenck schrieb:
Wie jetzt?

Ist das das selbe?

FP = Floatingpoint Precision

32 FP * 4 Kanäle = 128 Bit Floatingpoint Precision ( Du weißt doch, PS3 rendert mit 128 Bit ;) )

Ich habe mal gelesen, dass diese hohe Prezision nötig wäre, weil der Cell nur FP 32 versteht und nicht weil es so toll ist. Denn je größer die Prezision, desto mehr Bandbreite geht drauf.
 
Mir ging es eigentlich darum das die X-Box 360 einen Sparmodus namens fp10 hat der kaum Qualitätsunterschiede zu fp16 bietet. Hat die PS3 das auch?

Wäre natürlich gut wenn man neben dem fetten Monster HDR auch ein Mini-Sparmodus HDR hat, für Rennspiele oder Jump'n'Runs wo es nicht so drauf ankommt.
 
Wandhydrant schrieb:
iriedaily schrieb:
Für alle die es interresiert, die GeForce 7800 GTX wird doppelt so schnell sein wie ihr Vorgänger. Im SLI Betrieb geht's dann erst richtig ab ;)

Auf Gamestar.de gibts einen ausführlichen Test des neuen Chips.
Die Benchmarks, die ich gerade gesehen habe, waren mehr als ernüchternd für eine Grafikkarte der nächsten Generation. Die war in machen Punkten sogar der ATI Radeon X850 XT-PE unterlegen.
Und da die PS3 kein Sli System bekommt, scheint ATI mit dem Xenos mal wieder einen ordentlichen Vorsprung geschafft zu haben.
http://3dcenter.de/artikel/nvidia_g70_benchmarks/

Du sagt sie seien ernüchtern dun ich finde sie positiv überraschen.
Du siehst es zu einseitig. Klar ist der X850 in gewissen Bereichen minimal schneller, aber bei Doom3 z.b. ist er dann gleich doppelt so schnell.
Der G70 ist ~60% schneller als eine 6800 Ultra.
Der G70 lässt den X850 locker im Regen stehen.
 
PC Nört schrieb:
Ich bin total enttäuscht das ich mit meiner Geforce 10 ULTRA-KRASS Edition Doom 3 nur mit 120 fps spielen kann :shakehead:

Mit der Geforce 11 OMG-WTF Edition kommt man auf 160 fps.

Meine Augen sind schon ganz zerstört von der Abscheuligkeit und dem Ruckeln :hmpf:


So in etwa hört sich das ganze Benchmark Gerede an für mich.
 
Frenck schrieb:
PC Nört schrieb:
Ich bin total enttäuscht das ich mit meiner Geforce 10 ULTRA-KRASS Edition Doom 3 nur mit 120 fps spielen kann :shakehead:

Mit der Geforce 11 OMG-WTF Edition kommt man auf 160 fps.

Meine Augen sind schon ganz zerstört von der Abscheuligkeit und dem Ruckeln :hmpf:


So in etwa hört sich das ganze Benchmark Gerede an für mich.

So in etwa hört sich alles für mich an im Bezug auf Konsolentechnik etc. :D Aber die Next Gen wird sowieso scheisse. Erst wenn die meine Hologrammtechnik umsetzen werden Konsolen brauchbar. :P
 
Die Benchmarks, die ich gerade gesehen habe, waren mehr als ernüchternd für eine Grafikkarte der nächsten Generation. Die war in machen Punkten sogar der ATI Radeon X850 XT-PE unterlegen.
Und da die PS3 kein Sli System bekommt, scheint ATI mit dem Xenos mal wieder einen ordentlichen Vorsprung geschafft zu haben.


Benchmark ergebnisse waren für mich nie ausagekräftig, warum?
Ich sag mal so, wenn ein Spiel für Nvidia optimiert worden ist(DOOM3) dan ist es auch kein wunder das es dan auf der ati karte nicht gut läuft, ist ja klar. Ándersrum wenn ein Spiel wie HL2 oder Farcry auf den ATI Karten optimiert worden ist, dann läuft es nicht mehr so gut mit Nvidia.
Das heist aber nicht das die eine Karte langsamer oder die andere schneller, es liegt einfach daran das die Garfikkarten hersteller betimmte verträge mit Spieleentwickler XY abschliesen nur damit es auf deren karte besser läuft. Darum kann man jetzt schlecht sagen wie gut zb der RSX in der PS3 wird, weil imo ja alle PS3 games darauf optimiert sein werden ;)
Es wird das zusammenspiel zwischen RSX und Cell, den erhoften leistungsschub bringen.
Und mal ganz ehrlich, niemand hier genau, kann sagen wie und was der Cell schlusendlich für aufgaben übernehmen wird, was der leisten kann und was nicht. Sogar IBM selber wissen nicht genau zu was Cell im stande ist zu leisten, obwohl sie Toshiba und Sony den Chip zusammen entwicklet haben. Der Cell ist Sonys eigentum, und nur sie selber wissen was am ende dabei herauskommt :)

Ein letztes wort muss ich noch loswerden, Sony hatt mich bis jetzt nie entäuscht, und das werden sie in Zukunft auch nicht...
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom