GPU:(PS3 vs X-BOX360 vs NRev) +Wird NRev stärkste Konsole?

Status
Nicht offen für weitere Antworten.
checker schrieb:
Ice schrieb:
guradia schrieb:
Terminator schrieb:
checker:
Hat der Xenos überhaupt ein solches transparentes Supersampling?

Nicht dass ich wüsste, nein ...

Durch den eDRAM dürfte ich mit Supersampling das allerdings auch erledigen lassen.

Was wollt ihr alles noch dem eDram in die schuhe schieben? MSAA und diese radiosity lightning reicht doch schon vollkommen. Ihr redet ja von dem eDram so als wäre er die GPU und nicht Xenos.

Genau das ist er ja fast, eine Co GPU!

Nun ich glaube kaum das er eine Co GPU ist, denn das einzige was er kann sind eben die oben genannten dinge. Ich könnte sogar sein das er nicht nur ein feature ist sondern sogar ein muss, denn ohne ihn wäre die GPU zu nichts zu gebrauchen.
 
Ice schrieb:
checker schrieb:
Ice schrieb:
guradia schrieb:
Terminator schrieb:
checker:
Hat der Xenos überhaupt ein solches transparentes Supersampling?

Nicht dass ich wüsste, nein ...

Durch den eDRAM dürfte ich mit Supersampling das allerdings auch erledigen lassen.

Was wollt ihr alles noch dem eDram in die schuhe schieben? MSAA und diese radiosity lightning reicht doch schon vollkommen. Ihr redet ja von dem eDram so als wäre er die GPU und nicht Xenos.

Genau das ist er ja fast, eine Co GPU!




Nun ich glaube kaum das er eine Co GPU ist, denn das einzige was er kann sind eben die oben genannten dinge. Ich könnte sogar sein das er nicht nur ein feature ist sondern sogar ein muss, denn ohne ihn wäre die GPU zu nichts zu gebrauchen.


Ne das ist Quatsch die meißte Arbeit macht ja immernoch die GPU außerdem sollte man versuchen die GPU und den eDRAM als Eins zu sehen das gesamte Teil wurde ja genau so geplant!

Man muss ATI schon loben was sie hiermit auf dei Beine gestellt haben ist schon Technik vom Feinsten :)


EDIT: Achja der eDRAM kann schon noch ein bischen mehr als die von dir genannten Dinge man kann sagen er nimmt der eigentlichen GPU die Arbeit ab die viel Performence und Bandbreite kosten daher hat er auch eine fette 256GB anbindung :)
 
@MTC001
Sony und NVidia sollen laut eigenen Aussagen schon 2 1/2 Jahre zusammen arbeiten.
Und wie gesagt, solange nix bestätigt ist, bleibt es eben nur spekulation.

@hammel
Bisi mehr an die frische Luft gehen würde vieleicht gut tun. ^^
 
guradia schrieb:
Terminator schrieb:
checker:
Hat der Xenos überhaupt ein solches transparentes Supersampling?

Nicht dass ich wüsste, nein ...

Durch den eDRAM dürfte ich mit Supersampling das allerdings auch erledigen lassen.

Meinst Du nicht, daß Du dem eDRAM ein bißchen zu viel zuschreibst? Und vor allen Dingen alles auf einmal? Was sollen denn die armen 10 MB RAM noch (denn mehr sind's nunmal bei aller Logik dahinter nicht) noch alles leisten?
 
Terminator schrieb:
Meinst Du nicht, daß Du dem eDRAM ein bißchen zu viel zuschreibst? Und vor allen Dingen alles auf einmal? Was sollen denn die armen 10 MB RAM noch (denn mehr sind's nunmal bei aller Logik dahinter nicht) noch alles leisten?

Was heisst hier noch?

MSAA ist nur eine verkappte Form des FSAA (~Supersampling). Ich tausche als nur die Technik ^^
Was es mit RadiosityLighting auf sich hat weiss ich gerade nicht. Wenn es aber ein Effekt ist, der auf ein BackBuffer-Image angwendet wird, halte ich das durchaus für OnTheFly möglich.

Sprich: Beide Effekte werde bei der Ausgabe des Bildes vom eDRAM an den RAMDAC (oder anderen Empfänger) eifnach hineingemischt ....

Utopisches Gedankengut ...
 
Guradia:

Ich kann Dir jetzt natürlich nicht das Gegenteil beweisen: Aber ich bleibe dabei: Ihr schreibt dem eDRAM zu viel zu ...
 
Terminator schrieb:
Guradia:

Ich kann Dir jetzt natürlich nicht das Gegenteil beweisen: Aber ich bleibe dabei: Ihr schreibt dem eDRAM zu viel zu ...

Warum soviel ist es doch gar nicht, du must wissen das die Logik für einzelnde Aufgaben im Chip bereits gespeichert sind das heißt das er diese auch ganz schnell durchführen wird und Dank der schnellen Anbindung weiter an die GPU gibt und zwar als erledigte Aufgabe das ist eigentlich der ganze Trick !
 
NeSS schrieb:
LOL?

Ihr glaubt wirklcih "the inquerer"? :lol:

Ob man den jetzt glauben soll ist eine andere Frage !
Aber soweit ich mich erinnere warst auch du der Meinung das der RSX auf dem G70 basiert vondaher ist es zwar nicht bestätigt aber sie schreiben das was du selbst spekulierst ;)


PS: Ich gehe aber auch davon aus :)

...... und das wäre alles andere als ein schlechter Chip wenn einige immernoch meinen sie bekommen einen Superchip dann ist das deren Problem und die sind natürlich entäuscht was aber unbegründet ist :)
 
Ich sag noch immer das der RSX auf dem G70 basiert, trotzdem glaub ich the inquerer gar nichts... :P
 
Und ich sage, daß - nachdem ich heute Abend ENDLICH dazu gekommen bin, mir die MANIAC-DVD mit dem E3 Material anzusehen - mir die ganze Technikdiskussion völlig egal ist.

Denn das Material, das SONY mit der PS3 gezeigt hat, ist ein heftiges Stück über dem der XBox360. Manche der XBox360 sahen geradezu peinlich aus ...
 
So langsam sollte Sony mal mit ein paar mehr Fakten bzgl. des RSX rausrücken.

Der Chip dürfte auf jeden Fall schon fertig designd sein, alles andere wäre ziemlich zeitkritisch, da erst noch der Prototypstatus durchlaufen werden muss um Fehler im Design und technische Probleme bei der Fertigung herauszufinden.
Der Xenos ist wie gesagt seit dem vierten Quartal letzten Jahres fertig im Design und erste Prototypen gab es auch schon vor der Jahreswende.
Die Nachricht, dass er an MS übergeben worden ist, gab es auch schon, so dass man davon ausgehen kann, dass er sich in der Massenproduktion befindet oder diese kurz bevor steht.
Das wäre also fünf Monate vor Launch, und das ist schon recht knapp um eine ausreichende Menge dann liefern zu können.
Wenn wir annehmen, dass die PS3 im Frühjahr nächsten Jahres, so um Mai, Juni ausgeliefert werden soll, müsste die Massenproduktion des RSX also auch so spätestens Ende des Jahres anlaufen.
Also wenn jetzt noch keine Prototypen existieren, wird es auch ein wenig knapp. Denn es braucht von da an auch ein paar Monate, bis der finale Chip dann in Produktion gehen kann.

Darum kann ich nur allen die meinen, der RSX sei noch nicht fertig und Sony könnte noch was drehen, auch dann, wenn die X360 bereits auf dem Markt ist, sagen, dass das logistisch gesehen einfach nicht möglich ist. Es geht auch nicht, mal eben die Taktrate zu erhöhen, da das zu einer geringeren Ausbeute an funktionierenden Chips führen würde und der einzelne Chip hierdurch teurer würde. Des weiteren würde er auch eine höhere Verlustleistung erzeugen, die mit aufwändigeren Kühlmechanismen abgeführt werden müsste.
Das die einzelnen Komponenten in einer Konsole mit der angegebenen Taktfrequenz laufen ist also nicht reine Willkür sondern eine technische Beschränkung.


Sollte der RSX wirklich nur ein leicht veränderter G70 sein, dann hätte Sony zwar mit der Leistung nicht gelogen, da ein G70 mit 550Mhz leicht schneller sein sollte als zwei GF 6800 Ultra im SLI-Betrieb.
In dem Punkt, dass er eine Generation weiter als der G70 sei, hätten sie aber die Unwahrheit gesagt. Denn nur den Fertigungsprozess von 110nm auf 90nm zu reduzieren hat keinen Einfluss auf einen Generationswechsel. Damit wird der Chip nur kleiner und damit billiger in der Fertigung und lässt sich bei gleicher Verlustleistung höher takten.

Die bisher von Sony veröffentlichten Daten bzgl. Transistorzahl und auch den Leistungsdaten lassen aber wirklich den Schluss zu, dass der RSX „nur“ ein um ca. 30% höher getakteter G70 ist.
Das würde auch Sinn ergeben, wenn man die Aussage seitens Sony und Nvidia, man kooperiere schon seit über 2,5 Jahren zusammen, anzweifelt.
Bisher sind eigentlich immer alle Kooperationen zwischen verschiedenen Partnern durch die Presse recht schnell bekannt geworden. So war es beim Cell, dem RAM-Speicher der PS3, Dem Xenos, den Speicherkarten für die X360 usw. Nur die Kooperation zwischen Sony und Nvidia will bis Ende letzten Jahres niemand gewusst haben ? Klingt nicht so recht glaubwürdig.
Vieles deutete wirklich darauf hin, dass die PS3 einen zweiten Cell zur Grafikberechnung erhalten sollte, dieses aber irgend wie doch nicht funktionierte, wie es sich Sony vorstellte. Zur Not wandten sie sich dann an Nvidia mit der Auflage, dass alle annehmen sollten, man arbeite schon viel länger zusammen. Denn es ist doch viel schwieriger die Aussage, man arbeite schon länger zusammen zu widerlegen als das Gegenteil, man arbeite erst sehr kurz zusammen. Bei der zweiten Annahme findet man immer jemanden, der bestätigen kann, dass die Zusammenarbeit schon länger besteht. Umgekehrt kann man fast unendlich viele Leute befragen, ob eine Zusammenarbeit schon länger besteht. Selbst wenn alle dieses verneinen, weil sie es nicht wissen, kann man das nicht ausschließen. Negative Abgrenzung sozusagen.
Ich lass mich jedenfalls mal überraschen, was da noch von Sony aus dem Hut gezaubert wird oder auch nicht.
Wenn es denn so gewesen ist, dann hatte Nvidia natürlich nicht die Zeit, einen eigens für eine Konsole angepassten Chip zu entwerfen sondern nur, einen bereits für den PC in der Entwicklung befindlichen Chip so anzupassen, dass er für eine Konsole geeignet ist.
Ähnlich wie bei der XBOX, wo Nvidia zwar mehr Zeit hatte als bei der PS3 (natürlich auf das von mir angenommene Szenario bezogen) aber immer noch wesentlich weniger Zeit als ATI bei der X360 hatte.

PS: Es muss natürlich nicht so sein wie ich es beschrieben habe. Es deutet nur so manches darauf hin


Um noch mal auf den Xenos zurück zu kommen.
Das zweite DIE auf dem Chip beinhaltet ja nicht nur das eDRAM sondern auch 192 kleine Prozessoren, die für das AA, Z-Buffer-Operationen und noch ein paar andere Spielerein zuständig sind. Da diese Operationen bei normalen GPU's den meisten Teil der Bandbreite zwischen GPU und Speicher ausmachen, entlastet das natürlich erheblich diese Bandbreite beim Xenos, da sich ja alles innerhalb des Chips abspielt. Das sollte man nicht vernachlässigen.
 
Ich bin kein Technik Guru, aber der EdRam des Xenos Chips scheint mir hauptsächlich für die Bildqualität zuständig zu sein, während die eigentliche GPU die Berechnungen vornimmt. Kann man das so stehen lassen, oder ist das quatsch?
 
In den gestrigen News Abends fand ich einen recht interessanten Beitrag von Konsolenfreund, den ich euch hier nicht vorenthalten will. Hier kommt die Diskussion dazu zwischen ihm und NeSS in voller Länge:
Konsolenfreund schrieb:
Selbst wenn ist gut. Ein G70 ist erheblich schneller als ein R500. Das ist keine Frage, auch wenn man das auf dem PC nicht wirklich sieht, weil einfach Speile fehlen, die solche PC-GPUs auch nur ansatzweise ausnutzen.

Der R500 ist von der reinen Rechenleistung knapp unter R420 Niveau, was schon ne Menge ist. Dann noch SM3.0 Rechengenauigkeit und durch unified Shader eine flexible Lastaufteilung. Die X360 mit ihrem R500 wird defnitiv gut abgehen.

Dass die PS3 schneller wird, sollte jeden klar sein. Aber mal ehrlich, ist das irgendwie schlimm? Deswegen ist die X360 trotzdem ein saugeile und schnelle Konsole. Außerdem wird sie immer günstiger sein, als eine PS3, was man nicht vergessen sollte und sie erscheint gute 6 - 12 Monate vor der PS3. Also nicht immer alles schwarz/weiß malen. Beide Konsolen sind rein technisch super und eine muss nun mal schneller sein. Dass es zwangsläufig die ist, die auch etwas später auf dem Markt kommt und mehr kostet, sollte doch nun wirklich niemanden verwundern.
NeSS schrieb:
Was für ein Blödsinn. Die R500 übersteigt mit der reinen Rechenleistung sogar die R520...
Konsolenfreund schrieb:
Yeah. Woher soll er denn die Leistung nehmen bei dem Tranistorcount und dem Takt? Außer Marketinggebrabbel zu glauben ist bei dir wohl nicht viel los? Sind hier nur so Banenbieger unterwegs, die überall ihren Senf zu geben müssen, obwohl sie garnicht wissen worüber sie reden? Und dann noch Vergleiche mit einer GPU anstellen, über die man noch garnichts genaues weiß. OMFG
NeSS schrieb:
Welcher Transistorcount?

Der R500 hat 232 + 100-150 Transistoren...
Takt ist 500, nur 50 weniger als RSX und viel mehr als R420.


Ich glaub du hast hier keine Ahnung, über die R500 weiß man ALLES.
ATI hat alle Daten preisgegeben...

Du weißt sicher nicht einmal das die R500 im Logikbereich des EDRAM 192 Microprozessoren hat die für sowas wie Culling, Global Illumination, Fluid Reality, 4xFSAA, Tesselation, usw verantwortlich ist?
Konsolenfreund schrieb:
Über den R520 weiß man erstens mal nichts konkretes, selbst Kristallkugel Fuad hält sich äußerst bedeckt, und wenn Du den R500 mit dem R520 vergleichst, dann merkt man gleich mal, dass Du so ein Marketing verseuchter Forumsjunkie bist, der schlicht irgendwelche Zahlen erfindet (siehe dein R520 Vergleich) oder die Zahlen, die er auf IGN oder so gelesen hat, überhaupt nicht selber interpretieren kann und nur irgendwleche vorgekauten Menungen nachlabert. Bravo!! X-D

Tranistoren vom eDRAM (und es wird eDRAM nicht EDRAM geschrieben, weil EDRAM schlicht kein eDRAM ist) zählt man ohnehin nicht mit, auch wenn da ein paar kleine interessante FSFX Schaltkreise drin sind. Also auch mal wieder ne Nullnummer diese deine Rechnung. Der R500 hat ~230 Mill. Transistoren bei 500Mhz. Der R420 hat ~160Mill. Transitoren und als X850XT-PE 540Mhz. Das sind ~40% mehr Transitoren. Von diesen 40% gehen schonmal alleine mindestens 80% alleine für die quasi SM3.0 Funktionalität der Shader drauf, und das ist sehr optimischtisch gerechnet. Dann kosten die Unifed Shader und mit ihrer recht aufwendigen Architektur nochmal locker 20%, nur damit sie unfied sind. Dann wären wir schon bei 100% von dem plus 40% gegenüber dem R420. Sprich beim R500 wurden viele Tranistoren in Funktionaltät gesteckt und nicht in Rohleistung (und das ist auch gut so).

Wenn man jetzt noch hofft, dass der R500 HDR kann, dann gehen locker nochmal 10Mill. Tranistoren drauf, wenn nicht mehr. Und ich meine nicht das unbrauchbare 8-bit HDR des R3xx/R4xx, sondern mindestens 16bit pro Kanal, wo HDR erst anfängt annähernd echtes HDR zu sein. Der RSX kann 32bit HDR(insgesamt 128bit), was der Defnition nach eigentlich erst echtes HDR ist.

So, dann wären die 40% mehr Tranistoren schonmal lange aufgebraucht für SM3.0, Unified Shader und ggf. HDR, etc. und der Chiptakt ist eh niedriger als der des R420/480 Topmodel und zwar um 40Mhz, was auch nochmal fast 10% weniger sind. Insgesamt sieht man nun, dass der R500 von der Roh-Leistung ungefähr X800Pro Niveau erreicht. Und durch die Unified Shader entfallen je nach Komplexität des Shadercodes nochmal gut 10% Performance gegenüber defined Shaderunits. ... Ist das schlimm? Nein, denn aus der Funktionaltät kann man gerade auf einer Konsole recht viel ziehen.

So, jetzt kommt bestimmt wieder so ne Bananbiegungstechnik, in der Du mir erklärst, dass der eDRAM ja so toll ist und das alles umbiegt. Nein, das wird er nicht. Der R500 holt seine Leistung ausder Praxis, denn er ist sehr flexibel und vielseitig, gerade auf einer Konsole von Vorteil, wenn die Dev.Studios entsprechend eingearbeitet sind und ihren persönlichen Weg bei der Shadergestaltung finden wollen. Außerdem ist er günstig in der Herstellung und Microsoft wird Sony sehr übel mit den X360 preisen ärgern können.


Der RSX hingegen hat mindestens 300Mill. Tranistoren mit 24 PS und 8 VS. Das Cell Interface mit direktem Zugriff auf SPEs und XDR wir die Tranistorenanzahl auch noch etwas ansteigen lassen. Und dann gibt es noch das Gerücht, dass Sony eigentlich plant eine 32Pipe G70 GPU aufzusetzen, womit wir dann defnitv weit über 360Mill. Tranistoren wären, gegenüber ~230Mill. des R500. Also so oder so - entweder der RSX hat mindestens 70Mill Tranistoren mehr als der R500 oder soagar mindestens ganze 130Mill. mehr, wenn der RSX ein G70 Devirat mit 32Pipes wird. Dazu noch die 50Mhz mehr Takt und die effizienteren Shaderunits. Bimmelts langsam auch bei dir, oder meinst Du immer noch, dass der R500, nur weil er flexibel ist, auch nur annähernd mit dem RSX mithalten kann? *.*

Der R500 bietet schlicht ein hervorragendes Preis-/Leistungsverhältniss für MicroSoft und somit für den Kunden. Note 1! Der RSX hingegen ist ein Monsterchip im Vergleich zum R500 (auch schon mit 24Pipes, geschweige denn mit 32Pipes), der Sony und den Kunden allerdings erheblich mehr Geld kosten wird. eDRAM braucht der RSX auch nicht, weil die Bandbreite der PS3 locker reicht für 4*AA in 720P, was auch die sweetpoint Resolution der X360 ist.

Also, wenn Du hier einen auf Technikguru machen willst, dann beschäftige dich mit der Thematik und schrieb nicht einfach so einen Mist nach, den Du irgendwo gelesen hast und nicht verstehst. Du willst doch mal ein Großer werden, oder nicht?
 
Mhhh. Einige Satzkonstruktionen sind etwas schief. Hätte den Text vorher nochmal in Ruhe lesen sollen. :lol: Naja, was solls. Inhaltlich ist alles richtig und es gibt Entwickler, die den R500 von der reinen Rohleistung sogar noch etwas niedriger einstufen, wobei ich mich bei der Rechnung schon extra zurück gehalten habe, um einige Leuten nciht zu sehr auf die füße zu treten.

Festhalten will ich aber, dass ich die X360 und den R500 durchaus gelungen finde und ich erwarte eine sehr gute grafische Leistung der Konsole, besonders im Verhältnis zum Preis. Die X360 hat trotz meiner exemplarischen Rechnung, die einigen Fanboys nicht gefallen wird, weil sie die Daten nicht deuten können, genug Leistung, um die nächsten Jahre für offene Münder zu sorgen.

Der R500 ist trotzdem keine eierlegende Wollmilchsau, wie manch ein X360 Fanboy das gerne sieht. Er wird mit ~80-160Mill. weniger Tranistoren und 50Mhz weniger Takt im Vergleich zum RSX, mit Sicherheit um einiges langsamer als der RSX sein. ATI kocht auch nur mit Wasser und die Unifed Shader haben nicht nur Vorteile, sondern auch Nachteile. Und das Silizium haben sie auch nicht neu erfunden.

Ich verstehe auch die ganze Streiterei nicht. Beide Konsolen sind sehr leistungsstark. Die ein kommt früher und kostet weniger und bietet geniale Grafik - die andere kommt später, war teurer in der Entwicklung, kostet mehr und bietet bessere Grafik. Wo ist das Problem? Wieso krampfhaft versuchen die "ältere", günstigere und weniger aufwendig entwickelte Konsole peinlich zu hypen, wobei sie das garnicht nötig hat, denn Leistung hat sie genug.

Ken Kutargi erzählt sicher Mist, wenn er sagt, dass die X360 nur eine Xbox1,5 ist. Ebenso erzählen ATI und Microsoft Mist, wenn sie den R500 auf RSX Leistungniveau sehen, weil er unifed Shader hat. Leute, fallt doch nicht auf so eine Marketinggebrabbel rein.

Ich jedenfalls freue mich auf die X360 und habe schon eine vorbestellt. Und wenn die PS3 kommt, freue ich mich auf diese. Und wer das Spieleangebot auf einer der beiden Konsolen nicht mag, der wird sowieso nicht zugreifen. Und dann gibts noch den Revolution, der vielleicht sogar PS3 und X360 in den Hintergrund treten lässt. :)
 
@Konsolenfreund

Konsolenfreund, dein ganzer Bericht ist korrekt.
Und ich hab den ganzen Mist von Ken Kutargi geglaubt, die X-Box360 wäre nur eine X-Box1.5 Schande über mich.
Und an alle anderen:
Jede Konsole verdient eine faire Chance.
Die technischen Unterschiede zwischen den Konsolen werden bei der Next-Gen Konsolengeneration gering ausfallen.



@ Mell@ce

Guter,-objektiver, sachlich korrekt aufgebauter Bericht über den RSX.
 
Was sehr interessant ist: In den meisten Benchmarks "alter" Spiele (also FarCry, Doom 3, Call of Duty, Half-Life 2 und Co.) erreicht der G70 nicht immer das Niveau zweier GeForce 6800 Ultra SLI. Aber im Benchmark mit der Unreal 3.0 Engine (also wohl einer der ersten "Next-Generation-Engines") hängt der G70 die 6800 Ultra SLI-Combo locker ab...
 
Konsolenfreund schrieb:
Mhhh. Einige Satzkonstruktionen sind etwas schief. Hätte den Text vorher nochmal in Ruhe lesen sollen. :lol: Naja, was solls. Inhaltlich ist alles richtig und es gibt Entwickler, die den R500 von der reinen Rohleistung sogar noch etwas niedriger einstufen, wobei ich mich bei der Rechnung schon extra zurück gehalten habe, um einige Leuten nciht zu sehr auf die füße zu treten.

Festhalten will ich aber, dass ich die X360 und den R500 durchaus gelungen finde und ich erwarte eine sehr gute grafische Leistung der Konsole, besonders im Verhältnis zum Preis. Die X360 hat trotz meiner exemplarischen Rechnung, die einigen Fanboys nicht gefallen wird, weil sie die Daten nicht deuten können, genug Leistung, um die nächsten Jahre für offene Münder zu sorgen.

Der R500 ist trotzdem keine eierlegende Wollmilchsau, wie manch ein X360 Fanboy das gerne sieht. Er wird mit ~80-160Mill. weniger Tranistoren und 50Mhz weniger Takt im Vergleich zum RSX, mit Sicherheit um einiges langsamer als der RSX sein. ATI kocht auch nur mit Wasser und die Unifed Shader haben nicht nur Vorteile, sondern auch Nachteile. Und das Silizium haben sie auch nicht neu erfunden.

Ich verstehe auch die ganze Streiterei nicht. Beide Konsolen sind sehr leistungsstark. Die ein kommt früher und kostet weniger und bietet geniale Grafik - die andere kommt später, war teurer in der Entwicklung, kostet mehr und bietet bessere Grafik. Wo ist das Problem? Wieso krampfhaft versuchen die "ältere", günstigere und weniger aufwendig entwickelte Konsole peinlich zu hypen, wobei sie das garnicht nötig hat, denn Leistung hat sie genug.

Ken Kutargi erzählt sicher Mist, wenn er sagt, dass die X360 nur eine Xbox1,5 ist. Ebenso erzählen ATI und Microsoft Mist, wenn sie den R500 auf RSX Leistungniveau sehen, weil er unifed Shader hat. Leute, fallt doch nicht auf so eine Marketinggebrabbel rein.

Ich jedenfalls freue mich auf die X360 und habe schon eine vorbestellt. Und wenn die PS3 kommt, freue ich mich auf diese. Und wer das Spieleangebot auf einer der beiden Konsolen nicht mag, der wird sowieso nicht zugreifen. Und dann gibts noch den Revolution, der vielleicht sogar PS3 und X360 in den Hintergrund treten lässt. :)

Ich will dir ja nicht zu nahe treten, aber deine Rechnungen hinken ein wenig.
Schon deine Kernaussage, Transistoren mit Leistung gleichzusetzen halte ich für ziemlich gewagt. Die letzten ATI-Chips hatten trotz erheblich weniger Transistoren als die Nvidia Pendants mehr Leistung.
Ich denke, da machst du dir es ein wenig zu einfach. Deine Rechnung hört sich ja für Otto-Normal-Bürger recht schlüssig an, nur ist das selbst für mich ein wenig zu sehr von der Hochrechnungsküche gekocht.


Ich will ja nicht auf Biegen und Brechen behaupten, dass der Xenos mehr Leistung erbringen wird als der RSX, aber sollte dieser wirklich nur der höher getaktete G70 sein, dann wird er es wohl auch.
Und dafür liegen nun wirklich genug gute und fundierte Artikel vor, die das belegen.

Deine Art über Ness zu lästern ist auch nicht gerade Taktvoll. Das einzige spekulative von ihm ist seine Aussage bzgl. des R520.
Deshalb muss man ihn aber nicht so anmachen.
Ich könnt dir auch vorwerfen, dass du den Unterschied zwischen einem reinen Desktop Chip wie es meiner Meinung nach der RSX werden wird und einem echten Konsolenchip wie es der Xenos sicher ist, nicht verstanden hast . Aufgrund der unterschiedlichen Architektur beider GPU's lassen sich beide sicher nicht so einfach, wie du es dir denkst, vergleichen.
Was das HDR nun mit der Leistung zu tun haben soll, bleibt mir auch ein Rätsel. Es ist eine neuere Technik, die das Bild besser ausschauen läßt, das ist klar. Nur wird auch der RSX dieses auch nicht performancefrei hinbiegen können im Gegensatz zur 32Bit Berechnung. Er ist aber wohl besser dazu geeignet als der Xenos, da gebe ich dir Recht, da dieser wohl "nur" über ein 10bit pro Kanal FP-HDR verfügt, was nicht ganz an ein 32Bit integer HDR pro Kanal heranreicht.

Wenn ich deinen Post jedenfalls so lese muss man ja annehmen, Du arbeitest als Entwickler bei einer der beiden Firmen. Dann aber Berichte von IGN und so zu erwähnen, die nun wirklich technische Nullnummern sind, zeugt nicht gerdade von differenziertem Fachwissen.
 
RSX = Desktop CPU?
NVidia entwickelt die RSX CPU schon seit 2 1/2 Jahren exklusiv für die PS3.
Sollte die G70 der RSX ähnlich sein, so kann man eher sagen dass die G70 eine KonsolenGPU ist!
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom