GPU:(PS3 vs X-BOX360 vs NRev) +Wird NRev stärkste Konsole?

Status
Nicht offen für weitere Antworten.
DotProduct schrieb:
Hehe. :p

DotProduct schrieb:
Du hast aber schon mein Post gelesen, dass es durch den Z-Pass eben doch genau dazu kommt, bei praktisch jeder aktuellen Engine, oder?
Doch, habe ich gelesen. Nur ist halt die Frage, ob die Passes insgesamt gesehen wirklich weniger werden im Vergelcih zum RSX. Dass der R500 einige kreative Ideen birgt, bestreitet ja niemand. ;)

http://flyingmice.com/cgi-bin/squidcgi/mbmessage.pl/amiga/116872.shtml Ist zwar ne Menge zu lesen, aber in einingen Postings steht ne Menge interessantes Zeug drin zu beiden Konsolen.
 
Was man auch nicht vergessen darf ist, dass sowohl Sony als auch MS bei den CPUs _ziemliche_ Augenwischerei betreiben.

3 G5 Cores Wow. - 3,2GHz... Wui...

Aber die Cores sind _extrem_ abgespeckt und der Grund für das Tricore Design liegt wohl primär darin, dass MS will, dass ihnen das Design der CPU gehört. Dies geht halt nicht bei einem echten G5. Das rückt IBM nicht heraus.

Daher stammt halt auch die Aussage, dass ein Core nur mit einem Celeron 1,7 zu vergleichen ist (Anantech). Man darf auch nicht vergessen, dass die CPUs (Xenos, Cell) nur über wenig L2 Cache verfügen - bei 3 Cores bzw. 7 SPUs.

Die ganzen Terraflops und co. sind unter dem Aspekt totales Marketing gewäsch.

Der Tricore kann wahrscheinlich extrem froh sein, wenn er irgendwann (gut programmiert) mit einem P4 3,5ghz mithalten kann. MS könnte es sich natürlich schlicht niemals leisten einen vollwertigen P4 zu verbauen.
 
DotProduct schrieb:
Die Frage ist halt was man als schneller bezeichnet. Die reine Shader und Rasterisierungsleistung wird vom RSX höher sein. Aber das DRam hat durchaus das Potential diesen Vorsprung bei angeschaltetem AA wieder mehr als wett zu machen (genau das behauptet ATI) und die unified shader können eventuell zumindest etwas aufschließen.

Andere Sachen sind 128Bit HDR. Das ist für eine Konsole imho schlicht unfug, da es Speicherbandbreite und Rasterisierungsleistung im Zweifel einfach mal auf ein 1/4 senkt. Spiele mit 128Bit+AA werden in der Folge keine NextGen Games mehr sein, siehe aktuelle PC Spiele. Viele HDR Effekte lassen sich gut Faken - dafür opfert man nicht soviel Leistung.
Auf dem PC sieht dies etwas anders aus, da Faken aufgrund der verschiedenen Architekturen nicht so gut funktioniert, weil die Grafikkarten morgen eh nocheinmal schneller sind und weil ATI/Nvidia nicht nur auf den Konsumer Markt schielen, sondern auch in die Workstations wollen.

Aber bei einer Konsole nur für Spiele ist FP10 imho einfach ein viel besserer Kompromiss. 90% der HDR Effekte hat man so praktisch umsonst.

Wenn Nvidia nur bei der reinen Leistung vorne liegt, aber keine innovativen/vergleichbaren Features beitet, dann können sie wieder ins Hintertrefen geraten was die Optik angeht. Wobei die Unterschiede wahrscheinlich mit der Lupe gesucht werden müssen.
Nun, Du hast Da sicherlich in einigen Punkten durchaus Recht. :wink4: Wo die Bandbreite für HDR128 herkommen soll ist mir auch schleierhaft. Jedenfalls kann der G70 nur 64bit HDR und der RSX 128bit. Ist das Feature nun völlig sinnlos in den RSX implementiert worden? Ich weiß es nicht. Seltsam ist´s schon.

40bit HDRist besser als garnichts, das stimmt shcon. Aber gerade was HDR angeht, ob bei R500 und insbesondere RSX, muss man wirklich mal abwarten was da kommt. Ich fände es halt seltsam, wenn man dme RSX 128nit HDR verpasst, obwohl es für Nüsse wäre.

Der eDRAM beim R500 ist toll, aber primär wird er dafür da sein, die niedrige Bandbreite des Hauptspeichers zu ersetzen. Wir er genau funktioniert ist allerdings in einigen bereichen nicht bekannt. Z.B. wenn ein Spiel 1080i nutzt, wäre es interessantz zu wissen, wie der eDRAM die Daten splittet, weil er dann hinten und vorne nicht mehr reicht.


DotProduct schrieb:
Ich habe halt so ein paar Anektdoten gehört... Aber Ken hatte ja nicht das alleinige sagen und IBM ist durchaus ein sehr starker Partner. Dank IBM ist auch zu hoffen, dass es einen vernüftigen Compiler für den Cell geben wird.
Das Problem der SPEs ist halt, dass sie nicht so flexibel sind. Passt man das Design der Spiele und die Grafik an die Anforderungen der SPEs an, dann gehen garantiert Dinge, die die XBox 360 nicht mehr schafft, aber das gilt auch umgekehrt.
Aber existierende Ideen/Technologien werden wohl erstmal mit der Tricore einfacher/besser und schneller unzusetzen sein.
So sind Kollisionserkennung oder das Traversieren von Quad/BSP Trees sehr wahrscheinlich Paradebeispiele dafür, was die SPEs nicht wirklich können, da der lokale Speicher zu limitiert ist.
Geht es darum 2000 Figuren mit jeweils sehr einfacher KI über ein Schlachtfeld zu jagen, dann sehe ich den Cell vorne. Wobei der Cell zumindest im Moment noch so schwer zu programmieren ist (die SPUs), dass sie wohl nicht viel verwendet werden bis zur 2./3. Generation.
Auch kann man bei der Tricore CPU wohl getrost davon ausgehen, dass eine effektive Auslastung von über 60% sehr selten sein wird. Effektiv wird durch die 3CPUs wohl eine Verdoppelung erreicht, was bedeutet, dass selbst im Worst Case die XBox 360 nur doppelt so schnell wie die PS3 ist. (Naive Cell Programmierung ohne SPEs - gutes Multithreading auf der Xbox360).


Aber gegenüber der PS2 wird die PS3 wohl ein klarer Schritt nach vorne sein, was Architektur und Programmierbarkeit angeht. (IBM und Nvidia sei dank)


Gruß
Also bei der Grafik können wir froh sein, dass nVidia den RSX beigesteuert hat. Was den Cell angeht scheint dieser wohl sehr von Sony dominiert entwickelt worden sein. Sony hat den größten Anteil der Entwicklungskosten getragen und IBM scheint auch nicht sehr zufrieden mit dem Cell zu sein, da sie ihn nicht vermarkten können.

Was den Cell und den X360 Prozessor angeht halte ich mich lieber zurück. Da gehen mir die Meinungen in den Fachkreisen zu sehr auseinander. Was die KI angeht habe ich allerdings gelesen, dass sehrwohl Algos gibt, die auf SPEs sehr komplexe KI Berechnungen zulassen. Keine Ahnung was nun stimmt.

Stimmen tut jedenfalls eins; beide CPUs gefallen den Entwicklern auf Anhieb nicht sehr gut, weil sie Gamecode auf Dauer völlig neu entwickeln müssen. Meiner Meinung nach soll da aber niemand meckern, denn auf X360 und Ps3 wird es eine Menge zu verdienen geben, was den anfänglichen Entwicklungsaufwand schnell wett machen sollte.

P.S.
Beid er X360 CPU solltest Du bei der Ausnutzung nicht vergessen, dass es nciht einfach 3 Cores sind, sondern insgesamt 6 Hardwarethreads! Und die sind auch nciht so leicht genutzt und durch In-Order Architektur auch nicht sonderlich effezient.
 
DotProduct schrieb:
Was man auch nicht vergessen darf ist, dass sowohl Sony als auch MS bei den CPUs _ziemliche_ Augenwischerei betreiben.

3 G5 Cores Wow. - 3,2GHz... Wui...

Aber die Cores sind _extrem_ abgespeckt und der Grund für das Tricore Design liegt wohl primär darin, dass MS will, dass ihnen das Design der CPU gehört. Dies geht halt nicht bei einem echten G5. Das rückt IBM nicht heraus.

Daher stammt halt auch die Aussage, dass ein Core nur mit einem Celeron 1,7 zu vergleichen ist (Anantech). Man darf auch nicht vergessen, dass die CPUs (Xenos, Cell) nur über wenig L2 Cache verfügen - bei 3 Cores bzw. 7 SPUs.

Die ganzen Terraflops und co. sind unter dem Aspekt totales Marketing gewäsch.

Der Tricore kann wahrscheinlich extrem froh sein, wenn er irgendwann (gut programmiert) mit einem P4 3,5ghz mithalten kann. MS könnte es sich natürlich schlicht niemals leisten einen vollwertigen P4 zu verbauen.
Ja, das stimmt. Der X360 Prozessor ist sogar kleiner als ein mickriger P4 Singlecore! Das mit den 3 Cores ist Augenwischerei.

Und wie schon oben erwähnt, man hat 6 Hardwarethreads, die ausgelastet werden müssen. Beim Cell sind es 2 Threads im PPC Core und 7 SPEs. Also auch nicht so groß der Unterschied. Und Physik wird man recht schnell massiv parallel ablaufen lassen können auf mehreren SPEs.

Den Anantech Artikel fand ich trotzdem voll daneben. Das war meist ein unsachliches Gebashe. AFAIk haben die sogar die komplette X360 CPU auf das Leistungsniveau eines Celeron 1400Mhz gesetzt, was ich mal ganz arg anzweifel.

So, gute Nacht und es war angenehm mit dir zu diskutieren. :)

Konsolenfreund


P.S.
Was den nichtvorhandenen Cache der SPEs angeht, den braucht ein Streampozessor nicht. ;)
 
@ Mell@ce
SanGoku:1. Maximale Polygonleistung:
125Mill.(X-Box) = 0,125
500Mill.(X-Box360) = 0,5(Mehrleistung)
Mell@ce schrieb:
Ich kann beim besten Willen diese Rechnung nicht ganz nachvollziehen, geschweige denn verstehen

125 = 0.125
500 = 0.5

XBOX360 deshalb XBOX mal 1,5 ?
HÄ????

Ich würde ja sagen, geilste Rechnung ever

Aber Spaß beiseite.
Selbst wenn Du nur die Leistung von den Polygonangaben abhängig machen würdest, was gelinde gesagt, mehr als schwachsinnig wäre, dann kommt bei mir bei 500 durch 125 immer noch der Faktor 4 bei raus.

Hieße ich also Sanguko müsste ich sagen.
XBOX360 = XBOX 4,0

Aber selbst der gute Ken, so hat DotProduct es ja schon schön formuliert, meinte mit seiner 1,5 Behauptung nicht einen Multiplikationsfaktor sondern, dass die XBOX360 kein echter Nachfolger ist sondern nur ein Zwischenprodukt, was natürlich ebensolcher Unsinn ist.
Zählen kann ich auch Mell@ce. Ich werde mich aber etwas klarer ausdrücken, wie ich es gemeint habe:
X-Box =125Mill.Maximale Polygonleistung = 1.0Konsole
X-Box360 =500Mill.Maximale Polygonleistung(x4) = 1.5Konsole
? =1000Mill.Maximale Polygonleistung(x8) = 2.0Konsole
Ich hoffe, jetzt ist es etwas verständlicher, wie ich es meine. Mindestens maximaler Polygonleistungsfaktor x8 ergibt für mich eine 2.0Konsole. Aber ich halte die X-Box360 für eine 1.7 Konsole. Die Begründung dafür erwähnte ich bereits in einem früherem posting.
SanGoku: @Konsolenfreund(und alle anderen, die es wissen)

2.
X-Box360 = 22,4GB/s (Speicherbandbreite)
PS3 = 22,4GB/s VRAM + 25,6GB/s MainRAM = 48GB/s(Speicherbandbreite)

Konsolenfreund gibt an komplette Bandbreit mit ~55Gb/s(PS3)

Frage: Was ist nun Sache. Was stimmt nun an dem ganzem Zeug und was nicht?
Mell@ce schrieb:
2.Du zitierst ja gerne Konsolenfreund. Bist du mit dem Verwandt
Zur Bandbreite, das stimmt schon, wenn man nur die Bandbreite zwischen GPU und dem Haupt- bzw Grafikspeicher einbezieht.
Allerdings muss man wissen, was alles Bandbreite verbraucht.

Oje, wird wieder nen langer Text, seh ich jetzt schon

Die PS3 hat ja bekanntlich zwei Speicherbereiche, das VRAM, auf den die GPU zugreift und das Mainram, auf das hauptsächlich der Cell zugreifen kann. Hauptsächlich deshalb, weil auch die GPU wenns eng mit dem VRAM wird, das Mainram mitnutzen kann. So gesehen kann die GPU bei günstigen Bedingungen mit der Bandbreite des MainRams plus der Bandbreite des VRAMS auf den Speicher zugreifen.

Die X360 hat nur einen Speicher, auf den CPU und GPU zusammen zugreifen können. Somit sieht es zuerst einmal so aus, als dass die X360 wesentlich weniger Bandbreite zur Verfügung hat als die PS3.

Jetzt muss man aber wissen, dass sehr viel Bandbreite durch Tiefenvergleich, Alphawert-Berechnungen und natürlich AA benötigt wird.
Diese ganzen Operationen müssen durch die PS3 Bandbreite abgedeckt werden, 2.1 bei der X360 werden diese aber alle im eDRAM ausgeführt, das ja bekanntlich eine viel höhere eigene Bandbreite zur Haupt-GPU besitzt (laut Entwickler 236Gbit, innerhalb des eDRAM sogar mit 256GByte). Die PS3 hat somit beim ausschließlichen Zugriff ihrer GPU auf ihr VRAM erheblich weniger Bandbreite als die X360. Erst beim Zugriff auf beide Speicher wird sie ähnliche Bandbreite besitzen. Die genaue prozentuale Verteilung der Bandbreite für allgemeine Grafik-, Texturen-, Alpha-, Z- usw -Zugriffe weiß ich natürlich nicht und werden sich auch von Spiel zu Spiel oder sogar Szene zu Szene unterscheiden.

3. Fakt ist jedenfalls, dass aufgrund der völlig verschiedenen Architektur beider Konsolen solch eine einfache Bandbreitengegenüberstellung ohne näheren Hintergrund keinen Sinn macht, ja sogar die Fakten wie man sieht, verdrehen kann.
2.So ähnlich habe ich es auch vermutet. Du hast es klar und objektiv erklärt. :) Inzwischen habe ich die Funktion des eDRAMs gut verstanden und wie wichtig seine Aufgabe in der X360 ist. Mann, ohne den eDRAM hätte die X360 ein riesen Problem.
Mell@ce: bei der X360 werden diese aber alle im eDRAM ausgeführt
2.1 Weist du das mit ,,alle'' auch genau oder vermutest du es?
3. Stimmt. Beide sind recht anders. Aber beide sind fast genauso gut. Der Unterschied wird da sehr minimal ausfallen. Jetzt kann man überhaupt nicht einschätzen welche der beiden Bandbreitenformate effektiver ist. Die Spiele werden es wohl zeigen müssen. Aber auch da wird es nicht einfach zu erkennen sein bei dem kleinem Unterschied. Was mich besonders interessiert ist, welches Format sich bei HDTV als effektiver erweisen wird.
Sangoku: 4.Wie ist eine herkömliche Pixel Pipeline mit einer Unified Pipeline allein nur von ihrer Leistung an sich her zu vergleichen?
Ich hab Gerüchte gehört, diese wären von ihrer Leistung an sich nicht zu vergleichen. Die Unified Pipelines kommen von ihrer Leistung an sich nicht ganz an die herkömlichen Pipelines ran.
Hier bitte ich nämlich auch um eine objektive, fachlich korrekte Erklärung.
Mellace schrieb:
Die Frage ist auch nicht so leicht zu beantworten.
Wenn man nur die Pipelines als solche sieht, so hat eine Unified Pipeline (kurz US-P ab jetzt genannt), wenn sie Vertex-Berechnungen ausführt, in etwa die gleiche Leistung wie eine feste Pipeline.
Feste Pixelpipelines sind als solches wohl um den Faktor zwei leistungsstärker als eine US.
4.1 Aber: Laut ATI erreichen die US-Pipelines eine 96-98 Effektivität.
4.2 GPU's mit normalen Shadern jedoch nur 50-60%
Eine herkömmliche GPU, die auf eine theoretische Leistung von z.B. 100Leistungseinheiten kommt entspräche somit einer GPU mit US-Pipelines, die nur auf 50-60Leistungseinheiten käme. Man sieht, dass man absolute Leistungsangaben auch hier nicht einfach vergleichen kann.
Dazu kommen noch ein paar Dinge, die dem Xenos zum Vorteil gereichen.
Z.B. benötigt der G70 bei Texturenzugriffen seine Pixelpipelines, und zwar eine der zwei ALU’S . Wenn also Texturen bearbeitet werden, sinkt die Leistung der entsprechenden Pipeline auf die Hälfte. 4.3 Die Leistung der US-P’s des Xenos bleibt, so viel ich lesen konnte, davon unberührt.
4.1 Darauf würde ich mich nicht verlassen. ATI redet sich seine US-Pipelines nur selber schön. Ich halte sie für weniger effektiv.
4.2 Da stimme ich dir nicht zu. Ich halte diese für effektiver.
4.3 In diesem Punkt stimme ich dir auch nicht zu.

5. Du gehst davon aus, das der RSX nicht mehr als ein höher getakteter G70 ist. Ich hingegen denke das der RSX mehr ist. An dem Gerücht mit der Pipelineserhöhung könnte was dran sein. Und außerdem denke ich weiterhin dass der RSX, G80-Technologie erhalten wird, auf welche Weise auch immer. Mal sehen, wer da richtig liegt?
Mell@ce schrieb:
Ich hoffe das war objektive genug für dich
Ja das wars. Danke. :) Mach mir noch einen gefallen Mall@ce: Behalte diese Objektivität bei allen deinen weiteren postings bei. Krigst du das hin?
Das wäre echt gut.
 
@ Konsolenfreund

Mann, o Mann. Du gibst ja richtig Gas.
Das gefällt mir. Hier herrscht echt viel Aufklärungsbedarf.
 
ich versteh einfach nicht, warum ständig die effektivität der unified shader angezweifelt wird.

die einen sagen, die us können nicht mit bis zu nahezu 100% ausgelastet werden, dabei ist ja genau das der witz dieser architektur, während andere wieder behaupten die alus seien soviel langsamer als die, die bisher bei getrennten pipelines eingesetzt wurden.

die sache ist klar: mit us gibts eine nahezu vollständige nutzung der alu power und viel langsamer sind die 48 us einheiten sicherlich nicht.

und das hier schonwieder irgendwelche ur-komischen rechnungen gemacht werden, um zu "beweisen", dass die xbox360 ne xbox 1.5 sein soll passt eigentlich nur ins bild.

und nein, bisher kann noch kein richtiger vergleich zwischen den beiden konsolen gemacht werden. die xbox360 kann genauso schneller wie die ps3 werden wie umgekehrt.
(wobei ich ja immernoch auf die xbox360 tippe)
 
Konsolenfreund schrieb:
40bit HDRist besser als garnichts, das stimmt shcon. Aber gerade was HDR angeht, ob bei R500 und insbesondere RSX, muss man wirklich mal abwarten was da kommt. Ich fände es halt seltsam, wenn man dme RSX 128nit HDR verpasst, obwohl es für Nüsse wäre.
Sind bei der X360 nicht 40 sondern nur 32bit HDR (10/10/10/2), dafür aber ohne Leistungsverlust.
Laut Sony wird 128bit HDR schon mit einem Einbruch der Leistung einher gehen. Es wurde mal was vom Faktor zwei erzählt. Genaueres ist aber wohl noch nicht bekannt.

Konsolenfreund schrieb:
Der eDRAM beim R500 ist toll, aber primär wird er dafür da sein, die niedrige Bandbreite des Hauptspeichers zu ersetzen. Wir er genau funktioniert ist allerdings in einigen bereichen nicht bekannt. Z.B. wenn ein Spiel 1080i nutzt, wäre es interessantz zu wissen, wie der eDRAM die Daten splittet, weil er dann hinten und vorne nicht mehr reicht.

Im Artikel von beyond3d steht die Technik drin. Das Bild wird wirklich aufgeteilt. Bei 720P und 4fach AA z.B. in drei Teile, bei 1080i und 4fach in 4.
http://www.beyond3d.com/articles/xenos/
oder direkt die entsprechende Seite des Artikels
http://www.beyond3d.com/articles/xenos/index.php?p=05#tiled
Aber laut Heise ist ein 4fach AA ja schon ab 720p beim Xenos nicht möglich. Das mal zu verfrühten und aus Spekulationen heraus veröffentlichten Berichten eines ansonsten sehr kompetenten Verlags.
 
Konsolenfreund schrieb:
DotProduct schrieb:
Was man auch nicht vergessen darf ist, dass sowohl Sony als auch MS bei den CPUs _ziemliche_ Augenwischerei betreiben.

3 G5 Cores Wow. - 3,2GHz... Wui...

Aber die Cores sind _extrem_ abgespeckt und der Grund für das Tricore Design liegt wohl primär darin, dass MS will, dass ihnen das Design der CPU gehört. Dies geht halt nicht bei einem echten G5. Das rückt IBM nicht heraus.

Daher stammt halt auch die Aussage, dass ein Core nur mit einem Celeron 1,7 zu vergleichen ist (Anantech). Man darf auch nicht vergessen, dass die CPUs (Xenos, Cell) nur über wenig L2 Cache verfügen - bei 3 Cores bzw. 7 SPUs.

Die ganzen Terraflops und co. sind unter dem Aspekt totales Marketing gewäsch.

Der Tricore kann wahrscheinlich extrem froh sein, wenn er irgendwann (gut programmiert) mit einem P4 3,5ghz mithalten kann. MS könnte es sich natürlich schlicht niemals leisten einen vollwertigen P4 zu verbauen.
Ja, das stimmt. Der X360 Prozessor ist sogar kleiner als ein mickriger P4 Singlecore! Das mit den 3 Cores ist Augenwischerei.

Und wie schon oben erwähnt, man hat 6 Hardwarethreads, die ausgelastet werden müssen. Beim Cell sind es 2 Threads im PPC Core und 7 SPEs. Also auch nicht so groß der Unterschied. Und Physik wird man recht schnell massiv parallel ablaufen lassen können auf mehreren SPEs.

Den Anantech Artikel fand ich trotzdem voll daneben. Das war meist ein unsachliches Gebashe. AFAIk haben die sogar die komplette X360 CPU auf das Leistungsniveau eines Celeron 1400Mhz gesetzt, was ich mal ganz arg anzweifel.

So, gute Nacht und es war angenehm mit dir zu diskutieren. :)

Konsolenfreund


P.S.
Was den nichtvorhandenen Cache der SPEs angeht, den braucht ein Streampozessor nicht. ;)

DotProduct :
Das ist nur ein Teil der Wahrheit!
Klar, der 3-Core G5er der Xbox360 ist abgespeckt, aber halt nur auf das nötigste. ZWar kann man ihn als G5light nennen, jedoch nicht wenn es ums Spielen geht.
er ist zwar langsamer in Sachen was Textverarbeitung o.A angeht, fürs Spielen jedoch ist er sauschnell...

Dieser Artikel war fürn Arsch ;) War ein verzweifelter Versuch von einem PC-Fanatiker die Konsolen runterzumachen. Jedoch hat er die Konsole 1-1 einem PC gleichgesetzt und DANN verglichen.
Arm ;)


Was den Cell angeht, jede SPE hat seinen eigenen Cache! 128Kbyte pro SPE.
Jedoch können SPE's auf Caches von anderen SPE's zugreifen, sollte dieser grad nicht genutzt werden. Dynamischer Cacheeinsatz...
Die Power6 HAupt-CPU hat wiederum einen eigenen grösseren Cache.
 
Jinpachi schrieb:
@all

zurück zum thema ^^

würde die Nrevo alle schlagen ??

Klar würde der REVO ALLES schlagen wenn er folgendes Hätte!

A64 x2 4000+ (Dualcore)
DualCore GPU R600 mit 96 Unified Shadern und 700MHz Core
15x HDMI anschlüsse :rolleyes:
30x1000Mbit Lananschlüsse 8-)
Und natürlich 20GB Cartridges asntatt optisches laufwerk :blushed:
Und natürlich Pokemon als Starttitel.....
Aber wer würde schon 1000€ für ne konsole zahlen :)
 
@ mia.max

mia.max schrieb:
ich versteh einfach nicht, warum ständig die effektivität der unified shader angezweifelt wird.
Weil diese einfach nicht so effektiv sind wie die herkömlichen Vertex Shader eben.
Die Effektivität der unified shader sehe ich persönlich bei ca.70-max.80%.
Dies wird also zu wenig sein um der X360 einen Vorteil gegenüber der PS3 zu verschaffen. Aber frag mal da ein paar, die sich damit besser auskennen, die werden dir die Ineffektivität der unified shader noch beweisen. Mir fehlt dazu das Fachwissen. Ich habe diesen Punkt schon einmal am 30.6.05 im geschlossenen Thread erwähnt, aber keiner hat ihn mir geglaubt:
Sangoku:Die Unified Pipelines und Unified Shader-Architecture sind eine Weiterentwicklung der herkömmlichen Pipelines und Shadertechnik. Jedoch ist diese Technik noch unausgereift und wird der X-Box360 keine Vorteile bringen.
Nun kommt es langsam ans Licht. Es fehlt nur noch, das sich Spieleentwickler dazu entsprechend negativ äußern. Aber dies wird wahrscheinlich erst im Laufe der Spielesoftwareentwicklung auf der X360 stattfinden, wenn sich die Fehler der Konsole offenbaren. Ich bin mir ganz sicher, das dies der Fall sein wird.
 
SanGoku schrieb:
Weil diese einfach nicht so effektiv sind wie die herkömlichen Vertex Shader eben.
wenn du die shader architekturen vergleichst, musst du schon vertex und pixel shader heranziehen und da isses nunmal so, das die gpu warten muss, bis pixel und vertex shader durchgelaufen sind.
dadurch entsteht ne wartezeit, die es bei unified shadern eben nicht mehr gibt.

gerade die effizienz dieser technik (fast 100% auslastung der alus möglich) macht es ja so interessant und zukunftsweisend.

das die einzelnen alus durch die grössere funktionalität etwas langsamer sind ist natürlich sehr gut möglich, da hat man aber noch nix gehört.
dafür gibts auch entsprechend mehr davon :)

SanGoku schrieb:
Die Effektivität der unified shader sehe ich persönlich bei ca.70-max.80%.
k.a. wie du darauf kommst, aber mit us is ne fast 100%ige auslastung möglich, weils egal is ob vertex oder pixel daten verarbeiten werden müssen.

da liegt ja genau der vorteil von unified shadern.


SanGoku schrieb:
Dies wird also zu wenig sein um der X360 einen Vorteil gegenüber der PS3 zu verschaffen.
nun wie die gesamtleistung nachher aussieht weiss man sowiso noch nicht...
bisher ist erst bekannt, wie die technik der 360 aussieht.


SanGoku schrieb:
Aber frag mal da ein paar, die sich damit besser auskennen, die werden dir die Ineffektivität der unified shader noch beweisen.
mach das :)
aber ich denke jeder, der sich mit der materie befasst hat wird dir sagen, dass alleine durch us die alus wirklich ausgenützt werden können.


SanGoku schrieb:
Mir fehlt dazu das Fachwissen. Ich habe diesen Punkt schon einmal am 30.6.05 im geschlossenen Thread erwähnt, aber keiner hat ihn mir geglaubt:
Sangoku:Die Unified Pipelines und Unified Shader-Architecture sind eine Weiterentwicklung der herkömmlichen Pipelines und Shadertechnik. Jedoch ist diese Technik noch unausgereift und wird der X-Box360 keine Vorteile bringen.
die unified shader sind mit sicherheit eine art "weiterentwicklung" der bisherigen technik, halt in der richtung, dass die alus nun einfach beides verstehen, so das die synchronisationswartezeit wegfällt.
zudem, woher nimmst du die annahme das die technik noch unausgereift ist ?
nach ati funktioniert das prinzip ja prima.

SanGoku schrieb:
Es fehlt nur noch, das sich Spieleentwickler dazu entsprechend negativ äußern. Aber dies wird wahrscheinlich erst im Laufe der Spielesoftwareentwicklung auf der X360 stattfinden, wenn sich die Fehler der Konsole offenbaren. Ich bin mir ganz sicher, das dies der Fall sein wird.
nun wenn du meinst.
ich denke nicht, dass da was negatives zu hören/lesen sein wird.
 
@SanGoku

Deine Polygon leistungs rechnung ist ja sowas von für's milchmädchen...
Voll texturiert und ausgeleuchtet erreichen heuteige spiele vielleicht 1/5 der 500mio polygone. Dnen solche werte wie max poly durchsatz sind immer theoretische maximal werte die sich auf ein untexturiertes szenario beziehen, zumal die entwicklung dahingeht mehr auf mapping zu setzten als auf polycount. xbox 1.7 so ein schwachsinn...
 
Nur mal so:

720p: 1280 x 720 ~ 1M

Das bedeutet, dass man mit 60M Polygone/S in etwa ein Polygon pro Pixel hätte (bei 60hz)!

Bei einem Overdraw von 2 hat man mit 120M Polygone/Sekunde effektiv ein Polygon pro Pixel.

Ich hoffe dies macht klar wie theoretisch ein Wert von 500m Polygonen/Sekunde ist.

Wenn man aktuelle Spiele anschaut ist von ein Polygon pro Pixel nicht viel zu erkennen - was wohl klarmachen sollte in welchen Regionen der Polycount wirklich ist.

Diese Rechnung zeigt übrigens auch den Nutzen der "unified shader". Denn je näher man den 120M Polygonen kommt desto wichtiger wird die Vertexshader Leistung. Langfristig wird man nämlich wirklich bei einer Ration von einem Polygon pro 3 Pixel öä landen. Vielleicht nicht mehr in dieser Konsolengeneration, aber wer weiß das schon.

GoW (PS2) benutzt z.B. auch untexturierte Polygone um den Detailgrad erhöhen zu können, da die PS2 Probleme mit Texturen hat aber eben einen sehr hohen Polycount.
 
nightelve schrieb:
Was den Cell angeht, jede SPE hat seinen eigenen Cache! 128Kbyte pro SPE.
Jedoch können SPE's auf Caches von anderen SPE's zugreifen, sollte dieser grad nicht genutzt werden. Dynamischer Cacheeinsatz...
Die Power6 HAupt-CPU hat wiederum einen eigenen grösseren Cache.
Ne, die SPEs haben keinen Cache. Wäre auch völlig unnötig bei dieser Art von Prozessor. Die 128KB pro SPE stellen einen Anweisungs- und Datenspeicher dar, der eine völlig andere Funktion erfüllt, als ein Cachespeicher.
 
Konsolenfreund schrieb:
nightelve schrieb:
Was den Cell angeht, jede SPE hat seinen eigenen Cache! 128Kbyte pro SPE.
Jedoch können SPE's auf Caches von anderen SPE's zugreifen, sollte dieser grad nicht genutzt werden. Dynamischer Cacheeinsatz...
Die Power6 HAupt-CPU hat wiederum einen eigenen grösseren Cache.
Ne, die SPEs haben keinen Cache. Wäre auch völlig unnötig bei dieser Art von Prozessor. Die 128KB pro SPE stellen einen Anweisungs- und Datenspeicher dar, der eine völlig andere Funktion erfüllt, als ein Cachespeicher.

Jup das Stimmt , ich sehe es aber sehr ähnlich wie Du das die Entwickler am Anfang meckern werden wegen den CPUs der Next Gen aber letztendlich sich damit abfinden müssen und das nicht nur im Konsolen Bereich da der Trend Multicore auch auf dem PC einzug findet und das auch aus gutem Grund , es macht halt keinen Sinn mehr die Singel Core CPUs höher zu Takten da der Aufwand > Nutzen Faktor einfach nicht mehr vorhanden ist !

Etwas Gutes hat es wirklich die Optik der Games kann sich in laufe der Zeit rasch verbessern und man sieht es eher al bei der jetzigen Generation :)
 
DotProduct schrieb:
Nur mal so:

720p: 1280 x 720 ~ 1M

Das bedeutet, dass man mit 60M Polygone/S in etwa ein Polygon pro Pixel hätte (bei 60hz)!

Bei einem Overdraw von 2 hat man mit 120M Polygone/Sekunde effektiv ein Polygon pro Pixel.

Ich hoffe dies macht klar wie theoretisch ein Wert von 500m Polygonen/Sekunde ist.

Wenn man aktuelle Spiele anschaut ist von ein Polygon pro Pixel nicht viel zu erkennen - was wohl klarmachen sollte in welchen Regionen der Polycount wirklich ist.

Diese Rechnung zeigt übrigens auch den Nutzen der "unified shader". Denn je näher man den 120M Polygonen kommt desto wichtiger wird die Vertexshader Leistung. Langfristig wird man nämlich wirklich bei einer Ration von einem Polygon pro 3 Pixel öä landen. Vielleicht nicht mehr in dieser Konsolengeneration, aber wer weiß das schon.

GoW (PS2) benutzt z.B. auch untexturierte Polygone um den Detailgrad erhöhen zu können, da die PS2 Probleme mit Texturen hat aber eben einen sehr hohen Polycount.

Fehlt da bei der Rechnung nicht noch die Farbtiefe, oder wird die bei der Darstellung gar nicht miteinberechnet? Also mein Pc läut auf einer 32-bit auflösung einiges langsamer als mit einer 16-bit Auflösung
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom