PS3 vs. xbox 360 grafik???

iimpact schrieb:
Anhand der Benchmarkwerte zur Q4 Raytrace Engine sieht man auch sehr gut das eine Raytrace Engine nahezu 100% mit jedem Kern linear skaliert.

http://www.q4rt.de/
Hier die offizielle Seite. Er kommt von der Uni Saarland aus Slusalleks Forschungsgruppe. Die hatten ja auch schon die Raytracing Karte mit 33MHz gebaut, die erstaunliche Ergebnisse geliefert hat.
Ich war mal bei einer interessanten Podiumsdiskussion wo Slusallek und Reiners sehr aufgebracht diskutiert haben. Da ging es auch um die Zukunft der Computergrafik.
 
Xenobit schrieb:
Ich war mal bei einer interessanten Podiumsdiskussion wo Slusallek und Reiners sehr aufgebracht diskutiert haben. Da ging es auch um die Zukunft der Computergrafik.
und, was kam dabei raus? :blushed:
 
flo88 schrieb:
Was, habe ich nicht recht? :oops:

Hast du nicht mal gesagt, das du ne Frau bist??

Nene, das war Cortana ;)

Aber keine Angst, ich war hier schon ein N-, M und S-Fanboy , auch schon mal ein Crapboy wenns nach Nazarar geht ,
aber Frau ist ech mal was neues..... :lol:
 
Xenobit schrieb:
Da stimme cih Dir zu. Bei der 360 wird ja beispielsweise 1 Core verwendet um DD 5.1 zu codieren und man hat beispielsweise die PhysX SDK von Ageia auf einen Core zugeschnitten (ich arbeite selbst auch damit). Die alles trägt zur Immersion des Spiels bei, steigert aber nicht die grafische Darstellung. Spiele profitieren von mehreren Cores durchaus, aber nicht auf grafischer Ebene.
Und an der Stelle kann dann der Datenbus zwischen RSX und Cell zum Tragen kommen. Geometriedaten und Texturen können via Cell schnell nachgeschoben und verändert werden. Auch der (fertige) Framebuffer lässt sich nochmal durch die SPEs schicken. Nur sind das schon Techniken, die zur Architektur der Xbox 360 wohl völlig inkompatibel wären und daher (nebst nur für Fortgeschrittene) für Multigames nicht in Frage kommen.
Xenobit schrieb:
Da wäre es dann sinnvoll zwei GPUs zu verwenden. Die SLI oder CrossfireKarten zeigen ja wie es geht und wie die Performance steigt.
Wenn ich eine Konsole bauen dürfte, würde ich einen DualCore Prozessor und 2 GPUs nehmen. Beides Technologien die schon da und billig zu produzieren sind. Und zwei GPUs sind kinderleicht zu verwenden, bzw muss man sich als Entwickler damit überhaupt nicht beschäftigen.
Ähm, wer soll die Konsole bezahlen und vor allem: was soll die noch leise kühlen?!? ;) :D Ach Moment, lass mich raten: du hast ne Xbox 360? ;)

P.S.: Die aktuelle Havoc hat einen ziemlichen Boost erfahren, da sie jetzt auf mehreren SPEs läuft.
 
squallsdestiny schrieb:
Nene, das war Cortana ;)

Aber keine Angst, ich war hier schon ein N-, M und S-Fanboy , auch schon mal ein Crapboy wenns nach Nazarar geht ,
aber Frau ist ech mal was neues..... :lol:
Ou, dann ein grosses :sorry:
 
pn18 schrieb:
und, was kam dabei raus? :blushed:
Das sind zwei Welten aufeinandergeprallt. Slusallek ist ein Raytracer, der darin die Zukunft sieht. Sein Hauptargument ist, dass sich die Taktraten nicht unendlich steigern lassen und man zur Parallelisierung von Grafik gehen muss. Dabei bietet sich Raytracing sehr gut an, da dies fast linear skaliert, also 4 Kerne bringen (fast) 4 Mal so viele Frames. Zumal kann man mit Raytracing viele Effekte dartellen, die Polygongrfik nicht kann. Beispielsweise indirekte Beleuchtung oder Kaustiken. Das wird bei Polygongrafik alles gefaked (ob man den Unterschied sieht sei mal dahingestellt.)
Reiners vertritt die Ansicht, dass die grafische Qualität durch drastische Erhöhung des Polycounts und der Aulösung am besten erreichen lässt.
Wenn man sich die HEyeWall im IGD in Darmstadt ansieht, dann ist da auch was dran. Das ist eine 5 Meter breite Leinwand mit einer Auflösung von 6144 x 3072. Das ganze ist dann noch in Stereo gerendert. Das führt zu dem faszinierenden Effekt, dass das Bild immer schärfer wird, je dichter man dran geht. Das ganze benötigt aber 48 Rechner mit 48 Grafikkarten. 48 Beamer braucht man auch noch ;)
Das Ergebnis ist auf jeden Fall sehr beeindruckend!
Die konnten sich nicht einigen! War auch klar, da sonst wohl einer keine Forschungsgelder mehr bekäme, wenn er sagen würde sein Verfahren hat keine Zukunft.

Mein Ansatz wäre eine Hybridlösung. Die starre Geometrie und Beleuchtung mit Raytracing. Genau wie einige Effekte. Die sehr dynamischen Objekte würde ich mit hohem Polycount (oder hoch aufgelöster Normalmap) rendern. Das Ganze in einer sehr hohen Auflösung. Dafür bräuchte man ein MultiCore und MultiGPU System, was heutzutage kein Problem darstellen sollte.
 
Xenobit schrieb:
Mein Ansatz wäre eine Hybridlösung. Die starre Geometrie und Beleuchtung mit Raytracing. Genau wie einige Effekte. Die sehr dynamischen Objekte würde ich mit hohem Polycount (oder hoch aufgelöster Normalmap) rendern. Das Ganze in einer sehr hohen Auflösung. Dafür bräuchte man ein MultiCore und MultiGPU System, was heutzutage kein Problem darstellen sollte.

Darauf wird es meiner Ansicht nach auch erst mal hinaus laufen.
 
Luke64 schrieb:
P.S.: Die aktuelle Havoc hat einen ziemlichen Boost erfahren, da sie jetzt auf mehreren SPEs läuft.

Man sollte nicht verschweigen, dass sie auch auf die Cores der 360 verteilt werden kann. Die letzte Renderware Engine konnte das schon.
Havok hat aber auch nochmehr Boost erfahren, weil ja Havok 4 in CG auf den NVidia GPUs läuft. Mittlerweile unterteilen sie ja in wichtige und Effektphysik und wenn die GPU nix zu tun hat, widmet sie sich den Effekten. Wurde zwar schon letztes Jahr auf der GDC vorgestellt, mittlerweile läuft es aber wohl ganz gut.
http://http.download.nvidia.com/developer/presentations/2006/gdc/2006-GDC-NVIDIA-Havok_FX.pdf
Habe ich aber noch nicht getestet. Wird dann wohl mal Zeit ein neues SLI System zu beantragen ;)
 
Xenobit schrieb:
Mein Ansatz wäre eine Hybridlösung. Die starre Geometrie und Beleuchtung mit Raytracing. Genau wie einige Effekte. Die sehr dynamischen Objekte würde ich mit hohem Polycount (oder hoch aufgelöster Normalmap) rendern. Das Ganze in einer sehr hohen Auflösung. Dafür bräuchte man ein MultiCore und MultiGPU System, was heutzutage kein Problem darstellen sollte.
Sprites revisited! :)
Das mit den MultiGPUs trägt doch irgendwie nicht. Siehe Geforce 7950GX2 vs. Geforce 8800. Eine Generation weiter und man hat mehr als die Doppelte Leistung. Zudem die Kühlung. Und mit 2 CPU Cores läutet das auch nicht gerade ein Raytracing-Zeitalter ein, da müsste schon was wie der Cell 2 her. Btw. auf dem IBM Game Developer's Day (oder Gamer's Day?) wurde die Rechenpower des Cell anhand Realtime-Raytracings eindrucksvoll demonstriert. Das war zwar nur eine Landschaft, die da gerendert wurde, der Unterschied zu dem "normalen" PowerPC (G5-Äquivalent) war aber enorm. Für Raytracing eignet sich vor allem der Befehlssatz der SPEs sehr gut.
 
Xenobit schrieb:
Man sollte nicht verschweigen, dass sie auch auf die Cores der 360 verteilt werden kann. Die letzte Renderware Engine konnte das schon.
Klar, das geht da auch. Ich bin in diese Diskussion ja aufgrund einer "Cell ist ungeeignet"-Behauptung eingestiegen, deshalb meine Fokussierung auf diesen Prozessor. Und mit den 7 SPEs + 1 PPE sollte Havoc sogar dort um ein vielfaches schneller laufen können als auf den 3 PPEs der 360. :)

Xenobit schrieb:
Havok hat aber auch nochmehr Boost erfahren, weil ja Havok 4 in CG auf den NVidia GPUs läuft. Mittlerweile unterteilen sie ja in wichtige und Effektphysik und wenn die GPU nix zu tun hat, widmet sie sich den Effekten. Wurde zwar schon letztes Jahr auf der GDC vorgestellt, mittlerweile läuft es aber wohl ganz gut.
Oh, das kommt mittlerweile zum Einsatz? Auf der neuen 8er-Serie oder auch auf der 7er schon?

So, muss mal nach Hause. Bis später! :)
 
Luke64 schrieb:
Sprites revisited! :)
Das mit den MultiGPUs trägt doch irgendwie nicht. Siehe Geforce 7950GX2 vs. Geforce 8800. Eine Generation weiter und man hat mehr als die Doppelte Leistung. Zudem die Kühlung. Und mit 2 CPU Cores läutet das auch nicht gerade ein Raytracing-Zeitalter ein, da müsste schon was wie der Cell 2 her. Btw. auf dem IBM Game Developer's Day (oder Gamer's Day?) wurde die Rechenpower des Cell anhand Realtime-Raytracings eindrucksvoll demonstriert. Das war zwar nur eine Landschaft, die da gerendert wurde, der Unterschied zu dem "normalen" PowerPC (G5-Äquivalent) war aber enorm. Für Raytracing eignet sich vor allem der Befehlssatz der SPEs sehr gut.

Ein multi GPU System muss ja nicht unbedingt nur 2 GPU's bedeuten :).
Interessant finde ich auch Intels Larrabee Projekt und NV/ATI's GPGPU überlegungen.
 
Luke64 schrieb:
Sprites revisited! :)
Das mit den MultiGPUs trägt doch irgendwie nicht. Siehe Geforce 7950GX2 vs. Geforce 8800. Eine Generation weiter und man hat mehr als die Doppelte Leistung. Zudem die Kühlung. Und mit 2 CPU Cores läutet das auch nicht gerade ein Raytracing-Zeitalter ein, da müsste schon was wie der Cell 2 her. Btw. auf dem IBM Game Developer's Day (oder Gamer's Day?) wurde die Rechenpower des Cell anhand Realtime-Raytracings eindrucksvoll demonstriert. Das war zwar nur eine Landschaft, die da gerendert wurde, der Unterschied zu dem "normalen" PowerPC (G5-Äquivalent) war aber enorm. Für Raytracing eignet sich vor allem der Befehlssatz der SPEs sehr gut.

Bei den Geforce Werten hast Du dich vertan.
Der Gewinn der 8800 gegenüber der 7950GTX liegt bei knapp 25%. Bei einigen Spielen sogar bei 0.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/13/ (ja ich weiß Computerbase, aber für Benchmarks ist das noch ok ;))
Ich habe extra MulticoreCPU geschrieben und nicht DualCore ;) Das ein Dualcore nicht plötzlich die RT Wundermaschine wird weiß ich auch. Der Cell ist ja auch ein Schritt in die richtige Richtung. Aber eher aus wissenschaftlicher als aus spielerischer Sicht. Wobei ich da auch von Intel an Möglichkeiten gearbeiten wird die QuadCoreprozessoren zu prallelisieren.
Um die Kühlung sollen sich dann die Ingenieure kümmern, die das Teil in einen kleinen Kasten zwängen müssen.
 
Was hat Raytracing denn für Vorteile bzw. was ist denn der generelle Unterschied zwischen Raytracing und traditionellem Rendering?

EDIT: Hab's inzwischen selbst nachgelesen. Ist eben ein Verfahren, bei dem auf eine besondere Weiße (wird das Objekt von Lichtstrahlen getroffen etc.) Bilder berechnet und zwar mit einem verhältnismäßig geringen Programmieraufwand, aber hohem Rechenaufwand und verblüffend realem Ergebnis.
 
Xenobit schrieb:
Bei den Geforce Werten hast Du dich vertan.
Der Gewinn der 8800 gegenüber der 7950GTX liegt bei knapp 25%. Bei einigen Spielen sogar bei 0.
Genau das wollte ich damit sagen, und ich meine nicht die GTX sondern die GX2, denn die hat 2 GPUs auf der Karte. Somit ist ein 8er-Chip schneller als zwei 7er-chips. q.e.d. :)
Xenobit schrieb:
Ich wollte dir schon jegliche Kompetenz absprechen :D Ok, kleiner Scherz ;)
Xenobit schrieb:
Ich habe extra MulticoreCPU geschrieben und nicht DualCore ;) Das ein Dualcore nicht plötzlich die RT Wundermaschine wird weiß ich auch. Der Cell ist ja auch ein Schritt in die richtige Richtung. Aber eher aus wissenschaftlicher als aus spielerischer Sicht. Wobei ich da auch von Intel an Möglichkeiten gearbeiten wird die QuadCoreprozessoren zu prallelisieren.
Um die Kühlung sollen sich dann die Ingenieure kümmern, die das Teil in einen kleinen Kasten zwängen müssen.
Ich bezog mich hierauf (s.o.):
Xenobit schrieb:
Wenn ich eine Konsole bauen dürfte, würde ich einen DualCore Prozessor und 2 GPUs nehmen.
Hehe... aber da war sie wieder, die zusammenhangslose Behauptung - wieso sollte der Cell denn nun nicht für Spiele geeignet sein? Ich würde sogar sagen, dass er nahezu perfekt für (3D) Spiele geeignet ist! Es ist einfach ein Rechenmonster, optimal für 3d! (double-Performance ist Scheisse, das sei hier erwähnt. Das braucht keiner zwingend, sei hier ebenfalls erwähnt. :)).
 
Luke64 schrieb:
Hehe... aber da war sie wieder, die zusammenhangslose Behauptung - wieso sollte der Cell denn nun nicht für Spiele geeignet sein? Ich würde sogar sagen, dass er nahezu perfekt für (3D) Spiele geeignet ist! Es ist einfach ein Rechenmonster, optimal für 3d! (double-Performance ist Scheisse, das sei hier erwähnt. Das braucht keiner zwingend, sei hier ebenfalls erwähnt. :)).

Welche aufgaben meinst du genau mit für "3D Spiele"? Denn als GPU ersatz ist Cell sicherlich keinen pfennig wert(achtung! Übertreibung).
 
iimpact schrieb:
Welche aufgaben meinst du genau mit für "3D Spiele"? Denn als GPU ersatz ist Cell sicherlich keinen pfennig wert(achtung! Übertreibung).



mir ist es egal, was die m$ halbwissenden leute über die ps3 sagen. wichtig ist, leute die sich damit auskennen, und sowas sagen:

Der Doom-Schöpfer attestierte der PlayStation 3 auch aufgrund der Cell-Technologie die größere Grafikpower.


das poste ich immer wieder gern :)
In einem Interview meinte Grafikguru John Carmack, dass die PS3 das Potential hat, alle anderen Konsolen in den Schatten zu stellen, allerdings sei es für Programmierer schwieriger, für die neue Prozessorarchitektur zu programmieren.
 
insaneNesk schrieb:
mir ist es egal, was die m$ halbwissenden leute über die ps3 sagen. wichtig ist, leute die sich damit auskennen, und sowas sagen:


das poste ich immer wieder gern

Wenn du es immer wieder gerne Postest dann versteh erstmal was drin steht :shakehead:.
Und das du dich schon wieder angegriffen fühlst weil ich denke das Cell nicht als GPU ersatz taugt(Sony im übrigen auch nicht sonst hätten sie wohl 2x Cell verbaut, käme auch wesentlich billiger) bestätigt mal wieder mein Bild von Sony Hardcore Fanboys

BTW: Hab ich hier ein paar Seiten vorher geschrieben das ich die PS3 für die stärkste Konsole in dieser Gen halte aber das nur mal so am rande :rolleyes:
 
was bei raytracing doch noch immer das problem ist sind doch softschadows, wenn ich mich nicht irre?
oder hat man da auch schon eine lösung gefunden?
 
Zurück
Top Bottom