Necrophorus
L14: Freak
Shader-Prozessoren ist mir auch neu. Es gibt Grafikprozessoren (GPU) mit jeweiligen Pixel- und Vertex-Shadern. In der Form wird der RSX auch wohl kommen, die Specs stehen doch schon ewig und 3 Jahre fest!
Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
Necrophorus schrieb:Shader-Prozessoren ist mir auch neu. Es gibt Grafikprozessoren (GPU) mit jeweiligen Pixel- und Vertex-Shadern. In der Form wird der RSX auch wohl kommen, die Specs stehen doch schon ewig und 3 Jahre fest!
BigBilly schrieb:
Das es kein g70 wird iss ja klar,dieser hat ja ein 256bit system der rsx nur 128bit speichersystem
Nachwievor ist ein in 0,09nm G71 derivat am warscheinlichsten,womöglich noch mit 32 pipes und die welt ist in ordnung ,dann wär die ps3 jahre gegenüber nem highend pc überlegen,was antürlich das Resultat betrifft ,aber das kennen wir ja.
Das was die pc freaks als demos,benchmarks alla 3dmark reinziehn können wir in realtime daddeln
Grafikprozessor
*
o Nvidia RSX ("Reality Synthesizer") @ 550MHz ( Basierend auf Nvidias Geforce 7 Reihe )
o 1.8 TFLOPS Leistung ( damit Leistungsfähiger als eine Nvidia Geforce 7800 GTX 512MB die 'nur' ca 1.3 TFLOPS bietet)
o Vielseitig programmierbare Parallel-Floating-Point-Shader-Pipelines( über 100 Milliarden Shader Operation pro Sekunde)
o 128bit Pixel Precision
o über 300 Millionen Transistoren ( in 90 nm gefertigt)
o 2-Kanal-HD-Stream (Full HD 1080p auf 2 Kanälen(TVs) gleichzeitig)
Sponkman schrieb:Hast du mal einen Link, ich hab nirgendswo was gefunden mit den 128 bit speicherinterface.
Naja, das Speicherinterface hat wohl die geringste Bedeutung bei einer Chipbezeichnung.BigBilly schrieb:
Das es kein g70 wird iss ja klar,dieser hat ja ein 256bit system der rsx nur 128bit speichersystem
0,09nm, ui, dann kommt die PS3 doch erst 2050 wasBigBilly schrieb:Nachwievor ist ein in 0,09nm G71 derivat am warscheinlichsten,womöglich noch mit 32 pipes und die welt ist in ordnung ,
BigBilly schrieb:dann wär die ps3 jahre gegenüber nem highend pc überlegen,was antürlich das Resultat betrifft ,aber das kennen wir ja.
Das was die pc freaks als demos,benchmarks alla 3dmark reinziehn können wir in realtime daddeln
Sponkman schrieb:stimmt stimmt, allerdings sind die durchsatzraten doch recht ordentlich. weiß jemand wieviel ein pcie 16x interface durchzieht ?
EDIT:
habs, aktuelle high end grakas haben 4GB in jede richtung zur verfügung.
die ps3 21hin und 15her - klingt gut!
quelle: http://www.elektronik-kompendium.de/sites/com/0904051.htm
Mell@ce schrieb:Sponkman schrieb:stimmt stimmt, allerdings sind die durchsatzraten doch recht ordentlich. weiß jemand wieviel ein pcie 16x interface durchzieht ?
EDIT:
habs, aktuelle high end grakas haben 4GB in jede richtung zur verfügung.
die ps3 21hin und 15her - klingt gut!
quelle: http://www.elektronik-kompendium.de/sites/com/0904051.htm
So kann man das aber nicht vergleichen. Du musst die Bandbreite vom Grafikspeicher zur GPU nehmen. Und beim PC sitzt der Grafikspeicher ja auf der Grafikkarte und ist bei teuren Karten mit 256bit angebunden.
Der PCI- oder PCIe-Bus beim PC dient ja nur dazu, grundlegende Daten in den Speicher der Grafikkarte zu schreiben. Dazu reicht dessen Übertragungsrate vollkommen aus. Die enorme Bandbreite wird somit nur beim Zugriff der GPU auf den Speicher gebraucht. Und dort ist sie bei einer modernen PC-Grafikkarte höher als bei der PS3 (650Mhz * 256bit = 41,6 GByte)
Stike schrieb:Hast schon recht, Jack, aber wie sonst kommt an solche Perlen wie 0,09 nm ?
Jack schrieb:Leute lasst doch dieses Technikgeschwafel mal ausm Spiel, das nervt und bisher gibt kaum verlässliche Facts.
Und auf die grafische Leistung eines Systems kann man so auch nicht schließen.......war so schon das 2 oder 3 Monate hier nicht um technikgeblubber geschwafelt wurde......
Sponkman schrieb:ja, leuchtet ein! Bleibt noch die Frage wie man eine beanspruchung theoretisch berechnen könnte. welche daten werden denn zwischen GPU und speicher der Graka denn ausgetaucht. Es kann doch aber eigentlich nicht mehr sein als anzahl darzustellender pixel * farbtiefe. Ich täusche mich da wahrscheinlich, helft mir halt auf die sprünge
Wenn man anhand theoretischer werte eine ungefähre durchschnittsbeanspruchung errechnen könnte, wüsste man ob das ein falschenhals werden kann oder eher nicht.