Hardware XBOX-Technik vs GameCube-Technik - PS2-Technik

  • Thread-Ersteller Thread-Ersteller /ajk
  • Erstellungsdatum Erstellungsdatum
sAiOtEk schrieb:
Ich bash auch mal ein bischen 8-)

Die Spieleauswahl auf der Box ist erbärmlich... kein Spiel was sich wirklich lohnen würde, und unter diesen Umständen lass ihm doch bitte seine extrem überlegene Hardware, sonst hat er doch nix...

HMM schon mal das Thema angesehen es geht um Hardware nicht um Software. ;). Wenn bashen dann doch schon zum Thema oder ?
 
Die Spieleauswahl auf der Box ist erbärmlich... kein Spiel was sich wirklich lohnen würde

Muss Dich leider enttäuschen. laut Gamerankings hat die XBOX weit mehr Spiele und im Durchschnitt auch besser.. armes Ding... :D Des weiteren was will jemand mit nem Cube, der keine Kinderspiele mag? Ich hasse diese quietschbunte vermatschte Optik.
 
HappyPlace schrieb:
Die Spieleauswahl auf der Box ist erbärmlich... kein Spiel was sich wirklich lohnen würde

Muss Dich leider enttäuschen. laut Gamerankings hat die XBOX weit mehr Spiele und im Durchschnitt auch besser.. armes Ding... :D Des weiteren was will jemand mit nem Cube, der keine Kinderspiele mag? Ich hasse diese quietschbunte vermatschte Optik.

Dass der Cube eine Kinderkonsole ist beweist Eternal Darkness eindrucksvoll.

ed-1.jpg


Die Charaktere sind auf Watteballstäbchenschwerter angewiesen...Also sowas ;) !!

ed-2.jpg


Die Szenarien sind kindischer als bei Teletubbis and friends. Kinderspielplätze....Hab' ich einem Game noch nie gesehen :rolleyes: .

ed-4.jpg


Gegner dürfen auch nicht fehlen. Doch da hat Silicon Knights nicht gespart, es gibt einfach alles, von Mickey Mäusen....

810.jpg


......bis Teletubbis, alles da!!

4526.jpg


Die quitschbunte Grafik weiß zu überzeugen!!



4495.jpg


Also echt. Vermatsche Optik gibt es ja in fast jedem Nintendo Spiel, aber bei diesem scheint es besonders schlimm zu sein :oops: ....


Oh Mann Happy, du bist echt eine Witzfigur :lol: .
 
HappyPlace schrieb:
So nun die Bandbreiten... jaja... der Cube ist ja so effektiv.. ist er auch, nur wenn die Zahlen soviel höher bei der XBOX sind, bringt die Effektivität z.b. beim Hauptspeicher auch nicht vie.. bzw.. sieht immernoch schlecht gegen XBOX aus:

Maximum Main Memory Bandwidth
Xbox has 64 MB of 200 MHz DDR SDRAM with 128-bit access.
GC has 24 MB of 324 MHz 1T-SRAM with 64-bit access.

Xbox: 6.4 GB/sec
GC: 2.6 GB/sec





CPU Bandwidth
Assumption is 1 GB/sec for either console, which is plenty of bandwidth to sustain either CPU.
Xbox: 6.4 GB/sec - 1 GB/sec = 5.4 GB/sec
GC: 2.6 GB/sec - 1 GB/sec = 1.6 GB/sec




Memory Efficiency
There is no question that GC's main memory of 1T-SRAM is much more efficient than the Xbox's DDR SDRAM, as the latency of GC's 1T-SRAM is 10 ns, and the average latency of 200 MHz DDR SDRAM is estimated to be around 30 ns.


"Hört sich ja net an.. 90% Effektivität.. bringt aber auch nicht mehr als die XBOX.. eher viel weniger! :lol: :lol: :lol: :lol: "


Xbox: 5.4 GB/sec x 0.75 = 4.05 GB/sec
GC: 1.6 GB/sec x 0.90 = 1.44 GB/sec

"Ich hoffe damit ist einfürallemal klar das der Cube Speicher zwar effektiver ist aber gegen den XBOX Speicher trotzdem keine Chance hat... weil er einfach viel schneller ist! ;)"


Frame Buffer and Z-Buffer Accesses


Xbox: 640 x 480 (resolution) x 5 (frame buffer write (24-bits) + z-buffer read (1 byte) + z-buffer write (1 byte)) x 3 (overdraw) x 60 FPS = ~277 MB/sec or 0.277 GB/sec. So 4.05 GB/sec - 0.277 GB/sec = 3.77 GB/sec
GC: Only has to write out frame buffer each frame and at 60 FPS is roughly 55 MB/sec or 0.055 GB/sec. So 1.44 GB/sec - 0.055 GB/sec = 1.39 GB/sec.


Polygons


Xbox: 3.23 GB/sec - 0.25 GB/sec = 3.52 GB/sec
GC: 1.39 GB/sec - 0.25 GB/sec = 1.14 GB/sec



Texture Cache

"JA, EUER TEXTURECHACHE der ja soooo doll sein soll.. ja von wegen, groß isser aber lahmarschig!"


Xbox: 8 texel/clock (4 pipelines with two texel units a pipeline) x 4 Bytes (32-bit texel) x 4 (bilinear) x 233 Mhz = ~30 Gbyte/s



GC: 4 texel/clock (4 pipelines with two texel units a pipeline) x 4 Bytes (32-bit texel) x 4 (bilinear) x 162 Mhz = 10.368 Gbyte/s



Xbox: (0.128/12 x 30 GB/sec) + (11.972/12 x 3.52 GB/sec) = ~3.8 GB/sec
GC: (1/12 x 10.4 GB/sec) + (11/12 x 1.14 GB/sec) = ~1.9 GB/sec



Xbox: 32 GB/sec / 4.05 GB/sec = 7.9 times difference
GC: 10.4 GB/sec / 1.44 GB/sec = 7.2 times difference



Effective Texture Bandwidth


Xbox: 3.52 GB/sec
GC: 1.14 GB/sec


Ratio difference is 3:1 in the Xbox's favor. (jaja.. immerwieder ist es 3:1... MS hat wohl nicht gelogen! :D )


Ihr braucht nicht weinen nur weil irh jetzt wisst das der Cube tatsächlich dreimal schwächer ist.. sogar richtig ausgerechnet mit realistischen Werten, ist das nicht nett von Segatech. Eurer Cube ist im Vergleich zur Box - NIX!

Fangen wir mit dem prozessor an Der Gekko ist ein RISC Prozessor wie auch die PlayStation 2 einen hat. Dieser ist mit 64 Bit versehen, davon werden 32 auf dem Prozessor ohn edie Pipelines verwaltet. Für den Rest sind die zahlreichen Floating Points da, die den Prozessor mit einer Speed von über 1,3 GB/sec zur North Bridge bringen! Auffallend hierbei ist gleich die Mikroarchitektur im Inneren: Der GameCube ist mit 162 MHz FSB (Front Side Bus) getaktet, die Microsoft Xbox hingegen nur mit 133 MHz kommt aber am Schluss auf 733Mhz....

Im Vergleich zur Xbox legt der GameCube einen L1 & L2 Cache von 64/256 Kbyte hin. Die Xbox dagegen kommt mir geradeeinmal 32/128 Kbyte hinterher. Hier befindet sich ganz deutlich ein Pluspunkt für den Nintendo GameCube.

Der Cube Gekko läuft sehr kühl, er hat ein sehr gutes Cooling System. Dieses hat Nintendo warscheinlich angezettelt, um die Produktionskosten zu minimieren. Der Gekko produziert Daten um die 3 Mal seltener als der in der Xbox und 2 Mal weniger als der in der PlayStation 2. Der Gekko läuft im Vergleich zur Xbox recht schnell durch seinen fast FSB und seiner Connection zu den Floats und den Bridges muss er sich allderings gegen Sony´s Emotion Engine wohl oder übel geschlagen geben...

In Sachen mathematischer Berechnungen kann der Gekko sich auf dem Spielesektor sehr gut Behaupten! Die Fließkommaeinheiten auf dem Prozessor sind etwas stärker als auf der Xbox und erreichen bis zu 4,7 GB/sec. Hier setzt er Gekko im Gamecube allerdings nicht wied die PlayStation 2 auf ihre exklusiven und äußerst komplizierten Vector Units sondern auf die Trims und Pipelines, die eine extrem schnelle Performance erreichen können.

Schauen wir uns mal die Speicheraustattung des GameCube an:
Nintendo setzt hierbei z.T. auf eine neue, von Mosys entwickelte Technik, nämlich 1T-SRAM.

SRAM-Speicher, der oft für externe Prozessor-Caches verwendet wird, ist bei gleicher Taktfrequenz schneller als das als Hauptspeicher verwendete DRAM (dynamic RAM), weil ein direkter Zugriff auf die Speicherzellen ohne Latenzzeiten möglich ist. Die DRAM-Zellen bestehen aus nur einem Transistor (daher 1T) und einem Kondensator und sind einfacher aufgebaut und benötigen weniger Fläche und Energie als SRAM-Zellen. Je nach SRAM-Typ sind pro Zelle mindestens sechs Transistoren nötig (6T-SRAM).

Beim 1T-SRAM wendet der Erfinder MoSys einen Trick an: Die eigentlichen 1-Transistor-Speicherzellen sind wie DRAM-Zellen aufgebaut. Durch eine besondere Schaltungstechnik können diese Zellen mit verdammt hoher Taktfrequenz laufen. Die gesamte Menge an DRAM-Zellen ist dabei in relativ kleine Felder mit jeweils eigener Schreib-/Leselogik aufgeteilt, so dass man für die Adressierung nur geringe Wartezeiten braucht. Für die bei DRAM nötige Auffrischung des Speicherinhaltes sorgt dann eine separate Refresh-Logik:
Ein spezieller Caching-Mechanismus, der einen kleinen Speicherbereich aus "echtem" SRAM nutzt, ermöglicht den pausenlosen Zugriff auf ein 1T-SRAM auch während anderer für den DRAM-Betrieb nötiger Operationen wie Precharging. Außerdem braucht 1T-SRAM wesentlich weniger Energie also normales 6T-SRAM und natürlich deutlich weniger als stinknormales DRAM.

Von diesem "High-Speed-Speicher" besitzt der GameCube insgesamt 24 MB mit einer Zugriffszeit von etwa 6,2 ns. Diese sind aufgeteilt in einen 2MB Frame Buffer sowie einem 1MB Texturen Cache bei einer Bandbreite von beeindruckenden 10,4 GB/Sek. Allerdings sollte man sich jetzt nicht von dem 1MB-Texturen-Cache abschrecken lassen. Dieser hat nämlich, genau wie bei der PS2 ABSOLUT NICHTS mit VRAM zu tun, sondern fungiert nur als ein Zwischenspeicher, um einen noch schnelleren Zugriff der CPU auf die Texturen zu gewährleisten. Weiterhin sind Texturen beim GameCube im Gegensatz zur PS2 mit einer vom Grafikkarten-Hersteller S3 lizensierten Technik namens S3TC komplett hardwareseitig und verlustfrei im Faktor 6:1 komprimiert und werden auch während der Berechnung in diesem Zustand gehalten, was nochmal enorm Bandbreite spart.

Dadurch sind extrem detalierte und scharfte Texturen bei Spielen gewährleistet. Der Framebuffer wird - wie der Name ja schon sagt - dazu verwendet, den jeweils aktuellen Frame (den eigentlichen Bildschirminhalt) für den D/A-Wandler (Digital/Analog) zwischenzuspeichern.

Als normalen Arbeitspeicher besitzt der NGC weiterhin nochmal 16 MB mit 81 MHz getaktetes DRAM mit einer Bandbreite von immerhin noch 2,6 GB/Sek.

Soundmäßig zeigt sich der Nintendo GameCube relativ solide gegenüber seiner direkten Konkurrenz. Er besitzt 64 Kanäle bei 48KHz Sampling und 81 MHz Taktung. Als negativer Punkt gegenüber der Xbox und der PlayStation 2 ist das fehlende Dolby Digital Feature zu erwähnen. Eigentlich unverständlich für meine Begriffe, da Dolby Digital mittlerweile zum globalen Next Generation Standart gehört. Allerdings kann dies auch ein Resultat, des berühmten "Spar Prinzips" sein, Nintendo versuchte den GameCube so günstig wie möglich in den Handel zu bringen.

Was einige Entwickler als ein Hindernis des GameCube sehen, ist die Memory Card. Diese ist nämlich recht klein für heutige Verhältnisse. Developer wie Electronic Arts (Canada) haben sich beschwert, dass Spiele wie Madden Footbal 2002 wegen der GameCube einschränkung einen Modi weniger haben wird, als die PlayStation 2 und Xbox Version. Nintendo hat versprochen, dass man ein externes Erweiterungspackage nachkaufen werden kann...

Fazit:
Awesome! Nein im Ernst also der GameCube ist schon eine technische Herausforderung! Der Prozessor Gekko von IBM ist recht leistungsstark und braucht sich hinter seiner Konkurrenz in der PlayStation 2 und der Xbox nicht zu verstecken. Die wahren Stärken des GameCubes liegen jedoch in seinem extrem schnellen Arbeitsspeicher und der verdammt leistungsstarken Grafikchip "Flipper". Schöne, scharfe Texturen und eine schöne allgemeine Grafikdarstellung werden so gewährleistet. Einzig das fehlende Dolby Digital trübt das Gesamtbild etwas, da man so nicht das optimale Spielerlebnis geniessen kann, so wie auf den anderen Konsolen. Der Preis des GameCubes ist allerdings mehr als gut und konkurrenzfähig.

Kennt ihr bestimmt noch :lol: - diesen Text - von wem ? :rolleyes:



Gruß Hoovey
 
Ich quote jetzt nicht jeden Schwachsinn aus dem Text, aber das mit scharfen Texturen und dem hier:

Als normalen Arbeitspeicher besitzt der NGC weiterhin nochmal 16 MB mit 81 MHz getaktetes DRAM mit einer Bandbreite von immerhin noch 2,6 GB/Sek.

hat mir besonders gefallen. 2,6 GB/s... Wer hat das geschrieben? Ein 12jähriger unter Einfluss von Alkohol?
 
Vegetha schrieb:
HMM schon mal das Thema angesehen es geht um Hardware nicht um Software. ;). Wenn bashen dann doch schon zum Thema oder ?

*NEIN* Ich dachte das merkt keiner ;)

Also mal im Ernst... das ganze bringt hier doch eh nix. Ich könnte einen neuen Thread aufmachen wo ich was schlechtes über die Box sage dann kommen die kleinen Xbox-Freaks und behaupten das Gegenteil und machen den Cube schlecht, dann kommen die BigN-Fanboys und machen die Box wieder schlecht...

Das geht dann hin und her und dann wird wieder ein neuer Thread aufgemacht und wo es so weiter geht...

Ich kopiere mal einen älteren Text aus dem AreaXbox Forum, der ist nicht von mir. Im Gegensatz zu dem Gewurschtel hier im Forum ist der Text gut geschrieben. Was hier fehlt wären dann z.b. noch die genau Erklärung wie die Beziehung zwischen CPU und GPU ist und ein paar andere Dinge...

---------------------------------------

Grundsätzlich ist natürlich klar, das die beiden Konsolen komplett unterschiedlich aufgebaut sind und deshalb nicht unbedingt miteinander vergleichbar sind. Auf der einen Seite steht die Xbox, die mit brachialer Gewalt die Konsolenwelt eroberte. Realisiert wurde dieses mit einem 733Mhz Intel Pentium III Coppermine Celeron Derivat, NVidia NForce basiertem Chipset mit integriertem Geforce 3/ Geforce 4 Hybriden inklusive Netzwerkfunktionalität und Dolby Digital 5.1 Encoding in Echtzeit, 64MB unified 200Mhz DDR-SDRAM, eingebaute Festplatte).
Auf der anderen Seite steht der GCN, basierend auf einem G4 IBM Prozessor mit abgespeckter Altivec Einheit, einer von ArtX entwickelten Massiv-Multitexturing-Graphics-Unit, High Speed 1T Mosys SD-Ram.

Und da beginnt auch schon das Problem. Viele meinen das der G4 des GCN der XBOX CPU aufgrund der "stärkeren" Architektur überlegen bzw. gleichwertig ist. letzterem stimme ich durchaus zu. Durch die 32 FP Register des G4's ist eine deutlich höhere Fließkomma Leistung möglich, wohlgemerkt Takt für Takt. Die Altivec Einheit wird sich auch nicht als hinderlich erweisen, zumal Nintendo mit Sicherheit die Performance bringenden Maßnahmen wie das Data Prefetching im Chip belassen hat. Es wurden auch knapp 40 neue Befehle integriert(vermutlich werden das SIMD FP Instruktionen sein). 64Kb L1 und 256Kb L2 Cache runden den Geschmack perfekt ab. Das ganze ist dann mit 485Mhz getaktet (FSB ist 162Mhz).

Dagegen stellt Microsoft ein Intel Coppermine Celeron Derivat.
Mit 733 Mhz getaktet, SSE Befehlssatz( der sich im großen und ganzen mit der Effektivität der Altivec Einheit in Bezug auf Spieleprogrammierung vergleichen lässt), 32KB L1 und 128KB L2 Cache mit einem FSB von 133Mhz, stellt diese CPU den idealen Physics und AI Prozessor für die XBOX da.

Alles in Allem ist meiner Meinung nach der G4 in dieser Ausführung dem Coppermine einen Tick überlegen. Selbstverständlich gibt es aus dem PC-Bereich stammende hochtheoretische Benchmarks, z.B. einzelne komplett auf die Altivec Einheit zugeschnittene Photoshop Filter die auch gerne mal eine doppelt so hoch getaktete Intel CPU schlagen. Diese sind aber auf die Spieleprogrammierung, aufgrund nicht immer linearer Ergebnisse von Folgeberechnungen, nicht anwendbar. Zudem muss man hier auch die unterschiedlichen Gewichtungen der CPU's in den verschiedenen Konsolen betrachten. Die XBOX CPU ist ALLEIN dafür da, die Physik und die AI der Spiele zu berechnen. Als Beispiel kann eine in einem Spiel berechnete Figur herhalten. Die XBOX CPU berechnet den Weg den die Figur geht und wie sie wann und weswegen handelt (AI) und berechnet dazu noch wie die Figur die Arme und Beine bewegt. Sie berechnet nicht ein einziges Polygon.
Die G4 CPU muss sich aber mit gleich 3 Dingen herumschlagen. Da wären AI, Physik UND Polygone. Die GCN GPU (Flipper genannt) besitzt nämlich leider keinerlei Vertex Shader die die CPU entscheident von der Polygonberechnung entlasten kann. Natürlich besitzt auch der Flipper Chip eine T&L Unit. Diese ist aber nur ungefähr auf Direct X 7 Niveau, also sehr unflexibel in der Anwendung. Sie kann also nicht alle Polygone eines Spieles alleine berechnen, sondern benötigt auch immer die CPU für solche Sachen. Im Idealfall wird die Flipper GPU wohl knapp 30% der Polygonberechnungen übernehmen, die CPU aber beim extrem rechenintensiven Lightning effektiv unterstützen. Die G4 CPU des GCN ist also neben der AI und der Physik auch noch mit der wichtigen Aufgabe der Polygonberechung belastet.

Zu den Grafikeinheiten. Ich hatte ja schon im Vorfeld die unterschiedlichen Ansätze der beiden Chips angerissen. Als wichtigster Unterschied zwischen den beiden Architekturen ist der Programmieransatz zu nennen. Die XGPU ist aufgrund ihrer Eigenschaften sehr flexibel zu programmieren. Die Pixel und Vertexshader geben den Programmierern einfach gesagt, die Möglichkeit eigene kleine Programme in den Graphikchip zu implantieren mit denen die zu erzielenden Effekte realisiert werden. Hier muss nicht mehr auf Bandbreitenfressendes Multi Texturing zurückgegriffen werden. So sind Effekte wie realistisch wirkendes Wasser und Perspektivenkorrekt dargestellte Straßenspiegelungen möglich. Extrem hohe PolygonCounts werden über die beiden Vertex Shader realisiert. Vorgenannte Effekte sind in jener Qualität auf dem Gamecube absolut nicht möglich. Es ist prinzipbedingt nicht zu schaffen, dazu fehlt der Flipper GPU ganz einfach die freie Programmierbarkeit.

Die Vorteile des Flipper Prozessors liegen woanders. Hier ist besonders die Hervorragende Multi Texturing Fähigkeit zu nennen. Soweit ich mich erinnern kann, ist er in der Lage 8 Texturen pro Pass auf ein Object aufzutragen. Das verringert aber die Füllrate extrem, die in diesem Fall auf bis zu 200Mpix/s fallen kann.
Als Bonus kann ich hier aber glücklicherweise ein Feature vorweisen, das ich mir für den PC-Bereich schon seit langem erhoffe: ED-RAM. Der Flipper besitzt 2MB Z-Buffer und einen 1MB großen Texture Buffer die direkt im Chip integriert sind. Das erhöht die mögliche Bandbreite und damit den Durchsatz natürlich enorm. Die XGPU besitzt selbstverständlich ähnliche Caches, diese sind aber längst nicht so groß. Nachteilig wirkt sich aber aus, das die Flipper GPU dazu noch den Sound berechnen muss. Die Xbox hat dafür einen eigenen Chip (MCP), und der schafft nicht nur Dolby Surround...

---------------------------------------
 
Zudem muss man hier auch die unterschiedlichen Gewichtungen der CPU's in den verschiedenen Konsolen betrachten. Die XBOX CPU ist ALLEIN dafür da, die Physik und die AI der Spiele zu berechnen. Als Beispiel kann eine in einem Spiel berechnete Figur herhalten. Die XBOX CPU berechnet den Weg den die Figur geht und wie sie wann und weswegen handelt (AI) und berechnet dazu noch wie die Figur die Arme und Beine bewegt. Sie berechnet nicht ein einziges Polygon.

Aha.. da seht ihr es.. :lol:
 
LOL, der TExt daoben ist echt gut, er sagt genau das aus was ich immer behaupte.. wie geil!

GCN CPU ist besser... aber sie muss ALLES berechnen.

XBOX CPU ist ideal für Physik und KI... den Rest machen Vertex und Pixelshader.. wie ich sagte.

Tja, und grafisch kommt der Cube deshalb nicht ran.

Die XBOX ist also wenn man mal überlegt das weit bessere System. Bessere KI, Physik, Grafik, Sound usw... Ist doch toll, woher hast Du den Text?
 
Grundsätzlich ist natürlich klar, das die beiden Konsolen komplett unterschiedlich aufgebaut sind und deshalb nicht unbedingt miteinander vergleichbar sind.

Richtig, aber man kann sagen was besser bzw.. stärker ist!

Auf der einen Seite steht die Xbox, die mit brachialer Gewalt die Konsolenwelt eroberte. Realisiert wurde dieses mit einem 733Mhz Intel Pentium III Coppermine Celeron Derivat, NVidia NForce basiertem Chipset mit integriertem Geforce 3/ Geforce 4 Hybriden inklusive Netzwerkfunktionalität und Dolby Digital 5.1 Encoding in Echtzeit, 64MB unified 200Mhz DDR-SDRAM, eingebaute Festplatte).

Brachial.. keine Kosten gescheut usw.. die erste Konsole die STÄRKER ist als die Spielhallensysteme! Wann gab es das schon?


Auf der anderen Seite steht der GCN, basierend auf einem G4 IBM Prozessor mit abgespeckter Altivec Einheit, einer von ArtX entwickelten Massiv-Multitexturing-Graphics-Unit, High Speed 1T Mosys SD-Ram.

Ist doch süß.. :)

Und da beginnt auch schon das Problem. Viele meinen das der G4 des GCN der XBOX CPU aufgrund der "stärkeren" Architektur überlegen bzw. gleichwertig ist. letzterem stimme ich durchaus zu. Durch die 32 FP Register des G4's ist eine deutlich höhere Fließkomma Leistung möglich, wohlgemerkt Takt für Takt. Die Altivec Einheit wird sich auch nicht als hinderlich erweisen, zumal Nintendo mit Sicherheit die Performance bringenden Maßnahmen wie das Data Prefetching im Chip belassen hat. Es wurden auch knapp 40 neue Befehle integriert(vermutlich werden das SIMD FP Instruktionen sein). 64Kb L1 und 256Kb L2 Cache runden den Geschmack perfekt ab. Das ganze ist dann mit 485Mhz getaktet (FSB ist 162Mhz).

Da machen wie er sagt viele nen Denkfehler... :)

Dagegen stellt Microsoft ein Intel Coppermine Celeron Derivat.
Mit 733 Mhz getaktet, SSE Befehlssatz( der sich im großen und ganzen mit der Effektivität der Altivec Einheit in Bezug auf Spieleprogrammierung vergleichen lässt), 32KB L1 und 128KB L2 Cache mit einem FSB von 133Mhz, stellt diese CPU den idealen Physics und AI Prozessor für die XBOX da.

Wie gut das die CPU NUR NUR NUR Physik und AI bzw.. KI berechnen muss... Ist doch ideal... sie ist da eh schon besser als die GCN CPU und sie hat freie Bahn.. die GCN CPU muss noch Polygone berchnen was die meißte Power fressen dürfte, somit muss man beim Cube mit KI etc.. sparen.

Alles in Allem ist meiner Meinung nach der G4 in dieser Ausführung dem Coppermine einen Tick überlegen.

Das stimmt.. aber in Sachen 3D Berchnungen. Aber das braucht die XBOX CPU ja gar nicht zu tun, nur die GCN CPU! =)

Selbstverständlich gibt es aus dem PC-Bereich stammende hochtheoretische Benchmarks, z.B. einzelne komplett auf die Altivec Einheit zugeschnittene Photoshop Filter die auch gerne mal eine doppelt so hoch getaktete Intel CPU schlagen. Diese sind aber auf die Spieleprogrammierung, aufgrund nicht immer linearer Ergebnisse von Folgeberechnungen, nicht anwendbar.

!? Hat ja nix mit Games zu tun! :)

Zudem muss man hier auch die unterschiedlichen Gewichtungen der CPU's in den verschiedenen Konsolen betrachten. Die XBOX CPU ist ALLEIN dafür da, die Physik und die AI der Spiele zu berechnen.

GENAU das was ich immer sagte.. er geht sogar noch weiter und meint NUR dafür da.. Das haben ja die anderen Schlauberger immer versucht mir auszureden, naja, wenn man keine Ahnung hat, soll man es lassen! :lol:


Als Beispiel kann eine in einem Spiel berechnete Figur herhalten. Die XBOX CPU berechnet den Weg den die Figur geht und wie sie wann und weswegen handelt (AI) und berechnet dazu noch wie die Figur die Arme und Beine bewegt. Sie berechnet nicht ein einziges Polygon.

NICHT EIN POLYGON!? Ja, endlich jemand der sich auskennt!

Die G4 CPU muss sich aber mit gleich 3 Dingen herumschlagen. Da wären AI, Physik UND Polygone. Die GCN GPU (Flipper genannt) besitzt nämlich leider keinerlei Vertex Shader die die CPU entscheident von der Polygonberechnung entlasten kann.

AHA... Nana.. also die CPU des Cubes ist ein wenig stärker als die CPU der XBOX, sie muss aber ALLES berechnen.. die arme GCN CPU.. vällig überlastet, deswegen hat man ja nur sowenig PPS... von ca. 12 Millionen. :D

Natürlich besitzt auch der Flipper Chip eine T&L Unit. Diese ist aber nur ungefähr auf Direct X 7 Niveau, also sehr unflexibel in der Anwendung. Sie kann also nicht alle Polygone eines Spieles alleine berechnen, sondern benötigt auch immer die CPU für solche Sachen.

AHA.. die Jungs wollten mir einreden das die XBOX die CPU braucht.. stimmt ja gar nicht, der GCN braucht sie... wie ich immer wusste! :D

Im Idealfall wird die Flipper GPU wohl knapp 30% der Polygonberechnungen übernehmen, die CPU aber beim extrem rechenintensiven Lightning effektiv unterstützen. Die G4 CPU des GCN ist also neben der AI und der Physik auch noch mit der wichtigen Aufgabe der Polygonberechung belastet.

Ja, ist sie.. völlig überlastet!

Zu den Grafikeinheiten. Ich hatte ja schon im Vorfeld die unterschiedlichen Ansätze der beiden Chips angerissen. Als wichtigster Unterschied zwischen den beiden Architekturen ist der Programmieransatz zu nennen. Die XGPU ist aufgrund ihrer Eigenschaften sehr flexibel zu programmieren. Die Pixel und Vertexshader geben den Programmierern einfach gesagt, die Möglichkeit eigene kleine Programme in den Graphikchip zu implantieren mit denen die zu erzielenden Effekte realisiert werden. Hier muss nicht mehr auf Bandbreitenfressendes Multi Texturing zurückgegriffen werden. So sind Effekte wie realistisch wirkendes Wasser und Perspektivenkorrekt dargestellte Straßenspiegelungen möglich. Extrem hohe PolygonCounts werden über die beiden Vertex Shader realisiert. Vorgenannte Effekte sind in jener Qualität auf dem Gamecube absolut nicht möglich. Es ist prinzipbedingt nicht zu schaffen, dazu fehlt der Flipper GPU ganz einfach die freie Programmierbarkeit.

Seht ihr.. der Cube schafft das halt nicht.. ja wie auch, lang nem nackten Mann in die Tasche!

Die Vorteile des Flipper Prozessors liegen woanders. Hier ist besonders die Hervorragende Multi Texturing Fähigkeit zu nennen.

Oben steht doch das Multi TExturing Speicherfressend ist und die XBOX das viel eleganter löst... und das ist dem Cube sein Vorteil... :lol: :lol: Eher Nachteil.. ROFL!

Soweit ich mich erinnern kann, ist er in der Lage 8 Texturen pro Pass auf ein Object aufzutragen. Das verringert aber die Füllrate extrem, die in diesem Fall auf bis zu 200Mpix/s fallen kann.

Da war doch hier so ein Wichtiguer der mir nicht geglaubt hat das die Füllrate extrem sinkt.. AHA.. Hatte ich wieder recht! :D


Als Bonus kann ich hier aber glücklicherweise ein Feature vorweisen, das ich mir für den PC-Bereich schon seit langem erhoffe: ED-RAM. Der Flipper besitzt 2MB Z-Buffer und einen 1MB großen Texture Buffer die direkt im Chip integriert sind. Das erhöht die mögliche Bandbreite und damit den Durchsatz natürlich enorm. Die XGPU besitzt selbstverständlich ähnliche Caches, diese sind aber längst nicht so groß.


Ja klar.. der Chache der XBOX ist nicht so groß, aber die Bandbreite dreimal so schnell!

Nachteilig wirkt sich aber aus, das die Flipper GPU dazu noch den Sound berechnen muss. Die Xbox hat dafür einen eigenen Chip (MCP), und der schafft nicht nur Dolby Surround...

Das ist auch mir neu... Naja.. ob jetzt schlecht oder noch schlechter ist auch schon egal... Cueb kann halt nix!

Seht ihr ihr Großmäuler... Nicht nru ich denke genau so.. ich habe die ganze Zeit genau das behauptet! Aber ihr Wichtigtuer wollt es ja besser wissen. Naja, ich freu mich das nicht die ganze Welt verblödet ist und sich noch ein paar Leute gut auskennen.
 
HappyPlace schrieb:
Grundsätzlich ist natürlich klar, das die beiden Konsolen komplett unterschiedlich aufgebaut sind und deshalb nicht unbedingt miteinander vergleichbar sind.

Richtig, aber man kann sagen was besser bzw.. stärker ist!

Auf der einen Seite steht die Xbox, die mit brachialer Gewalt die Konsolenwelt eroberte. Realisiert wurde dieses mit einem 733Mhz Intel Pentium III Coppermine Celeron Derivat, NVidia NForce basiertem Chipset mit integriertem Geforce 3/ Geforce 4 Hybriden inklusive Netzwerkfunktionalität und Dolby Digital 5.1 Encoding in Echtzeit, 64MB unified 200Mhz DDR-SDRAM, eingebaute Festplatte).

Brachial.. keine Kosten gescheut usw.. die erste Konsole die STÄRKER ist als die Spielhallensysteme! Wann gab es das schon?


Auf der anderen Seite steht der GCN, basierend auf einem G4 IBM Prozessor mit abgespeckter Altivec Einheit, einer von ArtX entwickelten Massiv-Multitexturing-Graphics-Unit, High Speed 1T Mosys SD-Ram.

Ist doch süß.. :)

Und da beginnt auch schon das Problem. Viele meinen das der G4 des GCN der XBOX CPU aufgrund der "stärkeren" Architektur überlegen bzw. gleichwertig ist. letzterem stimme ich durchaus zu. Durch die 32 FP Register des G4's ist eine deutlich höhere Fließkomma Leistung möglich, wohlgemerkt Takt für Takt. Die Altivec Einheit wird sich auch nicht als hinderlich erweisen, zumal Nintendo mit Sicherheit die Performance bringenden Maßnahmen wie das Data Prefetching im Chip belassen hat. Es wurden auch knapp 40 neue Befehle integriert(vermutlich werden das SIMD FP Instruktionen sein). 64Kb L1 und 256Kb L2 Cache runden den Geschmack perfekt ab. Das ganze ist dann mit 485Mhz getaktet (FSB ist 162Mhz).

Da machen wie er sagt viele nen Denkfehler... :)

Dagegen stellt Microsoft ein Intel Coppermine Celeron Derivat.
Mit 733 Mhz getaktet, SSE Befehlssatz( der sich im großen und ganzen mit der Effektivität der Altivec Einheit in Bezug auf Spieleprogrammierung vergleichen lässt), 32KB L1 und 128KB L2 Cache mit einem FSB von 133Mhz, stellt diese CPU den idealen Physics und AI Prozessor für die XBOX da.

Wie gut das die CPU NUR NUR NUR Physik und AI bzw.. KI berechnen muss... Ist doch ideal... sie ist da eh schon besser als die GCN CPU und sie hat freie Bahn.. die GCN CPU muss noch Polygone berchnen was die meißte Power fressen dürfte, somit muss man beim Cube mit KI etc.. sparen.

Alles in Allem ist meiner Meinung nach der G4 in dieser Ausführung dem Coppermine einen Tick überlegen.

Das stimmt.. aber in Sachen 3D Berchnungen. Aber das braucht die XBOX CPU ja gar nicht zu tun, nur die GCN CPU! =)

Selbstverständlich gibt es aus dem PC-Bereich stammende hochtheoretische Benchmarks, z.B. einzelne komplett auf die Altivec Einheit zugeschnittene Photoshop Filter die auch gerne mal eine doppelt so hoch getaktete Intel CPU schlagen. Diese sind aber auf die Spieleprogrammierung, aufgrund nicht immer linearer Ergebnisse von Folgeberechnungen, nicht anwendbar.

!? Hat ja nix mit Games zu tun! :)

Zudem muss man hier auch die unterschiedlichen Gewichtungen der CPU's in den verschiedenen Konsolen betrachten. Die XBOX CPU ist ALLEIN dafür da, die Physik und die AI der Spiele zu berechnen.

GENAU das was ich immer sagte.. er geht sogar noch weiter und meint NUR dafür da.. Das haben ja die anderen Schlauberger immer versucht mir auszureden, naja, wenn man keine Ahnung hat, soll man es lassen! :lol:


Als Beispiel kann eine in einem Spiel berechnete Figur herhalten. Die XBOX CPU berechnet den Weg den die Figur geht und wie sie wann und weswegen handelt (AI) und berechnet dazu noch wie die Figur die Arme und Beine bewegt. Sie berechnet nicht ein einziges Polygon.

NICHT EIN POLYGON!? Ja, endlich jemand der sich auskennt!

Die G4 CPU muss sich aber mit gleich 3 Dingen herumschlagen. Da wären AI, Physik UND Polygone. Die GCN GPU (Flipper genannt) besitzt nämlich leider keinerlei Vertex Shader die die CPU entscheident von der Polygonberechnung entlasten kann.

AHA... Nana.. also die CPU des Cubes ist ein wenig stärker als die CPU der XBOX, sie muss aber ALLES berechnen.. die arme GCN CPU.. vällig überlastet, deswegen hat man ja nur sowenig PPS... von ca. 12 Millionen. :D

Natürlich besitzt auch der Flipper Chip eine T&L Unit. Diese ist aber nur ungefähr auf Direct X 7 Niveau, also sehr unflexibel in der Anwendung. Sie kann also nicht alle Polygone eines Spieles alleine berechnen, sondern benötigt auch immer die CPU für solche Sachen.

AHA.. die Jungs wollten mir einreden das die XBOX die CPU braucht.. stimmt ja gar nicht, der GCN braucht sie... wie ich immer wusste! :D

Im Idealfall wird die Flipper GPU wohl knapp 30% der Polygonberechnungen übernehmen, die CPU aber beim extrem rechenintensiven Lightning effektiv unterstützen. Die G4 CPU des GCN ist also neben der AI und der Physik auch noch mit der wichtigen Aufgabe der Polygonberechung belastet.

Ja, ist sie.. völlig überlastet!

Zu den Grafikeinheiten. Ich hatte ja schon im Vorfeld die unterschiedlichen Ansätze der beiden Chips angerissen. Als wichtigster Unterschied zwischen den beiden Architekturen ist der Programmieransatz zu nennen. Die XGPU ist aufgrund ihrer Eigenschaften sehr flexibel zu programmieren. Die Pixel und Vertexshader geben den Programmierern einfach gesagt, die Möglichkeit eigene kleine Programme in den Graphikchip zu implantieren mit denen die zu erzielenden Effekte realisiert werden. Hier muss nicht mehr auf Bandbreitenfressendes Multi Texturing zurückgegriffen werden. So sind Effekte wie realistisch wirkendes Wasser und Perspektivenkorrekt dargestellte Straßenspiegelungen möglich. Extrem hohe PolygonCounts werden über die beiden Vertex Shader realisiert. Vorgenannte Effekte sind in jener Qualität auf dem Gamecube absolut nicht möglich. Es ist prinzipbedingt nicht zu schaffen, dazu fehlt der Flipper GPU ganz einfach die freie Programmierbarkeit.

Seht ihr.. der Cube schafft das halt nicht.. ja wie auch, lang nem nackten Mann in die Tasche!

Die Vorteile des Flipper Prozessors liegen woanders. Hier ist besonders die Hervorragende Multi Texturing Fähigkeit zu nennen.

Oben steht doch das Multi TExturing Speicherfressend ist und die XBOX das viel eleganter löst... und das ist dem Cube sein Vorteil... :lol: :lol: Eher Nachteil.. ROFL!

Soweit ich mich erinnern kann, ist er in der Lage 8 Texturen pro Pass auf ein Object aufzutragen. Das verringert aber die Füllrate extrem, die in diesem Fall auf bis zu 200Mpix/s fallen kann.

Da war doch hier so ein Wichtiguer der mir nicht geglaubt hat das die Füllrate extrem sinkt.. AHA.. Hatte ich wieder recht! :D


Als Bonus kann ich hier aber glücklicherweise ein Feature vorweisen, das ich mir für den PC-Bereich schon seit langem erhoffe: ED-RAM. Der Flipper besitzt 2MB Z-Buffer und einen 1MB großen Texture Buffer die direkt im Chip integriert sind. Das erhöht die mögliche Bandbreite und damit den Durchsatz natürlich enorm. Die XGPU besitzt selbstverständlich ähnliche Caches, diese sind aber längst nicht so groß.


Ja klar.. der Chache der XBOX ist nicht so groß, aber die Bandbreite dreimal so schnell!

Nachteilig wirkt sich aber aus, das die Flipper GPU dazu noch den Sound berechnen muss. Die Xbox hat dafür einen eigenen Chip (MCP), und der schafft nicht nur Dolby Surround...

Das ist auch mir neu... Naja.. ob jetzt schlecht oder noch schlechter ist auch schon egal... Cueb kann halt nix!

Seht ihr ihr Großmäuler... Nicht nru ich denke genau so.. ich habe die ganze Zeit genau das behauptet! Aber ihr Wichtigtuer wollt es ja besser wissen. Naja, ich freu mich das nicht die ganze Welt verblödet ist und sich noch ein paar Leute gut auskennen.

Wird euch das nich langsam zu blöde? :shakehead: Das führt zu sowieso zu nichts.
 
HappyPlace schrieb:
Ist doch toll, woher hast Du den Text?
Wer lesen kann ist klar im Vorteil ;)
Von AreaXbox, steht auch im Post. Ist also von jemandem geschrieben der ne Xbox hat und ob das alles so korrekt ist k.a.
Den Text den Hoovey geschrieben hat find ich auch nicht schlecht.

Das sind Texte wo man nachprüfen kann was richtig und falsch ist und auch sachlich diskutieren, aber so Sachen wie:

HappyPlace schrieb:
hat mir besonders gefallen. 2,6 GB/s... Wer hat das geschrieben? Ein 12jähriger unter Einfluss von Alkohol?

Das zeigt einfach das deine Aussagen nicht ernst zunehmen sind, weil es dir mehr darum geht zu bashen als zu schauen was korrekt ist und was nicht...

Die 2,6GB/s sind die Bandbreite des 24MB 1T-SRAM das ist der Main Memory und der 16MB DRAM mit 81Mhz wird A Memory genannt und wird für Sound und andere Dinge gebraucht, die wenig Bandbreite brauchen.
Die 24MB sind auch nicht 6,2ns schnell, sondern 10ns. Der 1T-SRAM Frame Buffer (2MB) und Texture Cache (1MB) sind 6,2ns schnell.

S3TC Komperssion kann die Xbox z.b. auch...
 
Das zeigt einfach das deine Aussagen nicht ernst zunehmen sind, weil es dir mehr darum geht zu bashen als zu schauen was korrekt ist und was nicht...

Die 2,6GB/s sind die Bandbreite des 24MB 1T-SRAM das ist der Main Memory und der 16MB DRAM mit 81Mhz wird A Memory genannt und wird für Sound und andere Dinge gebraucht, die wenig Bandbreite brauchen.

Du sagst mit ich kann nicht lesen!? :-?

Er schreib das hier:

Als normalen Arbeitspeicher besitzt der NGC weiterhin nochmal 16 MB mit 81 MHz getaktetes DRAM mit einer Bandbreite von immerhin noch 2,6 GB/Sek.

Eben, der A-Memory ist 81 MB/s schnell und mit 81 MHZ getaktet.. er stellt es aber so hin als sei er 2,6GB/s schnell ... Was soll dann das? Hast es jetzt kapiert wieso ich mich über sowas lustig mach?



S3TC Komperssion kann die Xbox z.b. auch...

Klar kann die XBOX das, nur viel besser.. Schauen wir uns mal realistische Werte an:

Texture Space (Compressed Textures) - MegaBytes

DC (5 MB:30 MB) vs GC (12 MB:72 MB) vs Xbox (45 MB:270 MB)
Uncompressed: Compressed


texture.gif


Und das passt.. der DC hat meißt schönere Texturen als der Cube.. aber sonst ziemlich auf einem Level.. die XBOX dagegen sticht uns mit HigHRes Textures ins Auge und wundervollem BumpMapping! :D
 
du hast anscheinend noch nie die texturen von ED gesehen, sonst würdest du so einen mist nicht behaupten.
 
:lol: :rofl2: :lol: Ich les mir jetzt sicher nicht das Geschwafel von Leuten durch die allesamt keine rechte Ahnung von der Technik der drei Konsolen haben und sich nur auf theorien stützen. Ich glaube was ich sehe und SMS, ED, RE, SFA&Co sehn erste Sahne aus, also lasst diesen idiotischen Thread bleiben, es intressiert sowieso keinen, was ihr für halbwahrheiten von euch gebt!
 
MTC001 schrieb:
:lol: :rofl2: :lol: Ich les mir jetzt sicher nicht das Geschwafel von Leuten durch die allesamt keine rechte Ahnung von der Technik der drei Konsolen haben und sich nur auf theorien stützen. Ich glaube was ich sehe und SMS, ED, RE, SFA&Co sehn erste Sahne aus, also lasst diesen idiotischen Thread bleiben, es intressiert sowieso keinen, was ihr für halbwahrheiten von euch gebt!

Tja, dann hättest DU es mal lieber lesen sollen. Denn SegaTech vergleicht keinesfalls nru technische Daten, sie nehmen realistische Werte, also Werte die für Cube sowie auch XBOX realistisch sind.

Und egnau das ist ja mein Problem, wenn ich SMS etc.. ansehe dann glaub ich wirklich das der Cube gar nichts kann... Mit XBOX Grafik kann man das wirklich nicht vergleichen... Wir können ja einen Bilderthread machen! :D
 
HappyPlace schrieb:
Blickt man nur oberflächlich auf die Spezifikationen des
GAMECUBE's, so mag die Konsole im Vergleich zur X-Box unterlegen
sein, denn die "Zahlen" sind fast überall tiefer.


Komisch, die Zahlen müssten schon passen, so wie die Games aussehen!

Dass diese
Zahlenvergleiche hinken , bestätigten auch die praktischen
Ergebnisse im Vergleich Playstation 2 vs. Dreamcast. Im GAMECUBE
werkelt mit dem PowerPC ein echter RISC-Renner, der ein besseres
Leistung-/Takt-Verhältnis aufweist als Intels Pentium III.

1. Die XCPU ist auch eien RISC die aber CISC Befehle verarbeitet.

2. Braucht man im Cube einen RISC für Grafik, die XBOX hat da ihre GPU.

Ausserdem
verfügt der GAMECUBE über massiv mehr Speicherbandbreite als die
X-Box , welche mit gerade mal 6,4 GB/s für Grafik-, Audio- und CPU
eher mässig bis unterdimensioniert beglückt wurde.

Ahaa... der Cube hat 2,6 GB für Sound gerade 81 MB/s...

Der Texturecache der Cubes ist 10 GB/s schnell.. der der XBOX 20 GB/s...

Also was wurde hier unterdimensioniert.. soll das ein dummer Witz sein oder wie?

Einzig das
fehlende vollwertige DVD-Laufwerk könnte dem GAMECUBE das
Genick brechen. Nach dem Cartridge-Debakel mit dem N64 scheint
man bei Nintendo nicht überall dazugelernt zu haben.

In jedem Punkt lost der Cube ab.. wenn es nur die fehlende DVD wäre.. Rofl
Des weiteren hat das glaube ich Julian gesagt, das war schon ewig her, vor erscheinen der XBOX. Er hat es schon lang dementiert.. leider liebe Cube Fans.. aus der Traum mit den Seifenblasen! :D

Also Leute als ich das gelesen habe konnte ich nicht mehr zu lachen aufhören. Ich verweise auf den Satz von HappyPlace: Die XCPU ist auch ein RISC Prozessor der aber CISC Befehle verarbeitet. :lol: :lol: :lol: :lol: :lol: :lol: :lol: Ich glaube ich werd' nicht mehr jaja ein Pentium III ist der RISC-Prozessor schlechthin
 
Die XCPU ist auch ein RISC Prozessor der aber CISC Befehle verarbeitet. Ich glaube ich werd' nicht mehr jaja ein Pentium III ist der RISC-Prozessor schlechthin

Du bist ja echt peinlch, wenn man keien Ahnung hat sollte man die Klappe halten.. Hast wohl mal aufgeschnappt das die Intel CPUs CISC sind? Nein, sie EMULIEREN praktisch eine CISC.. es sind aber normale RISC CPUs, die CISC Befehle in kleine RISC Befehle zerhacken und als reine RISC Maschinen rechnen.

Kurzum : der 486 Nachfolger Pentium musste kompatibel sein, aber neu sein. Was Intel machte war folgendes : Nach dem Dekodieren der Befehle werden diese in einfachere RISC Befehle übersetzt, umgruppiert und zwei Rechenwerken die reine RISC Maschinen sind, zugeführt. Seit dem Pentium Pro ist dies so und ein Pentium 4 ist im Prinzip ein guter x86 Emulator... Eine x86 Instruktion kann dabei nur eine aber auch 3 oder 4 einfache RISC Operationen umfassen. Dabei sind diese relativ lang, beim Pentium III 118 Bit. Beim Pentium 4 wahrscheinlich nur etwa die Hälfte

Das steht es.. seit dem Pentium PRO ist das so.. weil RISC einfach billiger ist.

http://www.bernd-leitenberger.de/cisc-risc.html

Der Pentium Pro ist ein reiner RISC - Prozessor, für 32-Bit-Anwendungen in Windows NT oder OS/2 optimiert.

http://www.karbosguide.com/de/modulg3e01.htm#ppro1

Gell... der dumme HappyPlace hat ja keien Ahnung, der ist sooo doof.. einer RISC.. hahhahahaaa.. hahahahahhaaa Ich lach mich kaputt.. ist der Doof! :lol:

Nochmal für die Doofen.. die nicht glauben das der PIII bzw.. ale Intel Desktop CPUs RISC CPUS sind... Diese CPUs bekommen CISC Code und zerhacken diesen in kleineren RISC Code... und bearbeiten in so als RISC CPU mit aber den genauso guten Eigenschaften einer CISC CPU... Von außen wird sie wie eine CISC angesprochen, intern ist es aber eine RISC TEchnologie.. Die Pentium etc.. können aber natürlich auch NUR RISC Befehle verarbeiten...
 
Sorry Doppelpost , und bei mir funktioniert gerade irgendwie nicht "Beitrag löschen "!
 
fishman schrieb:
X-Warrior schrieb:
fishman schrieb:
ganz offensichtlich is der x-kasten ein pc!
vor 4 jahren fing doch ms mit dem gebrabbel an, das man
vor hat eine spiele-maschine rauszubringen, damit die kids nicht soviele
probleme mit dem games auf dem pc haben. von wegen installieren, treiberund patches. etc. habe sogar noch eine alte ct' wo dieser artikel drin ist.

und wenn man den kasten aufschraubt, dann hat man da übliche pc- einzelteile drin. sogar die anschlüsse sind im prinzip USB - wurden nur abgeändert damit man nicht auf die idee kommt und seine pc sachen reinsteckt.
totale abzocke die als power-maschine gehypt wird. total lächerlich.
und was is mit den games? irgendwie scheinen die alle nicht so fein zu laufen oder?
jedes neue game das hier rauskommt ist verbuggt.

Wenn du auch so aussiehst wie dein Avatar wundern mich deine Antworten nicht aber auf jedenfall passen sie dazu :lol: :lol: :lol:

was hat das jetzt mit dem thema zu tun?
könntest du bitte mal die persönlichen angriffe unterlassen?
liebe mods, ist es nicht mal langsam zeit ihn zu bannen oder mindestens zu verwarnen?


Fishman , wenn hier einer verwarnt gehört dann bist du das!Dein Verhalten ist inakzeptabel , ständig beleidigst du andere , die andere Meinungen vertreten als du , oder du willst das Jemand gebannt wird oder verwarnt wird.Langsam reicht's.Ich will nicht das du gebannt oder verwarnt wirst.Aber hör auf , andere ständig anzugreifen , zu beleidigen , und falsche Tatsachen zu verbreiten!

Genau wie du schon wolltest , dass Happyplace gebannt werden sollte ( oder war es zu verwarnen ).Dann sagst du zum Beispiel "Verleugnung" , dass heißt Verläumdung , du bist aber auch nicht viel besser , bei dir passt nämlich mittlerweile "Vortäuschung falscher Tatsachen"!
 
Zurück
Top Bottom