Playstation 3 - NUR Playstation 3

  • Thread-Ersteller Thread-Ersteller Stike
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Stike schrieb:
??? Justus Jonas schrieb:
Mal ne Verständnisfrage: wenn von "Multi-Core" und "Multi-Threads" die Rede ist, ist doch prinzipiell das gleiche gemeint, oder?
Nein, die Wurzeln liegen da:
Ein Thread ist ein Aufgabenstrang, den eine CPU pro Taktzyklus abarbeiten kann. Alle bisheringe Intel-CPUs sind Single-Threaded, d.h. sie können nur eine Aufgabe gleichzeitig erledigen, und darauf waren bisher immer alle PC-Programme ausgelegt.

Nicht ganz, die neueren P4's beherrschen ja Hyperthreading, sprich, können zwei Threads gleichzeitig bearbeiten. Bisher nutzt meiner Erkenntnis nach aber noch kein PC-Spiel diese Option.

Beim Rest gebe ich dir aber Recht.
Der Weg geht nun mal hin zu Multicore- und Multithreadprozessoren, da aufgrund neuerer Fertigungstechniken die Chipgröße wie gewohnt immer weiter verkleinert werden kann, bei der Taktfrequenz aber bald die physikalische Grenze erreicht wird.
 
Mell@ce schrieb:
Stike schrieb:
??? Justus Jonas schrieb:
Mal ne Verständnisfrage: wenn von "Multi-Core" und "Multi-Threads" die Rede ist, ist doch prinzipiell das gleiche gemeint, oder?
Nein, die Wurzeln liegen da:
Ein Thread ist ein Aufgabenstrang, den eine CPU pro Taktzyklus abarbeiten kann. Alle bisheringe Intel-CPUs sind Single-Threaded, d.h. sie können nur eine Aufgabe gleichzeitig erledigen, und darauf waren bisher immer alle PC-Programme ausgelegt.

Nicht ganz, die neueren P4's beherrschen ja Hyperthreading, sprich, können zwei Threads gleichzeitig bearbeiten. Bisher nutzt meiner Erkenntnis nach aber noch kein PC-Spiel diese Option.

Beim Rest gebe ich dir aber Recht.
Der Weg geht nun mal hin zu Multicore- und Multithreadprozessoren, da aufgrund neuerer Fertigungstechniken die Chipgröße wie gewohnt immer weiter verkleinert werden kann, bei der Taktfrequenz aber bald die physikalische Grenze erreicht wird.

Eine Physikalische grenze findet sich eher bei der ständigen verkleinerung der Transistoren. Teoretisch könnte man Taktraten immer weiter steigern, doch die methoden dies zu realisieren werden immer unökonomischer, lohnen also nicht.
 
??? Justus Jonas schrieb:
Stike schrieb:
(...) Die Entwickler MÜSSEN diese Eigenschaft der neuen CPUs ausnutzen, sonst wird sich das bei den Games kaum als Leistungsschub bemerkbar machen im Vergleich zu heutigen PC-Games. (PS3@3,2 GHz und PC@3,2 GHz mit Spiel, das nur 1 Thread nutzt --> mehr oder weniger identisch)

Erst einmal vielen Dank für die gute Erklärung, Stike! :) Da du dich ja sehr gut auskennst, stelle ich dir folgende Frage: Wenn mich mein Gedächtnis nicht täuscht, hat die 360 sozusagen drei Cores @ 3,2 GHz. Wenn man nun diese drei Cores zu 100 Prozent ausnutzt, liegt dann die Leistung bei einer Single-Core-CPU mit 9,6 GHz? Oder stimmt diese Rechnung nicht?

Wenn man alle drei Cores wirklich zu 100% ausnutzen könnte, dann käme deren Leistung natürlich in etwa an die dreifache Leistung eines einzelnen Cores heran.
So einfach kann man aber in der Praxis nicht rechnen.
Zum einen kann ja auch noch jeder Core zwei Programmstränge (Threads) bearbeiten.
Zum Anderen teilen sich alle drei Kerne einen 2.Level Cache. Wenn nur ein Kern verwendet wird, hat der natürlich einen besseren Cachzugriff als wenn deren drei Kerne darauf zugreifen.

Fakt ist aber, wie ich schon oben geschrieben habe, dass der Trend zu Multicoresystemen über geht. Denn, die Strukturbreite der Chips läßt sich weiterhin verkleinern, während man bei der Taktfrequenz sich langsam aber sicher dem Limit nähert.

PS: Bei den in der PS3 und X360 verbauten Grafikeinheiten (GPU's) benötigt man übrigens eine starke CPU, um diese überhaupt auslasten zu können. Selbst im PC-Sektor ist die CPU der limitierende Faktor, wenn man Grafikkarten vom Schlage einer GF7800 oder ATI 1800 eingebaut hat. Das heisst, dass selbst eine 4GHz CPU nicht in der Lage ist, die Grafikkarte an ihr Limit zu treiben.
Denn man darf nicht vergessen, dass die CPU immer noch die Vorarbeit in Sachen Grafikberechnung leisten muss.
Ist diese zu langsam, muss die Grafikeinheit auf die Daten warten und verschwendet wertvolle Rechenzeit.

Bei einem Spiel, was lediglich einen Kern nutzt, muss aber dieser nicht nur die Grafikvorberechnung leisten, sondern eben auch den ganzen Rest. Angefangen vom reinen Gamecode, über die Physik- hin zur KI-Berechnung.
Hat man nun mehrere Kerne, drei identische bei der X360 und den PPE Kern sowie die sieben SPE Einheiten der PS3, so kann man die Aufgaben aufteilen.
Das diese neue Art der Programmierung natürlich nicht von jetzt auf gleich funktioniert wird jedem verständlich sein. Drum herum kommen die armen Progger aber nun mal nicht :)

Die ersten Games werden nur sehr bescheiden die anderen Kerne nutzen. Man wird abwarten müssen, was die zweite Softwarewelle bringt. Erst dann kann man sich ein vorläufiges Urteil über die Leistungsfähigkeiten der nächsten Konsolengeneration machen.
 
Mell@ce schrieb:
*viel kluger Text* (...) Die ersten Games werden nur sehr bescheiden die anderen Kerne nutzen. Man wird abwarten müssen, was die zweite Softwarewelle bringt. Erst dann kann man sich ein vorläufiges Urteil über die Leistungsfähigkeiten der nächsten Konsolengeneration machen.

:o Ihr (Du) kennt euch ja verdammt gut aus. Beruf oder nur Interesse?

Aber zu deinem letzten Absatz hätte ich noch Fragen. Also als Hardware-Noob habe ich das prinzipiell auch so gesehen bzw. vermutet. Das eben die wahre Leistung erst mit Nutzung der weiteren Cores erreicht werden kann, wodurch die ersten Spiele einer Generation nur einen vorläufigen Blick auf die Fähigkeiten der Konsole werfen können, da eben die Programmierung dieser Hardware noch Neuland ist und erst einmal gelernt sein will. Siehe die ersten Spiele beim 360er Launch. Imho alles Spiele die nahezu 1:1 auf einen aktuellen Top-PC portiert werden könnten.

So weit so gut. Nur hat einer der Entwickler von PGR3 (XBOX 360) gesagt, das man schon die drei Cores benutze! Und das man natürlich mit der Zeit immer besser lerne jede Hardware zu nutzen. Dazu nannte er 10, 20 oder gar 50% Zuwachs an Leistung. Klar, diese Steigerungsraten sind nur so in den Raum geworfen, aber wenn er Recht hätte, wäre das für mich enttäuschend. Den das klingt für mich eher nach PS2 oder XBox 1.

Als Erklärung meinte jemand, das jeder Core vielleicht nur zu 20% genützt würde und somit noch genügend Spielraum für Verbesserung vorhanden sei. Kann man das so vermuten? Oder besagt die Tatsache, dass anscheinend schon drei Cores benutz werden, das die schlummernden Leistungsreserven doch nicht so grandios sind, wie manche es sich erwünschen?
 
Torrod schrieb:
Eine Physikalische grenze findet sich eher bei der ständigen verkleinerung der Transistoren. Teoretisch könnte man Taktraten immer weiter steigern, doch die methoden dies zu realisieren werden immer unökonomischer, lohnen also nicht.

Wenn Du es so siehts, hat natürlich auch die Strukturgröße irgend wann ihre Grenze erreicht. Nur im Moment scheint es eher so zu sein, dass die Taktfrequenz zuerst das Handtuch schmeißt :)
Elektrische Signale breiten sich nun mal "nur" mit Lichtgeschwindigkeit aus.
Bei 4GHz legt das Signal zwischen zwei Takten gerade mal eine Strecke von 75mm zurück. Da die Leitungswege innerhalb des Chips natürlich unterschiedlich lang sind, kommt es bei weiterer Erhöhung des Takts zu Synchronisationsproblemen zwischen den verschiedenen Recheneinheiten im Chip.
Es sind zwar sicher noch Takte von 10-20 GHz drin, im Vergleich zu den bis dato erzielten Takterhöhungen ist das aber eher wenig.
Der C64 arbeitete 1984 mit einer Taktfrequenz von 1MHz. Also dem viertausendstel Teil derzeitiger CPU's
Mein 486ger, 1990 gekauft, lief mit 50Mhz. In 15 Jahren wurde die Taktfrequenz also auf das 80fache gesteigert.
Aber wenn man bedenkt, dass es vor zwei Jahren schon eine Pentium CPU gab, die mit 3.2 GHz getaktet wurde, sieht man doch sehr deutlich, dass die Steigerung der Taktfrequenz langsam ins Stocken gekommen ist.

Bei AMD sieht es nicht anders aus.
Juni 2002 gabs den 2100+
Heute, über drei Jahre später hat man es gerade mal geschaft, den Takt (Pentiumrating) auf das doppelte zu steigern (betrifft Single Core Prozessoren).
Wenn diese Entwicklung so weiter vorranstreitet, dann haben wir in 15Jahren nicht die 80fache sondern nicht mal die 10fache Steigerung im Takt zu verzeichnen. Das klingt eigentlich recht ernüchternd.
Bleibt also nur die Option der Multicorprozessoren.
 
??? Justus Jonas schrieb:
Wenn man nun diese drei Cores zu 100 Prozent ausnutzt, liegt dann die Leistung bei einer Single-Core-CPU mit 9,6 GHz? Oder stimmt diese Rechnung nicht?
Danke ;)
Die Rechnung stimmt nur theoretisch. Es gibt 2 Dinge, die man berücksichtigen muss:
Ob 1 Core oder 10, es ändert nix daran, dass die Taktrate die selbe bleibt, sie addiert sich nicht. Schlussendlich kommt es auf die Anwendung (bzw. das Spiel ;)) an, ob die vielen Kerne etwas bringen, und da ist der springende Punkt. Wenn ein Spiel nur wenige Threads zusammenbringt, wird der 1-Kern mit hoer Taktrate schneller sein als viele Kerne mit weniger Takt.
Wenn aber, wie du gesagt hast, alle Kerne 100 % ausgenutzt würden, könnte man die Leistung wirklich THEORETISCH addieren. Nur arbeitet deswegen ein Kern nicht schneller - es liegt an dem Programm, die Aufgaben effektiv zu verteilen (und genau deswegen sind die PC-Programmierer, die sich bisher nicht drum kümmern mussten, wie Carmack und Newell, am Kotzen :D).

Die vollen 100 % werden dabei nie wirklich erreicht, es ist ein theoretischer Wert.
 
??? Justus Jonas schrieb:
...So weit so gut. Nur hat einer der Entwickler von PGR3 (XBOX 360) gesagt, das man schon die drei Cores benutze! Und das man natürlich mit der Zeit immer besser lerne jede Hardware zu nutzen. Dazu nannte er 10, 20 oder gar 50% Zuwachs an Leistung. Klar, diese Steigerungsraten sind nur so in den Raum geworfen, aber wenn er Recht hätte, wäre das für mich enttäuschend. Den das klingt für mich eher nach PS2 oder XBox 1.

Als Erklärung meinte jemand, das jeder Core vielleicht nur zu 20% genützt würde und somit noch genügend Spielraum für Verbesserung vorhanden sei. Kann man das so vermuten? Oder besagt die Tatsache, dass anscheinend schon drei Cores benutz werden, das die schlummernden Leistungsreserven doch nicht so grandios sind, wie manche es sich erwünschen?

Im Interview werden die genannten Prozentzahlen nur als Beispiel genannt. Man, bzw. der Interviewte weiß einfach nicht, wie weit man in ein bis zwei Jahren im Bereich Mulicore und Multithread Programmierung ist.
Ich halte es für recht unwahrscheinlich, dass z.B. PGR3 die X360 CPU schon so weit ausreizt. Das begründe ich natürlich nicht mit meiner Erfahrung, denn die habe ich nicht :) sondern mit den vielen Artikeln, die sich mit der Problematik der Parallelprogrammierung befassen.

Mal ein kleines theoretisches Rechenbeispiel.
Nehmen wir mal die X360 CPU (Ich weiß, ist der PS3 Thread, aber läßt sich leichter mit rechnen)
Die X360 CPU hat drei identische Prozessorkerne. Jeder Kern kann dann noch zwei Programmierstränge (Threads) gleichzeitig bearbeiten.
Nutze ich nur einen Thread pro Core, kann ich diesen Core auch nur zu ungefähr 60% ausnutzen. Nutze ich beide, sind sagen wir mal 90-100% drin.
Dass nicht jeder Core 50% bringt liegt daran, dass ich ja nicht wirklich zwei komplett getrennte Recheneinheiten in diesem einem Kern habe sondern nur eine. Es existieren aber doppelte Teilbereiche der Recheneinheit, so dass die obige Rechnung ungefähr hinkommt.

Also
Nehmen wir weiter an, dass alle drei Cores zusammen 300% ausmachen.
Jetzt nutze ich nur einen Core und da auch nur einen Thread.
Folglich erhalte ich auch maximal 60% von 300%
Wären also auf 100% bezogen 20%. Verwirrt :)

Man kann also grob sagen, nutzt man wirklich nur einen Core und dort nur einen Thread, erhalte ich auch maximal 20 und nicht etwa 33% der Gesamtleistung der CPU.

Wenn ich alle drei Cores nutze aber dort auch immer nur einen Thread komme ich auf 180% Leistung von 300%. Also Normalisiert auf 100% habe ich die CPU zu 60% ausgenutzt.
Ich bezweifel, dass PGR3 mehr als drei Threads nutzt und diese voll auslastet.
Spekuliere ich also weiter.
PGR3 nutzt einen Hauptthread, der auch immer ausgelastet ist. Dann nutzt es einen Thread für diverse Physikberechnungen (80% der Threadleistung) und eine für Sound und anderes (50% der Threadleistung) wie gesagt, reine Spekulation.
Ergibt nach meiner Rechnung also 60% + 48%+ 30% = 138 % von 300%
Damit wären wir bei 46 % CPU Auslastung und es wäre noch eine Steigerung rein CPU mäßig von über 100% drin.
Und ich denke, dass ich da sogar noch recht großzügig bei der Bemessung der Rechenzeit war.

Wenn Du die Rechnung nicht ganz mitverfolgen konntest, was ich dir nicht übel nehme. (Würde die vermutlich auch nicht raffen bei einer so bescheuerten Erklärung :)), dann nur so viel.

Es ist noch eine Menge drin, wenn Multicoreprogrammierung erst einmal Salonfähig geworden ist.
 
Mell@ce schrieb:
Wenn Du die Rechnung nicht ganz mitverfolgen konntest, was ich dir nicht übel nehme. (Würde die vermutlich auch nicht raffen bei einer so bescheuerten Erklärung :)), dann nur so viel.

Es ist noch eine Menge drin, wenn Multicoreprogrammierung erst einmal Salonfähig geworden ist.

Also jetzt beim ersten mal lesen ... hab ich es nicht ganz verstanden. Werde es nochmal lesen müssen. :) Aber dein letzter Satz ist zum Glück auf Anhieb zu verstehen und der macht mich doch wieder etwas zuversichtlicher! 8-)

Danke für eure Antworten!!!
 
Mell@ce schrieb:
Ich halte es für recht unwahrscheinlich, dass z.B. PGR3 die X360 CPU schon so weit ausreizt. Das begründe ich natürlich nicht mit meiner Erfahrung, denn die habe ich nicht :) sondern mit den vielen Artikeln, die sich mit der Problematik der Parallelprogrammierung befassen.

Ich glaube auch das diese Aussage eher aus der Marketingecke kam um zu veranschaulichen wie toll doch PGR3 sei.
Im übrigen gab es letztens auch eine Aussage von einem MS Verantwortlichen wo gesagt wurde das kein LaunchSpiel alle 3 Kerne ausnutzt.
 
Mell@ce schrieb:
Torrod schrieb:
Eine Physikalische grenze findet sich eher bei der ständigen verkleinerung der Transistoren. Teoretisch könnte man Taktraten immer weiter steigern, doch die methoden dies zu realisieren werden immer unökonomischer, lohnen also nicht.

Wenn Du es so siehts, hat natürlich auch die Strukturgröße irgend wann ihre Grenze erreicht. Nur im Moment scheint es eher so zu sein, dass die Taktfrequenz zuerst das Handtuch schmeißt :)
Elektrische Signale breiten sich nun mal "nur" mit Lichtgeschwindigkeit aus.
Bei 4GHz legt das Signal zwischen zwei Takten gerade mal eine Strecke von 75mm zurück. Da die Leitungswege innerhalb des Chips natürlich unterschiedlich lang sind, kommt es bei weiterer Erhöhung des Takts zu Synchronisationsproblemen zwischen den verschiedenen Recheneinheiten im Chip.
Es sind zwar sicher noch Takte von 10-20 GHz drin, im Vergleich zu den bis dato erzielten Takterhöhungen ist das aber eher wenig.
Der C64 arbeitete 1984 mit einer Taktfrequenz von 1MHz. Also dem viertausendstel Teil derzeitiger CPU's
Mein 486ger, 1990 gekauft, lief mit 50Mhz. In 15 Jahren wurde die Taktfrequenz also auf das 80fache gesteigert.
Aber wenn man bedenkt, dass es vor zwei Jahren schon eine Pentium CPU gab, die mit 3.2 GHz getaktet wurde, sieht man doch sehr deutlich, dass die Steigerung der Taktfrequenz langsam ins Stocken gekommen ist.

Bei AMD sieht es nicht anders aus.
Juni 2002 gabs den 2100+
Heute, über drei Jahre später hat man es gerade mal geschaft, den Takt (Pentiumrating) auf das doppelte zu steigern (betrifft Single Core Prozessoren).
Wenn diese Entwicklung so weiter vorranstreitet, dann haben wir in 15Jahren nicht die 80fache sondern nicht mal die 10fache Steigerung im Takt zu verzeichnen. Das klingt eigentlich recht ernüchternd.
Bleibt also nur die Option der Multicorprozessoren.

em naja, ich kenne mich mit der materie CPU zwar nicht sooo gut aus, aber zu dem thema kann man nur sagen die die aktuellen 3-4GHZ CPUs so gut wie nie ausgenutzt werden können! Die stoßen nur bei videocodierung an uhre grenzen!

Außerdem denke ich das man die GHZ rate theoretisch auf vielleicht 100GHZ oder so takten könnte, allerdings brauch man leistungsvollere Netzteile, eben auch mehr stromverbrauch und ein neues küphlsystem!

Das mit der entwicklung der Taktraten zur zeit wird meiner meinung durch die hitzeentwicklung behindert und Wasserkühlungen sind imo (meine meinung) nicht die lösung!!
 
1steffen1 schrieb:
em naja, ich kenne mich mit der materie CPU zwar nicht sooo gut aus, aber zu dem thema kann man nur sagen die die aktuellen 3-4GHZ CPUs so gut wie nie ausgenutzt werden können! Die stoßen nur bei videocodierung an uhre grenzen!

Außerdem denke ich das man die GHZ rate theoretisch auf vielleicht 100GHZ oder so takten könnte, allerdings brauch man leistungsvollere Netzteile, eben auch mehr stromverbrauch und ein neues küphlsystem!

Das mit der entwicklung der Taktraten zur zeit wird meiner meinung durch die hitzeentwicklung behindert und Wasserkühlungen sind imo (meine meinung) nicht die lösung!!
Nein, die aktuellen Prozessoren werden auch durch andere Aufgaben wie Spiele usw. auf 100 % Auslastung gebracht, glaub mir ;)
Außerdem hast du Unrecht, denn die Taktrate kann man nur viel weiter erhöhen wenn man zugleich den Chip kleiner macht - und daran liegt es, dass wir nur langsam voran kommen.

Die magische Grenze heißt 65 nm Prozess. So lange in dieser Größe nicht in Serie produziert werden kann, steht der CPU-Fortschritt vor einer Betonmauer. Die Zukunft wird es zeigen.

Mir isses hier irgendwie etwas zu technisch :P können wir wieder zurück zur PS3 selbst kommen? (Ich weiß, ist schwer wenn es kaum News gibt ;))
 
Etwas für Technikkenner

Gamefront schrieb:
Cell-Chip auf der 'Embedded Technology 2005'

19.11.05 - Auf der Embedded Technology 2005 haben führende Entwickler des Cell-Chips an der Podiumsdiskussion 'The Engineers Who Created Cell - The Impact of Multicore Technology' teilgenommen: Suzuoki Masakazu (Sony Computer Entertainment Inc.), Tago Hiroyuki (Toshiba Corporation) und Koichi Awazu (Toshiba Corporation).

Wie TechOn schreibt, haben sich die Diskussionsteilnehmer darauf geeignet, die Organistaion 'Cell Forum' zu gründen; der sollen durch Mitgliedschaft Entwickler beitreten können, die Software für Cell entwerfen.

Im Dezember 2005 sollen Workstations mit Cell-Prozessor (3.2 GHz) an Software-Entwickler ausgeliefert werden.

Die Teilnehmer sprachen auch über Zukunftsvisionen des Cell-Chips. Wenn man eines Tages einmal 10 PFLOPS (PetaFLOPS) erreichen würde, dann könnte man ein System bauen, das über dieselbe Leistungskraft verfügt, wie der Computer 'HAL' im Kinofilm 2001 - A Space Odyssey.

Sollte man sogar einmal 100 PFLOPS erreichen können, dann könnte man vielleicht ein System konstruieren, dass die Welt an sich darstellt, so wie der Computer im Film The Matrix.
 
Also außer ein paar spaßigen Einwürfen für die populäre Masse (Matrix und 2001) ist in den News lediglich die Gründung des Forums interessant.
Allerdings werden sich dort wohl nicht nur Spiele-Firmen sondern auch weitere Anwendungsentwickler eintragen, die zB. den Cell als PC-Prozessor der Zukunft unterstützen wollen.

Für die PS3 selbst ist das leider kaum wertvolle Information... :cry:
 
Sollte man sogar einmal 100 PFLOPS erreichen können, dann könnte man vielleicht ein System konstruieren, dass die Welt an sich darstellt, so wie der Computer im Film The Matrix.

ok... :oops:

bin ich jetzt der einzige der ein komisches gefühl hat?
 
Gibt es neue Informationen bezüglich der Abwärtskompalität der PS3?
Was mich besonders interesieren würde, ist wie man die alten Spielstände auf die neuen Memory Cards/Stick bringt?

Gruss Weba :)
 
Weba schrieb:
Gibt es neue Informationen bezüglich der Abwärtskompalität der PS3?
Was mich besonders interesieren würde, ist wie man die alten Spielstände auf die neuen Memory Cards/Stick bringt?

Gruss Weba :)

Eigentlich das Selbe was schon bekannt ist. Die meisten Games werden unterstützt aber Spielstände muss man sich wohl via PC auf die Sticks ziehen.
 
Software-Hersteller sehen PS3-Preis bei Euro 430

20.11.05 - Japanische Software-Entwickler gehen davon aus, dass die PlayStation3 etwa Yen 60.000 (Euro 430 / USD 500) kosten wird. Das will die Game Labo erfahren haben und veröffentlicht eine entsprechende Meldung in der Gerückterubrik ihrer neuesten Ausgabe.

Sony hat diesen Preis nicht bestätigt und auch noch keinen Preis für die PlayStation3 genannt.

Da der preis (ca) 400 $ / € in den letzten monaten sehr oft genannt wurde, selbst von den sony boss, galube ich dass es dann auch so sein wird.
preis / leistungs-verhältnis stimmt vollkommen imo :D
 
Ich sage entweder 400€ oder 450€!! 430 ist so merkwürdig!

Em, man kann doch zum beispiel bei GT4 einen usbstick an die ps2 machen umd fotos darauf zu speichern, kann man jetzt speicherstände von der memcard auf den usbstick ziehen und diesen dann bei der ps3 anschließen und die stände auf die sd card zu ziehen?!?

Müsste doch möglich sein oder?
Kann man eigentlich seine PSP via usb mit der PS2 verbinden? und gibt es da auch informationen?
 
500 umgerechnete US-$ würden auch 500 Euro bedeuten (Steuern, Zoll usw...)
Naja, nach dem 400er-Gerücht und diesem 500er-Gerücht... lassen wir uns mal überraschen was es im Endeffekt wirklich bedeutet ;)
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom