Wii U Wii U

Status
Nicht offen für weitere Antworten.
Ich nehme auch an das die R770 in den Alpha (!) Kits nur ein provisiorium war, damit die Devs sehen in welche Richtung es geht.
Final wird einen aktuelle GPU passend zur CPU sein. Vllt auch ein bisschen über der CPU, da ja die GPU heutzutage wichtiger ist.

Es währe vermessen anzunehmen, dass Nintendo es nicht gebacken bekommt ein ausbalanciertes System zu entwickeln!
Deshalb mach ich mir keine Sorgen, auch wenn andere User hier anderer Ansicht sind.


PS:
Wenn Kinect bei der neuen Box als Standart dabei ist, dann viel Spass!
Dann ist die X3 auch nicht "over 9000"!
 
Der Takt lässt sich wirklich nicht mehr großartig erhöhen. Wenn es schon nicht an der größeren Kühlung scheitert dann doch an den physikalischen Limitierungen wie der Lichtgeschwindigkeit. Signale verbreiten sich in Metall mit ca. zweidrittel der Lichtgeschwindigkeit. Und damit in einem Chip nichts durcheinander gerät muss da vieles synchron laufen. Das geht aber nciht, wenn manche Signale einen Takt später ankommen als andere. Und da bei einer Takt von 5GHz das Signal im Chip gerade mal noch vier Zentimeter zurück legt, ist irgendwann der Arsch ab. Bei den gängigen Chipgrößen wird man wohl bei 10-15Ghz komplett am Ende sein. Das ist zwar immer noch eine Steigerung bis zum Faktor vier ggü. den derzeitig üblichen Takten, aber ein Furz ggü. den Steigerungen in der Vergangenheit.

Ein Chip besteht aus immer mehr Transistoren, die eben in mehr Rechenwerke investiert werden.
Einfachstes Beispiel die GPU. Bei ihr werden einfach immer mehr Streamingprozessoren auf den Chip gepackt. Ohne Takterhöhung steigt hier die Leistung linear mit zunehmender Anzahl an.
Bei einer CPU werden einerseits die Kerne erhöht und andererseits die einzelnen Kerne komplexer gestaltet. So leistet jeder einzelne Kern bei gleichem Takt mehr.
Und genau das wird ja auch bei der Wii-U gemacht.
Nach deiner Vorstellung dürfte die Wii-U CPU nur ca. 10% besser sein als die der 360. Denn sie besteht aus ebenso vielen Kernen die nur mit ca. 10% höher getaktet werden.
Dem ist aber nicht so.
Die einzelnen Kerne sind komplexer und damit auch leistungsfähiger.

Eigentlich wollte ich mich zurückhalten. Aber da mein erster (und einziger :awesome:) Chip den ich vor ca. 20 Jahren mal entworfen habe, schon mit knapp 50 GHz lief, muss ich jetzt doch mal einhaken. Der Takt läßt sich natürlich noch erheblich steigern, allerdings gibt es eine einfache Regel, wenn die Leitungslänge größer wird als ein Viertel der Wellenlänge (4 cm / 4 bei deinen 5 GHz), muss man ein Hochfrequenz-Design machen. Dies bedeutet vor allem, dass man plötzlich viel (Faktor 20-50, mindestens 3 Ebenen) mehr Platz braucht. Technologisch ist es aber ohne weiteres möglich einzelne Bereich des Chips mit 10-15 GHz zu betreiben und wenn man andere Substrate nimmt, dann bis 100 GHz.

Nur würde des keiner machen, denn die größten Vorteile hat man durch architektonische Änderungen. Sprich mehr Transistoren die parallel arbeiten sind billiger als wenige ultraschnelle Transistoren. Das hast Du doch selbstso schön beschrieben...
 
Zuletzt bearbeitet:
naja wieso doch? Sicherlich ist die Taktrate nicht das einzige was zählt, aber es ist ja schon eine der bestimmenden Größen.
Ein 3 Ghz-Prozessor ist in der Regel stärker als ein 2Ghz-Prozessor usw.
Wie man da die Power der aktuellen HD-Konsolen um große Faktoren übertreffen will, erschließt sich mir wirklich nicht so ganz...

Du kannst auch locker mit einen Dualcore mit einen <3GHz Takt den Tripplecore der 360 auf den nächsten Mond fegen. Die CPU der Konsolen sind an sich so hoch getaktet, weil es fürs Marketing besser war und sie einen schlechter IpC Wert gegenüber AMD und Intel CPUs hatten, also sie weniger Befehle pro Takt ausführen können.

Kannst auch mal CPUs gleicher Hersteller vergleichen, die neue i Serie ist auch weit schneller als die alte dual Core Chips oder Core 2 Serie von Intel, trotz praktisch gleichen Taktes, teilweise gar geringeren.
 
Eigentlich wollte ich mich zurückhalten. Aber da mein erster (und einziger :awesome:) Chip den ich vor ca. 20 Jahren mal entworfen habe, schon mit knapp 50 GHz lief, muss ich jetzt doch mal einhaken. Der Takt läßt sich natürlich noch erheblich steigern, allerdings gibt es eine einfache Regel, wenn die Leitungslänge größer wird als ein Viertel der Wellenlänge (4 cm / 4 bei deinen 5 GHz), muss man ein Hochfrequenz-Design machen. Dies bedeutet vor allem, dass man plötzlich viel (Faktor 20-50, mindestens 3 Ebenen) mehr Platz braucht. Technologisch ist es aber ohne weiteres möglich einzelne Bereich des Chips mit 10-15 GHz zu betreiben und wenn man andere Substrate nimmt, dann bis 100 GHz.

Nur würde des keiner machen, denn die größten Vorteile hat man durch architektonische Änderungen. Sprich mehr Transistoren die parallel arbeiten sind billiger als wenige ultraschnelle Transistoren. Das hast Du doch selbst schon für die GPU beschrieben...

Soso, du hast also vor 20 Jahren einen digitalen chip entworfen der mit 50Ghz lief.
Von welchem Planeten kommst du denn ?
Vermutlich verwechselst du Giga mit Mega und was die Wellenlänge mit der zurück gelegten Entfernung zu tun haben soll, erschließt sich mir auch nicht.

Auch ein anderes Substrat hat da wenig Einfluss. Schneller als Licht kann sich kein Signal ausbreiten und von zweidrittel zur vollen Lichtgeschwindigkeit sind es lediglich 50%.
Du meinst sicherlich die Signalverareitung aber nicht den Chiptakt.
Klar gibt es Chips, die Signale mit höherer Geschwindigkeit verarbeiten. Aber der reine Chiptakt hat damit nichts zu tun.
 
Der Takt lässt sich wirklich nicht mehr großartig erhöhen. Wenn es schon nicht an der größeren Kühlung scheitert dann doch an den physikalischen Limitierungen wie der Lichtgeschwindigkeit. Signale verbreiten sich in Metall mit ca. zweidrittel der Lichtgeschwindigkeit. Und damit in einem Chip nichts durcheinander gerät muss da vieles synchron laufen. Das geht aber nciht, wenn manche Signale einen Takt später ankommen als andere. Und da bei einer Takt von 5GHz das Signal im Chip gerade mal noch vier Zentimeter zurück legt, ist irgendwann der Arsch ab. Bei den gängigen Chipgrößen wird man wohl bei 10-15Ghz komplett am Ende sein. Das ist zwar immer noch eine Steigerung bis zum Faktor vier ggü. den derzeitig üblichen Takten, aber ein Furz ggü. den Steigerungen in der Vergangenheit.
Ich hab hier schon ewig nichts mehr gepostet, aber bei dem völligen Quatsch den du hier die ganze Zeit postest musste ich mich dann doch nochmal einschalten.
Richtig ist, der Takt lässt sich momentan nur schwer erhöhen, das liegt aber NICHT an der Lichtgeschwindigkeit, sondern daran dass Silizium ab einer bestimmten Frequenz einfach dicht macht. Nimmt man stattdessen ein anderes Material ist nach oben noch gut Luft. Hier mal auf die Schnelle was bei Google gesucht.
Warum man nicht schon jetzt andere Materialien hernimmt hat schlicht und einfach damit zu tun dass dafür der Gesamte Herstellungsprozess umgestellt werden muss, was mit immensen Kosten verbunden wäre (Eine aktuelle Fabrik kostet gerne mal 5Mrd $). Für spezialisierte Anwendungen gibt es aber auch jetzt schon Halbleiterchips auf Basis anderer Materialien.

Bitte tu uns Allen den Gefallen und bleibe diesem Thread in Zukunft fern. Danke.
 
Ich hab hier schon ewig nichts mehr gepostet, aber bei dem völligen Quatsch den du hier die ganze Zeit postest musste ich mich dann doch nochmal einschalten.
Richtig ist, der Takt lässt sich momentan nur schwer erhöhen, das liegt aber NICHT an der Lichtgeschwindigkeit, sondern daran dass Silizium ab einer bestimmten Frequenz einfach dicht macht. Nimmt man stattdessen ein anderes Material ist nach oben noch gut Luft. Hier mal auf die Schnelle was bei Google gesucht.
Warum man nicht schon jetzt andere Materialien hernimmt hat schlicht und einfach damit zu tun dass dafür der Gesamte Herstellungsprozess umgestellt werden muss, was mit immensen Kosten verbunden wäre (Eine aktuelle Fabrik kostet gerne mal 5Mrd $). Für spezialisierte Anwendungen gibt es aber auch jetzt schon Halbleiterchips auf Basis anderer Materialien.

Bitte tu uns Allen den Gefallen und bleibe diesem Thread in Zukunft fern. Danke.

Auch für dich.
Es geht hier nicht um die Geschwindigkeit der Signalverarbeitung sondern um die Taktgeschwindigkeit des Chips.
Dein Artikel ist da auch irreführend und falsch aus der Quelle zitiert.
Niemand sagt, dass eine Signalverarbeitung in diesen Größen nicht möglich wäre. Es geht hier um die allgemeine Taktfrequenz, die sich eben nicht so steigern lässt. Und das hat eben mit der Laufzeit des Signals zu tun und nicht mit der Möglichkeit, elektrische Wellen dieser Größenordnung mittels digitaler Schaltkreise zu erzeugen.

Rede ich denn so unverständlich.
 
Soso, du hast also vor 20 Jahren einen digitalen chip entworfen der mit 50Ghz lief.
Von welchem Planeten kommst du denn ?
Vermutlich verwechselst du Giga mit Mega und was die Wellenlänge mit der zurück gelegten Entfernung zu tun haben soll, erschließt sich mir auch nicht.

Auch ein anderes Substrat hat da wenig Einfluss. Schneller als Licht kann sich kein Signal ausbreiten und von zweidrittel zur vollen Lichtgeschwindigkeit sind es lediglich 50%.
Du meinst sicherlich die Signalverareitung aber nicht den Chiptakt.
Klar gibt es Chips, die Signale mit höherer Geschwindigkeit verarbeiten. Aber der reine Chiptakt hat damit nichts zu tun.

Lass das bitte, ich kann Dir gerne eine PN schicken, wenn es dich wirklich interessiert, aber in diesem Forum hat das nichts zu suchen. Zum Nachdenken vorab ein paar Links:
1. Den Zusammenhang zw. Frequenz, Wellenlänge und Ausbreitungsgeschwindigkeit findest Du hier:

http://de.wikipedia.org/wiki/Wellenlänge

2. Den aktuell wohl schnellsten Silizium Transistor findest Du hier:

http://www.innovations-report.de/html/berichte/informationstechnologie/bericht-14182.html

Und bevor Du zurück schreibst, dass das nix mit Chips zu tun hat, schau mal nach, was die für Taktfrequenzen für Chips anstreben

3. Den schnellsten Transistor auf der Basis von Gallium-Arsenid findest wohl hier

http://www.netzwelt.de/news/70782-amerikanische-forscher-bauen-weltweit-schnellsten-transistor.html

Den Hinweis auf Nanotubes spar ich mir jetzt, genau so wie der Hinweis, dass wenn ich bei 50 GHz gemessen habe, ich wohl ein Messgerät hatte, das bei 50 Ghz misst, darüber solltest Du mal nachdenken ;-)
 
Zuletzt bearbeitet:
Um es kurz zu machen: DOCH tut sie!
Quelle: Ich weil Halbleiterphysiker.

Schön.
Wenn du also der Meinung bist dass es in einigen Jahren mal normale PC CPUs geben wird die mit einer allgemeinen Taktfrequenz von 50-100 Ghz laufen, erübrigt sich wirklich jedwede weitere Diskussion.
Die Signalübertragung läuft dann wohl mit zigfacher Überlichtgeschwindigkeit.
Ich gebe zu, dass ich kein Vertreter dieser Theorie bin ;)
 
Schön.
Wenn du also der Meinung bist dass es in einigen Jahren mal normale PC CPUs geben wird die mit einer allgemeinen Taktfrequenz von 50-100 Ghz laufen, erübrigt sich wirklich jedwede weitere Diskussion.

Das hat er nicht geschrieben. Er deutete lediglich an, dass es bereits Möglichkeiten gibt, die Taktfrequenzen noch deutlich steigern zu können, nur dass das aufgrund der Umstellung der Produktionsstätten und den damit verbundenen Kosten einfach nicht wirtschaftlich genug ist. Wieviele dieser Prozessoren müsste man verkaufen (und wieviel kosten sie dann?) damit man einfach mal 5 Mrd. $ wieder einfährt?

Von ein paar Jahren sprach er allerdings nicht, das ist lediglich deine Interpretation die total fehl am Platz ist.

Ich mein, schau dich mal um: Du redest mit 2 Leuten, die das beruflich machen/gemacht haben und die nicht nur Wikipedia-Wissen mit in die Diskussion mit einbringen, sondern wirklich Ahnung von der Materie haben, weil sie auch Praxiswissen haben und sicherlich auch die mathemathischen Hintergründe nachvollzíehen können. Was hast du nachzuweisen?
 
Zuletzt bearbeitet:
Lass das bitte, ich kann Dir gerne eine PN schicken, wenn es dich wirklich interessiert, aber in diesem Forum hat das nichts zu suchen. Zu nachdenken vorab ein paar Links:
1. Den Zusammenhang zw. Frequenz, Wellenlänge und Ausbreitungsgeschwindigkeit findest Du hier:

http://de.wikipedia.org/wiki/Wellenlänge

2. Den aktuell wohl schnellsten Silizium Transistor findest Du hier:

http://www.innovations-report.de/html/berichte/informationstechnologie/bericht-14182.html

Und bevor Du zurück schreibst, dass das nix mit Chips zu tun hat, schau mal nach, was die für Taktfrequenzen für Chips anstreben

3. Den schnellsten Transistor auf der Basis von Gallium-Arsenid findest wohl hier

http://www.netzwelt.de/news/70782-amerikanische-forscher-bauen-weltweit-schnellsten-transistor.html

Den Hinweis auf Nanotubes spar ich mir jetzt, genau so wie der Hinweis, dass wenn ich bei 50 GHz gemessen habe, ich wohl ein Messgerät hatte, das bei 50 Ghz misst, darüber solltest Du mal nachdenken ;-)

Ich bin E-Techniker, benötige also keine Grundlagenartikel.
Mit deinem Post hast du mir aber mal wieder bewiesen, dass du überhaupt nicht verstanden hast, wovon ich geredet habe.
Es geht nicht um die Taktfrequenz eines einzelnen Transistors und schon gar nicht um die Geschwindigkeit der Signalverarbeitung.
Wo habe ich denn behauptet, dass man einen Transistor nicht schneller Takten kann ?
Nirgends
Dem Takt sind so gut wie keine Grenzen gesetzt. Irgendwann wird man sie auch mit Petaherz oder darüber betreiben. Das ist doch hier überhaupt nicht die Frage gewesen.
Bei einer CPU müssen Berechnungen statt finden und diese dann in anderen Rechenwerken weiter verarbeitet werden. Und zwischen diesen Einheiten liegt eben eine gewisse Entfernung. Bei derzeit üblichen CPUs kann diese durchaus größer sein als ein Zentimeter. Und wenn hier dann die Signale asynchron ankommen, wird es mit der Berechnung gelinde gesagt doch recht schwierig.
Natürlich kann man Teile des Chips höher takten aber darum ging es bei meinen Ausführungen auch nicht.
Ich sprach vom allgemeinem Chiptakt bei derzeitig üblichen Chipgrößen.

Wenn also mal eine PC-CPU angekündigt wird deren normaler Chiptakt die von dir und Plasmor erwähnten 50-100 GHZ besitzt, können wir ja gerne weiter reden. Vermutlich werde ich aber dann nicht mehr unter den Lebenden verweilen bis es so weit ist :)
 
Schön.
Wenn du also der Meinung bist dass es in einigen Jahren mal normale PC CPUs geben wird die mit einer allgemeinen Taktfrequenz von 50-100 Ghz laufen, erübrigt sich wirklich jedwede weitere Diskussion.
Habe ich das irgendwo behauptet?
Die Signalübertragung läuft dann wohl mit zigfacher Überlichtgeschwindigkeit.
Ich gebe zu, dass ich kein Vertreter dieser Theorie bin
Um es mal bewusst stark vereinfacht auszudrücken:
Wenn mein Signal von A nach B läuft muss ich nicht warten bis es bei B angekommen ist um bei A ein neues reinzuschicken
 
Ich glaub das schalten von + und - in einer rechnerischen Größe.

Wenn ich mich recht erinnere war

1 Herz - 1 mal geschaltet pro Sekunde
1 Megaherz - 1000 mal geschaltet pro Sekunde

O (kein Strom) und 1 (Strom) ergeben den binomischen Code

So war das?!? Glaub ich?
 
Zuletzt bearbeitet:
Um es mal bewusst stark vereinfacht auszudrücken:
Wenn mein Signal von A nach B läuft muss ich nicht warten bis es bei B angekommen ist um bei A ein neues reinzuschicken

Nein muss man nicht, habe ich auch nicht behauptet.
Du beschreibst die Signalverarbeitung.
Wenn ich aber Singal A mit B zu X verarbeiten möchte und A mit D zu Y und dann X mit Y in der Stufe Z berechnen möchte, dann muss ich eben warten bis beide, X und Y, bei Z angekommen sind. Und wenn X und Y nicht zufällig die gleiche Entfernung zu Z haben, dann kommen die Signale eben auch zu unterschiedlichen Zeiten an da ihre Laufzeit durch die Lichtgeschwindigkeit begrenzt wird.
Als Physiker weißt du das natürlich aber vielleicht verstehts du ja jetzt, worum es mir geht.
 
Herrlich, so ein Technikgequatsche. Finde ich viel unterhaltsamer als das eigentlicht Threadthema - weiter machen, Jungs :lol:!
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom