Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
1. Der Gamingmarkt war auch damals nicht 10x kleiner als heute?! Ende der 80er wurden ca. 80 Mio. Konsolen abgesetzt, heute sinds ungefähr dreimal soviel, allerdings auch mit deutlich mehr Softwareauswahl, so dass ein einzelnes Spiel wohl kaum dreimal soviel schaffen würde, wie damals.
Sieh dir den Umsatz an, natürlich inflationsbereinigt. Heute wird weitaus mehr Software verkauft, vergiss den PC Markt mal nicht. Der wächst schneller als der Konsolenmarkt.

Aus der vergangenheit wissen wir das konsolen immer bevorzugt werden da AMD viel an den verträgen verdient und damit schon mal sehr viel ihrer entwicklungskosten decken kann.
Bitte was? :ugly:

Nehmen wir doch mal PS360 zusammen seit dem Release. Das wären 130 Millionen verkaufte GPUs in 7 Jahren. Schau doch mal nach wie viele PCs mit AMD GPUs in den letzten 7 Jahren verkauft wurden, das sind weitaus mehr. Oder mach ich nen Denkfehler?
 
er postet doch nur was andere technikseiten an news bringen :nix: er hat noch nie behauptet das er insider ist, er sucht nur den ganzen tag nach fakten und postet sie, ohne ihn würde man viele sachen garnicht mitbekommen.
Er postet die neuesten Entwicklungen und viel zu Prototypen und Grundlagenforschung. Zeug, das frühestens für die Konsolengeneration nach der nächsten relevant wird.

20nm kannst Du knicken. Wenn die Produktion Ende 2013 anläuft, muss man mit einer katastrophalen Ausbeute bis irgendwann 2014 oder gar 2015 rechnen. Die Technologie kommt viel zu spät für PS4 und Xbox3, das Risiko ist zu groß. Sony und MS brauchen Technologien mit hohen Fertigungskapazitäten und guter, vorhersehbarer Ausbeute.
 
Sieh dir den Umsatz an, natürlich inflationsbereinigt. Heute wird weitaus mehr Software verkauft, vergiss den PC Markt mal nicht. Der wächst schneller als der Konsolenmarkt.


Bitte was? :ugly:

Nehmen wir doch mal PS360 zusammen seit dem Release. Das wären 130 Millionen verkaufte GPUs in 7 Jahren. Schau doch mal nach wie viele PCs mit AMD GPUs in den letzten 7 Jahren verkauft wurden, das sind weitaus mehr. Oder mach ich nen Denkfehler?

AMD hat nichts mehr an der GPU der xbox verdient nach dem der chip an MS übergeben wurde.
Sie bekommen für den auftrag den chip zu entwickeln geld und das soll sich anscheinend lohnen, sonst hätte die 360 damals nicht schon ne GPU drin die erst über ein halbes jahr später reif für die consumer produktion war.
 
Und sowieso: Diese Fertigungstechnik-Roadmaps haben sich noch nie bewahrheitet. Intel meinte ja vor einigen Jahren noch, dass wir 2010 schon bei 14nm sein werden.

AMD hat nichts mehr an der GPU der xbox verdient nach dem der chip an MS übergeben wurde.
Sie bekommen für den auftrag den chip zu entwickeln geld und das soll sich anscheinend lohnen, sonst hätte die 360 damals nicht schon ne GPU drin die erst über ein halbes jahr später reif für die consumer produktion war.
Hab nie verstanden wieso die Xbox360 damals zuerst bedient wurde.
 
Es wurde ab 2002 in 90nm produziert, 2006 war 65nm Stand der Technik. War irgendwas in der PS3 65nm? Nope. Sony hat die selbe "veraltete" (= stabile) Technik verwendet wie Nintendo.
 
Er postet die neuesten Entwicklungen und viel zu Prototypen und Grundlagenforschung. Zeug, das frühestens für die Konsolengeneration nach der nächsten relevant wird.

20nm kannst Du knicken. Wenn die Produktion Ende 2013 anläuft, muss man mit einer katastrophalen Ausbeute bis irgendwann 2014 oder gar 2015 rechnen. Die Technologie kommt viel zu spät für PS4 und Xbox3, das Risiko ist zu groß. Sony und MS brauchen Technologien mit hohen Fertigungskapazitäten und guter, vorhersehbarer Ausbeute.

Da hast natürlich recht, aber ich sag trotzdem nie mals nie bevor was nicht offiziel ist.
Im B3d meinte man ja auch das es nicht so den power boost geben würde das man unbedingt warten müßte, aber 0,5 tflops könnten dann drin sein.
Ich weiß noch was damals im GAF los war als die 360 GPU bekannt wurde ;) hätte im lebtag dort keiner geglaubt obwohl MS bei der Xbox1 schon ne power GPU drin hatte. Aber es hat mit den roadmaps bei der 360 halt damals garnicht gepast das sie den chip schon in serie hatten :)

Es wurde ab 2002 in 90nm produziert, 2006 war 65nm Stand der Technik. War irgendwas in der PS3 65nm? Nope. Sony hat die selbe "veraltete" (= stabile) Technik verwendet wie Nintendo.

Sony hatte damals keine zeit mehr was exotisches außer ihren cell zu nehmen, MS hat sie ganz schön unter druck gesetzt das sie mit Nvidia diesen scheiß aushandeln mußten auf teufel komm raus.
Dazu kommt noch das man bei der 65nm fertigung noch keinen stress hate mit der leistung der GPU und CPU an die grenzen zu stoßen da noch viel luft nach oben war.Jetzt geht nur noch was mit der fertigung um noch leistung raus zu quetschen.
 
Zuletzt bearbeitet:
Da hast natürlich recht, aber ich sag trotzdem nie mals nie bevor was nicht offiziel ist.
Im B3d meinte man ja auch das es nicht so den power boost geben würde das man unbedingt warten müßte, aber 0,5 tflops könnten dann drin sein.
Ich weiß noch was damals im GAF los war als die 360 GPU bekannt wurde ;) hätte im lebtag dort keiner geglaubt obwohl MS bei der Xbox1 schon ne power GPU drin hatte. Aber es hat mit den roadmaps bei der 360 halt damals garnicht gepast das sie den chip schon in serie hatten :)
Einen Prozess kann man nicht mit einem einzigen Chip in einen Topf werfen. Ganz egal, wie unerwartet der Chip möglicherweise war - der Prozess, in dem er gefertigt wurde, war schon Jahre alt.
 
vor ner woche wurde im GAF ja auch noch das gepostet was auch etwas interessant war

Rumor: Intel's Next-Gen Atom CPUs to Feature Up to Eight Cores
19 Oct 2012 / 11 hours 26 min ago / By Wong Chung Wee
Intel is rumored to be working on the next generation of Atom processors that are targeted at powering micro servers. Dubbed Avoton, this upcoming system-on-a-chip (SoC) will be based on 22nm Silvermont architecture and feature up to eight cores that share 4MB of L2 cache (1MB per core).


The Intel 'Avoton' Atom processor is intended for low-power "micro servers", and these micro servers are ideal for hosting cloud computing services and running applications that do not need the massive performance of Xeon processors. According to X-Bit Labs, they will sport up to eight cores and will feature frequencies of 1.6GHz to 2.4GHz. They also reported it is currently unknown whether Avoton is a multi-chip module incorporating two 'Valleyview' processors, or a separate chip built from scratch. It is expected that Thermal Design Power (TDP) of Avoton will range from 5W to 20W, whereas clock-speeds will range from 1.20GHz to 2.40GHz. The Silvermont-based cores will provide OOE (out-of-order execution) and Turbo Boost-like feature that will allow clock speeds of up to 2.7GHz. The Atom 'Avoton' CPUs are expected to be launched during the second half of 2013.
 
Zuletzt bearbeitet:
Es wurde ab 2002 in 90nm produziert, 2006 war 65nm Stand der Technik. War irgendwas in der PS3 65nm? Nope. Sony hat die selbe "veraltete" (= stabile) Technik verwendet wie Nintendo.

Die ps3 gab es ende 2006 bereits zu kaufen, 65nm produkte (gpu, cpu) vor allem gpu gab es erst ab 2007...
Dein vergleich hinkt also...
Ich denke 28nm ist daher realistisch, das gibts und das läuft bereits recht stabil.
Aber wenn die ps4 wirklich erst in 2014 kommt...warum nicht 20nm?
Bis dahin sollte der prozess stabil laufen...musterchips gibts ja scjon seit letztem jahr ;-)
 
Die ps3 gab es ende 2006 bereits zu kaufen, 65nm produkte (gpu, cpu) vor allem gpu gab es erst ab 2007...
Dein vergleich hinkt also...
Ich denke 28nm ist daher realistisch, das gibts und das läuft bereits recht stabil.
Aber wenn die ps4 wirklich erst in 2014 kommt...warum nicht 20nm?
Bis dahin sollte der prozess stabil laufen...musterchips gibts ja scjon seit letztem jahr ;-)
CPU Fertigung =/= GPU Fertigung.
 
CPU Fertigung =/= GPU Fertigung.

Es war die rede von irgendwelchen teilen, also egal ob cpu oder gpu, in der ps3....

Deshalb auch der gpu vergleich ;-)

Ich denke man wird sich irgendwo bei 22nm befinden in den next gen konsolen....
Oder man bleibt bei 28 um in folgekonsolen und neuen revisionen noch optimierungsmöglichkeiten zu haben....
 
22nm gibts erst mit den 2013 GPUs und die sind erst Frühling/Sommer serienreif. Viel zu spät für MS und auch für Sony, falls sie nicht Ende 2014 releasen.
 
Die ps3 gab es ende 2006 bereits zu kaufen, 65nm produkte (gpu, cpu) vor allem gpu gab es erst ab 2007...
Dein vergleich hinkt also...

hätten sie nicht probleme mit den blauen lasern gehabt gäbs sie sogar schon 2005 in 65nm ;) das wäre über ein jahr vor den consumer 65nm produkten :)

wer weiß ob Sony deshalb 6 monate hinterm plan liegt wie der AMD insider behauptet da sie eventuell doch 20 nm mitnehmen wollen.
Wir werden es erst sicher wissen wen es offiziell ist.

22nm gibts erst mit den 2013 GPUs und die sind erst Frühling/Sommer serienreif. Viel zu spät für MS und auch für Sony, falls sie nicht Ende 2014 releasen.

über das reden wir hier doch die ganze zeit, das konsolen in der regel einiges vor serienreife (consumer hardware) in der fertigung sind.
 
Zuletzt bearbeitet:
Die ps3 gab es ende 2006 bereits zu kaufen, 65nm produkte (gpu, cpu) vor allem gpu gab es erst ab 2007...
Dein vergleich hinkt also...
Ich denke 28nm ist daher realistisch, das gibts und das läuft bereits recht stabil.
Aber wenn die ps4 wirklich erst in 2014 kommt...warum nicht 20nm?
Bis dahin sollte der prozess stabil laufen...musterchips gibts ja scjon seit letztem jahr ;-)
Selbst 32nm-Muster gab's schon 2005. Und der Prozess ist bis heute noch nicht sonderlich stabil.
 
Zuletzt bearbeitet:
Die ps3 gab es ende 2006 bereits zu kaufen, 65nm produkte (gpu, cpu) vor allem gpu gab es erst ab 2007...
Die Playstation 3 war vor Ende 2007 auch nicht in 65nm erhältlich, der 65nm Shrink kam mit dem Pricecut auf 399€. Intel hatte 65nm Anfang 2006 erreicht, AMD war dort Anfang 2007. Abgesehen davon war das damals auch noch eine andere Welt, die Vorlaufzeiten neuer Prozesse werden immer länger. Das sieht man z.B. daran, dass Nvidia zum ersten Mal eine neue Serie (Kepler) nicht mit der High-End Karte eröffnet hat weil die nicht sinnvoll herzustellen war. Wer glaubt, dass das nur an ATI liegt, hat Nvidia nicht zugehört als sie TSMC öffentlich dafür niedergemacht haben.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom