Xbox One Der Xbox One Thread

  • Thread-Ersteller Thread-Ersteller finley
  • Erstellungsdatum Erstellungsdatum

Wrdet ihr euch den XBOX360 Nachfolger kaufen?

  • Ja, mich hat die XBOX360 berzeugt!

    Stimmen: 198 70,2%
  • Nein, ich bin von der XBOX360 enttuscht!

    Stimmen: 29 10,3%
  • Vielleicht!

    Stimmen: 55 19,5%

  • Stimmen insgesamt
    282
  • Poll closed .
Status
Nicht offen für weitere Antworten.
Sehe es wie Mell@ce
Bei aller AMD-Freundschaft, bleibt immer noch offen was die neue Architektur wirklich bringt.
Wäre ja nicht das erste Mal das kraftstrotzende Papiertiger reell nur Schmusekatzen sind.
Man schaue sich nur mal Cell oder Nvidias Fermi an.
AMD selbst würde nach eigener Aussage Fusion ja liebend gerne in einer Daddelkiste verpacken.
Dazu muss aber noch erheblich Rechenleistung rausgeholt werden. GPU/CPU auf einem Die sind vor allem preiswert, aber nicht leistungsfähig. Zumindest nicht wenn man im Highendbereich wildern will.
Damit wird zumindest Rev 1 noch auf getrennte Die für GPU/CPU setzen.
Was hier dennoch für AMD als alleinigen Lieferant spräche, wären spätere Slim-Varianten, die problemlos als Fusion umgesetzt werden könnten.
Wobei es bei der Slim auch kein Problem war beides auf ein Die zu packen trotz ursprünglich unterschiedlicher Leferanten.
Und die letzte x86-Architektur bei einer Konsole war am Ende weder erfolgreich, noch preiswert.
 
Wobei es bei der Slim auch kein Problem war beides auf ein Die zu packen trotz ursprünglich unterschiedlicher Leferanten.

Richtig. Für die 360 wurde ja auch noch eine neue Revision angekündigt, mit SoC Chip. Sprich das ganze System in einem Chip. Alle Controller, der Arbeitspeicher, alles.

Die Einchiplösung als Annahme heranzuziehen, Microsoft müsse auf AMD setzen ist ziemlich kurz gedacht. Ein Chip Systeme gibts wie gesagt auch jetzt schon, mit deutlich leistungsfähigeren Komponenten als die AMD und Sandy Bridge Lösungen.


Wenn IBM nicht völlig überzognene Preise von MS verlangt, dann bekommen sie mit ihrem Power 6 oder Power 7 wieder den Zuschlag. Natürlich in modifizierter Form, als Triple Core beispielsweise, denn die XBOX720 darf nicht soviel kosten wie die IBM pSeries
 
Ich habs halt so verstanden, das wenn man sich in der zukunft ne Hd7970 graka kauft und sich dan z.b nen AMD Bulldozer CPU holen würde,
die grafikeinheit der CPU der sowieso schon starken HD 7970 noch mal nen schub gibt da sie zusammen arbeiten können und der CPU einige sachen übernehmen kann.
Von einer einchip lösung hab ich garnicht gesprochen.
Und so arg schwach ist die APU der Sandys garnicht, hab COD:BO mal aus spaß zum laufen gebracht in 1280 :) zwar ncht immer flüssig aber hätte zum zocken gereicht auf Low und das sieht kaum schlechter als die konsolen versionen aus.

Aber bin da halt echt nicht so der experte wie ihr, drum lass ich mich gerne von euch belehren.
 
Zuletzt bearbeitet:
Ich habs halt so verstanden, das wenn man sich in der zukunft ne Hd7970 graka kauft und sich dan z.b nen AMD Bulldozer CPU holen würde,
die grafikeinheit der CPU der sowieso schon starken HD 7970 noch mal nen schub gibt da sie zusammen arbeiten können und der CPU einige sachen übernehmen kann.
Von einer einchip lösung hab ich garnicht gesprochen.
Und so arg schwach ist die APU der Sandys garnicht, hab COD:BO mal aus spaß zum laufen gebracht in 1280 :) zwar ncht immer flüssig aber hätte zum zocken gereicht auf Low und das sieht kaum schlechter als die konsolen versionen aus.

Aber bin da halt echt nicht so der experte wie ihr, drum lass ich mich gerne von euch belehren.

Du hattes eben Sandy-Bridge angesprochen und das dann auf die zukünftige AMD Strategie bezogen.

Die hier geposteten Links zur neune AMD GPU beziehen sich übrigens nicht auf Einchiplösungen sondern auf die Nachfolger von R900 (Sprich der HD 6000 Serie).
Und ja, diese Architektur bringt diverse Vorteile und sollte die nächste XBOX Ende 2013 oder später erscheinen, wird sie sicherlich darauf beruhen. Aber eben als einzelne GPU :)

Die Sandy-Bridge GPU hat definitiv weniger als die Hälfte der 360 GPU Leistung und das fünfeinhalb Jahre nach deren Launch.
Kann man auch gut nach deinem Test abschätzen denn das Game läuft auf der 360 fast in 720p mit höheren Details als die niedrige PC Stufe und mit 60fps.
Ende 2013 werden vielleicht GPUs in der Sandy-Bridge werkeln welche leicht über jener der 360 GPU liegen.
Das will sicherlich niemand in der nächsten XBOX sehen :)
 
Mell@ce, du unterliegst da gerade einem fatalen Irrtum. APUs sind die Zukunft und zwar nicht nur im Low-End Segment sondern überall. Der momentane Ansatz ist genauso eine Sackgasse wie es der Gigahertzwahn davor war. Der Unterschied zwischen der Multicore-Ära und heterogenen Prozessoren ist einfach, dass Multicore Top-Down war, wärend APUs einen Bottom-Up Ansatz verfolgen. D.h. Multicore kam zuerst in High-End Systemen an und danach im Mainstream, bei APUs wird es umgekehrt sein. Das sollte aber nicht davor täuschen, dass natürlich auch APUs irgendwann mal der Standard sein werden, im High-End wie im Low-End. Diesen Ansatz auf Kosteneinsparungen für Low-End Systeme zu reduzieren wäre ein fataler Fehler.

Wie ich schon öfters erklärt habe ist Amdahls Law dafür verantwortlich, dass mehr als 8 Kerne selten den erhofften Performancevorteil erbringen. Nun sind wir ab 2012 aber in der bemerkenswerten Situation, dass ein 8-Kern Ivy Bridge Prozessor von Intel (ohne GPU) beispielsweise nicht mehr als 1 Milliarde Transitoren frisst und bei 22nm daher auf etwa 160mm² kommt. Das ist extrem wenig, selbst für Billig-PCs.

Intel steht nun aber dennoch unter dem Zugzwang die Leistung weiter zu steigern. Mehr als 8 "große" Kerne zu verbauen ist, wie wir bereits festgestellt haben, nun aber nicht unbedingt effizient. Groß bedeutet in der Hinsicht, dass sie viele Transistoren opfern um möglichst viel Instruction Level Parallelism aus dem Datenstrom zu extrahieren. Anwendungen die aber alleine durch Thread-Level Parallelism 99% parallel sind, benötigen diesen Aufwand nicht, hier würde man also Transistoren und Energie verschwenden. Die Notwendigkeit GPU und CPU zu vereinigen sollte daher offensichtlich sein. Je mehr Dinge man gleichzeitig berechnen kann, desto besser. Da es keine Prozessorarchitektur gibt, die gleichzeitig ILP und TLP maximieren kann, sollte es auf der Hand liegen, dass wir zwei Architekturen auf einem Die brauchen um auch zukünftig die Leistung unserer Prozessoren zu steignern.

Im Prinzip geht das auch wenn man beide Prozessoren auf seperate Dies auslagert, die Latenzen werden aber immer höher je weiter man sie auseinandersetzt. Für bestimmte Anwendungen ist das einfach nicht akzeptabel. Nun liegen beide Prozessoren in Konsolen üblicherweise durchaus in der Nähe, optimal ist das aber noch lange nicht. In einem heterogenen System mit voll kohärentem Speicher und einem vereinheitlichten Adressraum ist es logischerweise von Vorteil beide Chips auf einem Die zu haben. Im Prinzip sollte die Diskussion sich also ausschließlich darum drehen ob das mit 2013-Technik schon möglich sein wird oder nicht - und bevor mir jemand mit RSX und Cell kommt: Das ist NICHT vergleichbar mit dem was AMD mit Fusion vor hat, auch wenn's teilweise besser ist als am PC momentan.

Am besten wär's also wenn Microsoft es irgendwie auf die Reihe kriegen würde einen schnellen Quad-Core von IBM mit der aktuellsten Technik von AMD auf einen Die zu bringen. Dafür bräuchte man auch eine ziemlich teure Speicherarchitektur, deswegen wirds vermutlich nicht passieren. Der resultierende Chip wäre mit Sicherheit heiß und teuer aber imho besser als noch weitere 10 Jahre mit einem veralteten Konzept rumzugurken.
 
Zuletzt bearbeitet:
Wir können alle nur Vermutungen anstellen wohin die Reise geht. Es gibt zuviele für uns aussenstehende unbekannte Faktoren, die MS beeinflussen sich für diese oder jene Architektur zu entscheiden.

Ich hoffe auf IBM da ich davon ausgehe, daß MS so leicht alle bisherigen Spiele auch auf der 720 abspielbar machen kann. Ob MS Abwärtskompatiblität überhaupt will ist natürlich wieder was anderes.
 
Das wird sich zeigen, aber ich denke wenn nicht nur mit nem Controller, dann wird man dem Zocker wohl die Wahl lassen :)
 
Mell@ce, du unterliegst da gerade einem fatalen Irrtum. APUs sind die Zukunft und zwar nicht nur im Low-End Segment sondern überall. Der momentane Ansatz ist genauso eine Sackgasse wie es der Gigahertzwahn davor war. Der Unterschied zwischen der Multicore-Ära und heterogenen Prozessoren ist einfach, dass Multicore Top-Down war, wärend APUs einen Bottom-Up Ansatz verfolgen. D.h. Multicore kam zuerst in High-End Systemen an und danach im Mainstream, bei APUs wird es umgekehrt sein. Das sollte aber nicht davor täuschen, dass natürlich auch APUs irgendwann mal der Standard sein werden, im High-End wie im Low-End. Diesen Ansatz auf Kosteneinsparungen für Low-End Systeme zu reduzieren wäre ein fataler Fehler.

Wie ich schon öfters erklärt habe ist Amdahls Law dafür verantwortlich, dass mehr als 8 Kerne selten den erhofften Performancevorteil erbringen. Nun sind wir ab 2012 aber in der bemerkenswerten Situation, dass ein 8-Kern Ivy Bridge Prozessor von Intel (ohne GPU) beispielsweise nicht mehr als 1 Milliarde Transitoren frisst und bei 22nm daher auf etwa 160mm² kommt. Das ist extrem wenig, selbst für Billig-PCs.

Intel steht nun aber dennoch unter dem Zugzwang die Leistung weiter zu steigern. Mehr als 8 "große" Kerne zu verbauen ist, wie wir bereits festgestellt haben, nun aber nicht unbedingt effizient. Groß bedeutet in der Hinsicht, dass sie viele Transistoren opfern um möglichst viel Instruction Level Parallelism aus dem Datenstrom zu extrahieren. Anwendungen die aber alleine durch Thread-Level Parallelism 99% parallel sind, benötigen diesen Aufwand nicht, hier würde man also Transistoren und Energie verschwenden. Die Notwendigkeit GPU und CPU zu vereinigen sollte daher offensichtlich sein. Je mehr Dinge man gleichzeitig berechnen kann, desto besser. Da es keine Prozessorarchitektur gibt, die gleichzeitig ILP und TLP maximieren kann, sollte es auf der Hand liegen, dass wir zwei Architekturen auf einem Die brauchen um auch zukünftig die Leistung unserer Prozessoren zu steignern.

Im Prinzip geht das auch wenn man beide Prozessoren auf seperate Dies auslagert, die Latenzen werden aber immer höher je weiter man sie auseinandersetzt. Für bestimmte Anwendungen ist das einfach nicht akzeptabel. Nun liegen beide Prozessoren in Konsolen üblicherweise durchaus in der Nähe, optimal ist das aber noch lange nicht. In einem heterogenen System mit voll kohärentem Speicher und einem vereinheitlichten Adressraum ist es logischerweise von Vorteil beide Chips auf einem Die zu haben. Im Prinzip sollte die Diskussion sich also ausschließlich darum drehen ob das mit 2013-Technik schon möglich sein wird oder nicht - und bevor mir jemand mit RSX und Cell kommt: Das ist NICHT vergleichbar mit dem was AMD mit Fusion vor hat, auch wenn's teilweise besser ist als am PC momentan.

Am besten wär's also wenn Microsoft es irgendwie auf die Reihe kriegen würde einen schnellen Quad-Core von IBM mit der aktuellsten Technik von AMD auf einen Die zu bringen. Dafür bräuchte man auch eine ziemlich teure Speicherarchitektur, deswegen wirds vermutlich nicht passieren. Der resultierende Chip wäre mit Sicherheit heiß und teuer aber imho besser als noch weitere 10 Jahre mit einem veralteten Konzept rumzugurken.

Ich würde aber auch gerne mal sehen wo du z.B. bei Fusion da den Hammerdurchbruch siehst,
Die Teile haben grottenschlechte GPU Parts.

Die gerade vorgestellten neuen Fusion APUs warten in der Topregion mit sagenhaften 400 Streamingprozessoren auf und werden mit sensationellen 444 Mhz (im Turbomodus) getaktet.
Ergibt wahnsinnige 352Gflops und damit doch wirklich fast 50% schneller als die 360GPU die ja auch bereits mit der CPU auf einem Chip sich befindet. Und das bei 28nm

Ne was würde ich mich freuen so ein super Teil in der nächsten XBOX vorfinden zu dürfen ;)

Aber mal Spaß beiseite.
Die Teile sind für Notbooks gemacht um wenig Strom zu ziehen. Und irgendwann werden sie auch mal eine Alternative zu separaten Chips sein. Aber zur Zeit sehe ich da wirklich keinen Sinn drin so ein Teil in einer leistungsfähigen Konsole einzusetzen.

Und was die Performance mit steigenden Kernen angeht.
Nirgends wird so kreativ gearbeitet wie in der Softwarebranche.
Deshalb finde ich auch Aussagen lächerlich die sich auf die angebliche Unmöglichkeit von massiver Parallelisierung beziehen.
Das war schon so beim Schritt von einem zu zwei CPU Kernen und setzt sich munter fort.
Und was hat uns die Vergangenheit gezeigt.
Die drei Kerne der 360 werden wunderbar ausgelastet und auch die acht Kerne der PS3 (noch dazu nur ein echter) sind für gute Programmerier kein Problem mehr.
Wo ein Wille, da auch ein Weg.
Und das trifft vor allem auf ein Abgeschlossenes System wie es eine Konsole darstellt um so mehr zu.

Klar hat keiner Bock auf dem PC Multicorelösungen zu proggen. Bei dem Wust an verschiedenen Prozessoren und Milliarden von PC Konfigurationen kann da einem auch die Lust vergehen.
Aber bei einer Konsole sieht das eben nun mal komplett anders aus. Und deshalb wird man auch mit acht oder mehr Kernen keine Probleme bekommen, egal was hier auch gesagt wird. Jemand der im Softwarebereich "geht nicht" sagt, hat seine Reputation damit schon verloren denn "geht nicht" gibs in diesem Bereich nicht :)

Ich schätze dich Coda und du hast auch sicherlich viel Ahnung von der Materie.
Aber bei deinen Beiträgen lese ich doch oft heraus, dass du zu allgemein und PC orientiert an die Sache ran gehst.
Was bei einem PC katastrophal ist kann bei einer Konsole durchaus gut funktionieren.
 
Ich hoffe das sie den jetzigen Controller der 360 einfach für die neue Xbox übernehmen bzw. wenn dann nur leichte Veränderungen vornehmen. Es gibt nämlich definitiv keinen besseren Controller auf dem Markt. MS wäre schon blöd das einfach "wegzuwerfen".
 
Und was die Performance mit steigenden Kernen angeht.
Nirgends wird so kreativ gearbeitet wie in der Softwarebranche.
Deshalb finde ich auch Aussagen lächerlich die sich auf die angebliche Unmöglichkeit von massiver Parallelisierung beziehen.
Das war schon so beim Schritt von einem zu zwei CPU Kernen und setzt sich munter fort.
Und was hat uns die Vergangenheit gezeigt.
Die drei Kerne der 360 werden wunderbar ausgelastet und auch die acht Kerne der PS3 (noch dazu nur ein echter) sind für gute Programmerier kein Problem mehr.
Wo ein Wille, da auch ein Weg.
Und das trifft vor allem auf ein Abgeschlossenes System wie es eine Konsole darstellt um so mehr zu.
Coda hat da vollkommen recht, was die Grenzen der Parallelisierbarkeit betrifft. Da gibt es theoretische und praktische Hürden, ganz einfach ist es aber so, dass nicht jeder Algorithmus sinnvoll parallelisierbar ist bzw. nicht effizient. Irgendwann ist der Synchronisationsaufwand halt höher als dei Einsparung durch Parallelisierung. Bei vielen Grafikalgorithmen trifft das zum Glück nicht zu, deshalb macht dort eine Manycore-Lösung Sinn. CPU-seitig braucht man in einer Konsole sinnvoll nicht mehr als 4-6 Cores, höhere Taktraten und effizientere Pipelines (also kein inorder) würden mehr bringen.
 
Ich würde aber auch gerne mal sehen wo du z.B. bei Fusion da den Hammerdurchbruch siehst,
Die Teile haben grottenschlechte GPU Parts.

Die gerade vorgestellten neuen Fusion APUs warten in der Topregion mit sagenhaften 400 Streamingprozessoren auf und werden mit sensationellen 444 Mhz (im Turbomodus) getaktet.
Ergibt wahnsinnige 352Gflops und damit doch wirklich fast 50% schneller als die 360GPU die ja auch bereits mit der CPU auf einem Chip sich befindet. Und das bei 28nm

Ne was würde ich mich freuen so ein super Teil in der nächsten XBOX vorfinden zu dürfen ;)

Aber mal Spaß beiseite.
Die Teile sind für Notbooks gemacht um wenig Strom zu ziehen. Und irgendwann werden sie auch mal eine Alternative zu separaten Chips sein. Aber zur Zeit sehe ich da wirklich keinen Sinn drin so ein Teil in einer leistungsfähigen Konsole einzusetzen.

Und was die Performance mit steigenden Kernen angeht.
Nirgends wird so kreativ gearbeitet wie in der Softwarebranche.
Deshalb finde ich auch Aussagen lächerlich die sich auf die angebliche Unmöglichkeit von massiver Parallelisierung beziehen.
Das war schon so beim Schritt von einem zu zwei CPU Kernen und setzt sich munter fort.
Und was hat uns die Vergangenheit gezeigt.
Die drei Kerne der 360 werden wunderbar ausgelastet und auch die acht Kerne der PS3 (noch dazu nur ein echter) sind für gute Programmerier kein Problem mehr.
Wo ein Wille, da auch ein Weg.
Und das trifft vor allem auf ein Abgeschlossenes System wie es eine Konsole darstellt um so mehr zu.

Klar hat keiner Bock auf dem PC Multicorelösungen zu proggen. Bei dem Wust an verschiedenen Prozessoren und Milliarden von PC Konfigurationen kann da einem auch die Lust vergehen.
Aber bei einer Konsole sieht das eben nun mal komplett anders aus. Und deshalb wird man auch mit acht oder mehr Kernen keine Probleme bekommen, egal was hier auch gesagt wird. Jemand der im Softwarebereich "geht nicht" sagt, hat seine Reputation damit schon verloren denn "geht nicht" gibs in diesem Bereich nicht :)

Ich schätze dich Coda und du hast auch sicherlich viel Ahnung von der Materie.
Aber bei deinen Beiträgen lese ich doch oft heraus, dass du zu allgemein und PC orientiert an die Sache ran gehst.
Was bei einem PC katastrophal ist kann bei einer Konsole durchaus gut funktionieren.
Um mal ein paar Dinge klarzustellen. Wenn ich über Fusion rede meine ich das Konzept, nicht die aktuell verfügbare Hardware. Fusion so wie es momentan steht ist eine Übergangslösung, sagt AMD auch selbst. Man kann von heute auf morgen eben keinen Paradigmenwechsel durchführen. AMD hat auf dem Fusion-Summit die interne Roadmap grob offengelegt und die Technologie wird in Zukunft stark ausgebaut. Bis Fusion dort angekommen ist wo AMD es haben möchte werden noch viele Jahren und Milliarden an R&D vergehen.

Überhaupt habe ich den Eindruck, dass du den ganzen Post nicht wirklich verstanden hast. Da steht nirgends, dass es nie wieder mehr als 8 Kerne geben wird, weil's nix bringt. Ich sagte es macht keinen Sinn mehr als 8 "große" Kerne zu verbauen. AMD macht's halt weil sie verzweifelt sind und ohnehin nix anderes haben. Da steht klipp und klar drin, dass mehr Kerne nur Sinn machen wenn man den heterogenen Weg weiterverfolgt. Vielleicht solltest du den Post nochmal lesen. Die Vorteile eines heterogenen Systems liegen auf der Hand. Ebenso wie der Übergang auf Multicoreprozessoren unumgänglich war, wird der Übergang auf heterogene Architekturen unumgänglich sein. Anders lässt sich die Leistung einfach nicht mehr steigern. Wir können den Takt und die Effizienz nicht mehr großartig verbessern, bald laufen wir an die Grenzen der Parallelisierung.

Der einzige Ausweg ist es, spezialisierte Prozessoren unter einem Dach zu vereinigen, die unter bestimmten Szenarien bedeutend schneller sind und die Aufgaben gut zu verteilen. Das geht heute auch schon mit GPu und CPU, nur ist das sehr eigneschränkt. Besser wäre es alles auf einem Die zu haben und in Millisekunden zu wechseln. Anfangs werden es CPUs und GPUs sein. Intel hat auch nen eigenen Videoprozessor in SandyBridge gebaut. Wie weit das in 20 Jahren gehen wird, darüber möchte ich mal kein Urteil fällen. Intel, AMD und Nvidia stimmen mir alledings im Prinzip zu. Das hat da auch nix mit Konsolen oder PCs zu tun, die haben die gleichen Probleme.

Wenn's dir hilft, guck dir mal die Folie von AMD an. Die zeigt dir ganz genau wo das Problem liegt. Man betrachte den "We are here" Marker an den Graphen. Communication Overhead reduziert man nicht dadurch weiterhin zwei Prozessoren getrennt zu verbauen. Was die Konsolen betrifft: Cell ist bereits ein heterogenes System. Man hat zwei Rechenarchitekturen unter einer Haube, nur eben zusätzlich dann noch ne GPU. Außerdem wüsste ich nicht, dass jemals jemand behauptet hätte 2 oder 4 Kerne auszulasten wäre ein Problem. Es fängt über 8 Kernen an stressig zu werden weil jeder Kern weniger als 50% der verbrauchten Transistoren zur Leistung beiträgt, es ist also unökonomisch. Mit Kreativität kann man leider keine Naturgesetze umgehen.

Übrigens ist Parallelisierung am PC auch nicht schwerer als auf den Konsolen, wie kommst du auf die Idee? Man schreibt eine Engine nicht unbedingt prozessorspezifisch. Die Engine definiert gewisse Jobs und der Scheduler weist sie gewissen Prozessoren zu. Das geschieht aber nicht automatisch sondern kontextabhängig. Woher soll der Programmierer auch vorhersehen können was im Spiel passiert, wie lange die Berechnung dauert und welche Prozessoren gerade frei sind? Die Engine muss darauf ausgelegt sein dynamisch auf die Bedürfnisse des Spiels zu reagieren. Wenn man mehr Kerne hat sollte das automatisch skalieren - eben bis zu dem Level an dem die Vorteile minimal werden und da kommen wir eben bald an. Es geht nicht darum ob man einen Prozessor auslasten kann (das kann man immer), es geht darum ob das in einer effizienten Art und Weise geschieht. Abgesehen davon ist's auch ein Märchen, dass man auf Konsolen viel mehr rausholen kann weil die Plattform statisch ist aber die Diskussion fange ich jetzt nicht auch noch an.
 
Zuletzt bearbeitet:
eine art von controller wird in der nächsten gen vorhanden sein
man kann ein halo 5 nicht nur mit kinect zocken
das ist sowas von unmöglich
 
Single-Die-Lösung wird sicher noch ne ganze Weile aus dem (High)-Perf-Bereich draussen bleiben.
AMD als potentester in dem Bereich will zwar 2012 schon die 2. Gen rausbringen und immerhin mit Trinity Single-Die mit DX11-GPU im Mainstream abdecken.
Spricht aber selbst weiter von discrete graphics, sobald man im Performance-Bereich ankommt.
Komodo wird zwar 6-10 Cores, aber keine GPU bekommen. Die zugehörige Corona-Plattform ist ebenfalls als reine discrete graphics-Lösung angegeben. (Interessanterweise nicht wie 2011 mit Southern Islands discrete graphic, sondern "next gen").
Wollen wir also kein X3 mit der Leistung eines Mittelklasse-PCs und gehen von Release 2013 aus, wird...sofern AMD Alleinlieferant ist...es bei bei X3 wohl auf eine Art Corona-Plattform mit Komodo-CPU und HD7000-GPU (oder schon einem Nachfolger) rauslaufen.
X3Slim wird dann Single-Die werden (können).
Solange CPU/GPU getrennt bleiben, ist auch das Rennen für ne IBM-CPU völlig offen.

http://www.hardwareluxx.de/communit...rramar-fmx-socket-32nm-soi-2012-a-815556.html

Irgendwo auch logisch:
Je mehr ich in den Performance-Bereich gerate, umso weniger kann/wird Effizienz eine Rolle spielen.
Da ist es dann auch egal, ob 10 Cores weniger effizient sind als 8....solange sie immer noch in der Summe schneller sind.
Und solange performante GPU/CPU auf 2 Dies zusammen schneller läuft als eine Lösung mit einem Die, wird man im High-End Bereich auch bei getrenntem Die bleiben.
 
Zuletzt bearbeitet:
Der Energiehunger der Chips steigt schneller als der Zuwachs an Transistoren. Das ist eine Tatsache und die lässt sich nicht umgehen. Das bedeutet von Full-node zu Full-node verdoppelt sich die Menge an nutzbaren Transistoren, die man pro Einheit einer belibigen Geldmenge verkaufen kann, gleichzeitig erhöht sich aber der Stromhunger immer weiter. Erstens gibt es da ganz praktische Grenzen (PC sollen nicht groß und laut sein) und zweitens werden mobile Geräte, wo jedes Watt vermieden werden soll, immer wichtiger. Was bedeutet das also?

Wir werden auch in Zukunft mehr Transistoren sehen, können aber nicht mehr alle gleichzeitig wie bisher benutzen weil der Stromhunger viel zu groß wäre. Entweder kommt man also mit einer Architektur an, die extrem viele Spezialeinheiten hat, die nur ab und zu verwendet werden aber diese Aufgabe enorm effizient machen (heterogenes System) oder man baut einfach nur noch kleine Chips die man auch voll nutzen kann. Auch dieser Fall führt am Ende zu heterogenen Systemen, denn warum zwei kleine Chips verbauen wenn man Ressourcen auch teilen kann und damit effizienter wird?
 
Um mal ein paar Dinge klarzustellen. Wenn ich über Fusion rede meine ich das Konzept, nicht die aktuell verfügbare Hardware. Fusion so wie es momentan steht ist eine Übergangslösung, sagt AMD auch selbst. Man kann von heute auf morgen eben keinen Paradigmenwechsel durchführen. AMD hat auf dem Fusion-Summit die interne Roadmap grob offengelegt und die Technologie wird in Zukunft stark ausgebaut. Bis Fusion dort angekommen ist wo AMD es haben möchte werden noch viele Jahren und Milliarden an R&D vergehen.

Überhaupt habe ich den Eindruck, dass du den ganzen Post nicht wirklich verstanden hast. Da steht nirgends, dass es nie wieder mehr als 8 Kerne geben wird, weil's nix bringt. Ich sagte es macht keinen Sinn mehr als 8 "große" Kerne zu verbauen. AMD macht's halt weil sie verzweifelt sind und ohnehin nix anderes haben. Da steht klipp und klar drin, dass mehr Kerne nur Sinn machen wenn man den heterogenen Weg weiterverfolgt. Vielleicht solltest du den Post nochmal lesen. Die Vorteile eines heterogenen Systems liegen auf der Hand. Ebenso wie der Übergang auf Multicoreprozessoren unumgänglich war, wird der Übergang auf heterogene Architekturen unumgänglich sein. Anders lässt sich die Leistung einfach nicht mehr steigern. Wir können den Takt und die Effizienz nicht mehr großartig verbessern, bald laufen wir an die Grenzen der Parallelisierung.

Der einzige Ausweg ist es, spezialisierte Prozessoren unter einem Dach zu vereinigen, die unter bestimmten Szenarien bedeutend schneller sind und die Aufgaben gut zu verteilen. Das geht heute auch schon mit GPu und CPU, nur ist das sehr eigneschränkt. Besser wäre es alles auf einem Die zu haben und in Millisekunden zu wechseln. Anfangs werden es CPUs und GPUs sein. Intel hat auch nen eigenen Videoprozessor in SandyBridge gebaut. Wie weit das in 20 Jahren gehen wird, darüber möchte ich mal kein Urteil fällen. Intel, AMD und Nvidia stimmen mir alledings im Prinzip zu. Das hat da auch nix mit Konsolen oder PCs zu tun, die haben die gleichen Probleme.

Wenn's dir hilft, guck dir mal die Folie von AMD an. Die zeigt dir ganz genau wo das Problem liegt. Man betrachte den "We are here" Marker an den Graphen. Communication Overhead reduziert man nicht dadurch weiterhin zwei Prozessoren getrennt zu verbauen. Was die Konsolen betrifft: Cell ist bereits ein heterogenes System. Man hat zwei Rechenarchitekturen unter einer Haube, nur eben zusätzlich dann noch ne GPU. Außerdem wüsste ich nicht, dass jemals jemand behauptet hätte 2 oder 4 Kerne auszulasten wäre ein Problem. Es fängt über 8 Kernen an stressig zu werden weil jeder Kern weniger als 50% der verbrauchten Transistoren zur Leistung beiträgt, es ist also unökonomisch. Mit Kreativität kann man leider keine Naturgesetze umgehen.

Übrigens ist Parallelisierung am PC auch nicht schwerer als auf den Konsolen, wie kommst du auf die Idee? Man schreibt eine Engine nicht unbedingt prozessorspezifisch. Die Engine definiert gewisse Jobs und der Scheduler weist sie gewissen Prozessoren zu. Das geschieht aber nicht automatisch sondern kontextabhängig. Woher soll der Programmierer auch vorhersehen können was im Spiel passiert, wie lange die Berechnung dauert und welche Prozessoren gerade frei sind? Die Engine muss darauf ausgelegt sein dynamisch auf die Bedürfnisse des Spiels zu reagieren. Wenn man mehr Kerne hat sollte das automatisch skalieren - eben bis zu dem Level an dem die Vorteile minimal werden und da kommen wir eben bald an. Es geht nicht darum ob man einen Prozessor auslasten kann (das kann man immer), es geht darum ob das in einer effizienten Art und Weise geschieht. Abgesehen davon ist's auch ein Märchen, dass man auf Konsolen viel mehr rausholen kann weil die Plattform statisch ist aber die Diskussion fange ich jetzt nicht auch noch an.

Ich habe dich schon verstanden und auch deine Post richtig gelesen.
Allerdings sprach ich davon, dass wir in der nächsten XBOX so etwas wie Fusion nicht sehen werden wollen denn bis sich das Konzept in den High End Bereich bewähr hat, vergehen noch einige Jahre.
Die nächste XBOX erwarte ich aber spätestens 2013 und bis dahin glaube ich kaum, dass AMD schon eine derartige APU liefern wird können. Bis dahin muss man eben mit dem derzeitigen Konzept, getrennte CPU und GPU leben wenn man Leistung haben will.

In keiner Weise bezweifel ich, dass APUs auch im High-End Sektor später die Pool position einnehmen werden. Dann wird es eben so laufen dass mehrere APUs in den Systemen paralllel eingesetzt werden. Denn eine Einchip APU wird einfach zu schwach sein.
Die Parallelisierung wird jedenfalls immer mehr zunehmen müssen denn du sprichst ja selbst die physikalischen Grenzen an.
Die sehe ich aber eben eher in den Naturgesetzen wie der Lichtgeschwindigkeit.
Die setzt wirklich Grenzen und deshalb ist z.B. eine Takterhöhung auch nur noch begrenzt möglich. Der dümpelt eh seit Jahren auf dem gleichen Niveau und selbst wenn man ihn noch mal verdreifachen könnte, wäre das ein Fliegenschiss bezogen auf anderee Leistungssteigerungsmethoden.

Also muss man immer mehr Parallelisieren. Ob man da nun CPU und GPU auf ein Die packt ändert nichts an der Grundproblematik. Und selbst wenn man weniger aber komplexere Kerne fertigt verlagert man eben die Parallelisierung in den Kern.
Ein Power 7 Kern hat, wenn ich das richtig gelesen habe, VIER eigene Hardwarethreads und 8 virtuelle.
Hier muss also logischerweise schon im Kern parallelisiert werden.
Ich will jetzt nicht darüber streiten was effizienter ist, da kennst du dich sicherlich besser aus. Mir gehts einzig ums Grundprinzip, was man auch ohne detaillierte Kenntnisse begreifen und erörtern kann.

Aber um die Diskussion abzuschließen noch einmal zur Erinnerung.
Meiner Ansicht nach sind die derzeitigen Fusions Konzepte, die in absehbarer Zeit verwirklicht werden, hauptsächlich für den mobilen Bereich gedacht um mit möglichst wenig Energie viel Rechenleistung zu erzielen.

Und die High-End Modelle von AMD wie Bulldozer laufen vorerst auch mit getrennter CPU und GPU.
Was mit der X4 sein wird bleibt abzuwarten aber die X3 wird zu 99% auf getrennte CPU und GPU setzen einfach, weil es bis dahin nicht möglich sein wird die entsprechende Leistung auf einen Chip zu packen.
Ich habe fertig :)
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom