Xbox One Der Xbox One Thread

  • Thread-Ersteller Thread-Ersteller finley
  • Erstellungsdatum Erstellungsdatum

Wrdet ihr euch den XBOX360 Nachfolger kaufen?

  • Ja, mich hat die XBOX360 berzeugt!

    Stimmen: 198 70,2%
  • Nein, ich bin von der XBOX360 enttuscht!

    Stimmen: 29 10,3%
  • Vielleicht!

    Stimmen: 55 19,5%

  • Stimmen insgesamt
    282
  • Poll closed .
Status
Nicht offen für weitere Antworten.
Die Bandbreite wär mir egal. Hätte lieber 5ms Latenz und nie Unterbrüche, dann wär Online Gaming ein riesen Genuss.
 
mojang

hyaoZsV.jpg
 
Wenn mein Schulenglisch mich nicht im Stich lässt und ich die Gaffer richtig verstanden habe, dann bekommt die X3 ja eine Custom GPU, die auf der 7790 beruht. In der X3 wird eine abgeschwächte 7790 drin sein. Die PC Version kommt auf 1,79 TF, hingegen die X3 auf 1,23 TF.

Lass dir das aber besser von jemanden mit mehr Ahnung von der Materie erklären.

Ah, vielen dank! Gut gut, ich hatte mich schon gewundert, das die jetzt plötzlich 1,79 TF hat. Da ist aber wunderlich das MS die hat abspecken lassen...die wäre doch super gewesen!
 
Wenn mein Schulenglisch mich nicht im Stich lässt und ich die Gaffer richtig verstanden habe, dann bekommt die X3 ja eine Custom GPU, die auf der 7790 beruht. In der X3 wird eine abgeschwächte 7790 drin sein. Die PC Version kommt auf 1,79 TF, hingegen die X3 auf 1,23 TF.

Lass dir das aber besser von jemanden mit mehr Ahnung von der Materie erklären.

Laut den Leaks besitzt die X3 GPU nur 768 1D Shader, die 7790 896.
Dazu dann anstatt 1GHz nur 800Mhz Takt.
Damit kommt man dann auf die Unterschiede in der Flopzahl


X3 1,23TF
7790 1,79TF

Die 7790 ist an einen 128bit Bus mit GDDR5 RAM und 96GB/s angeschlossen,
die X3 an einen 256 mit DDR3 RAM mit 68GB/s + eDRAM

Könnte also alles noch passen.

Woher jetzt allerdings die Info kommt, dass es sich bei der X3 um eine angepasste 7790 handeln soll, weiß ich auch nicht.

The Radeon 7790 combines the greater geometry power of Tahiti and Pitcairn with the smaller memory bus on Cape Verde. The end result looks like this:

Da die X3 GPU ja laut Leak an einem 256bit Bus hängt verstehe ich allerdings nicht, warum sie dann auf einen Cape Verde Chip beruhen soll. Denn der ist ja immer mit 128bit angebunden. Und die 7790 ist, so wie ich das verstanden habe, ja eigentlich dann ein Pitcain Chip, der mit 128bit angebunden ist.
An der Performance würde das aber eh nix ändern, da beide Chips ja bis auf den Bus identisch sein dürften.

Fragen über Fragen :)
 
Stellt sich die Frage, ob das wirklich etwas "neues" ist und auch zu der Xbox gehört.


Laut den Leaks besitzt die X3 GPU nur 768 1D Shader, die 7790 896.
Dazu dann anstatt 1GHz nur 800Mhz Takt.
Damit kommt man dann auf die Unterschiede in der Flopzahl
[]
Woher jetzt allerdings die Info kommt, dass es sich bei der X3 um eine angepasste 7790 handeln soll, weiß ich auch nicht.


Da die X3 GPU ja laut Leak an einem 256bit Bus hängt verstehe ich allerdings nicht, warum sie dann auf einen Cape Verde Chip beruhen soll. Denn der ist ja immer mit 128bit angebunden. Und die 7790 ist, so wie ich das verstanden habe, ja eigentlich dann ein Pitcain Chip, der mit 128bit angebunden ist.
An der Performance würde das aber eh nix ändern, da beide Chips ja bis auf den Bus identisch sein dürften.

Fragen über Fragen :)
Es hatte den Anschein, als ob Sony und MS knallharte Stangenware mit wenig Veränderungen nehmen.
Z.B. war im Leak enthalten, dass die GPU 768 ALUs hat und 2 Setups.
Das waren auch die ersten Gerüchte bezüglich der 7790.
Ich habe schon vermutet, dass die 7790 zu GCN2 gehören könnte, mit ebenfalls aufgepumpten ACEs.
Am Ende hat sich das zweite Setup bestätigt, die 768 ALUs sollen aber ein Auslesefehler bei GPU-Z gewesen sein und in Wahrheit hat das Ding ja auch 896 ALUs, allerdings bleibt es immer noch bei 2 ACEs und AMD hat rein gar nichts zur Architektur überliefert, also ob die jetzt mehr queues verschicken können etc.
Sieht deshalb auch eher wie ein GCN1. Chip aus, oder wie ein GCN2 Chip der kaum einen Unterschied aufweist, was ich eher weniger glaube.

Ein Pitcairn Chip ist das ja auch nicht, es ist ein Bonaire Chip, ein ganz eigenständiger. (~160mm²)
Die Zusammensetzung davon ist dann Ansichtssache.
 
microsoft wird spiele blocken ?
sicher ?

wieso hauen die dann sowas rauß :

MS: Retailer relationship is why we don't put games on GoD on day 1

"We have a lot of strong partnerships with retailers," said Yeager at yesterday's MIT Business in Games conference. "We really need them to do a lot for us. They're the ones out there selling the consoles, selling the peripherals and, in this time, we're trying to figure out how to fit that in to the whole digital landscape shift. We're just taking a bit of a measured pace with it."

"We really strongly believe it's important to have these retail partnerships and the ability to sell our console is the most critical thing for us. If you don't sell the console, you can't sell anything else."

http://www.joystiq.com/2013/03/22/xbox-games-on-demand-manager-explains-why-it-lags-on-day-and-dat/
 
Stellt sich die Frage, ob das wirklich etwas "neues" ist und auch zu der Xbox gehört.



Es hatte den Anschein, als ob Sony und MS knallharte Stangenware mit wenig Veränderungen nehmen.
Z.B. war im Leak enthalten, dass die GPU 768 ALUs hat und 2 Setups.
Das waren auch die ersten Gerüchte bezüglich der 7790.
Ich habe schon vermutet, dass die 7790 zu GCN2 gehören könnte, mit ebenfalls aufgepumpten ACEs.
Am Ende hat sich das zweite Setup bestätigt, die 768 ALUs sollen aber ein Auslesefehler bei GPU-Z gewesen sein und in Wahrheit hat das Ding ja auch 896 ALUs, allerdings bleibt es immer noch bei 2 ACEs und AMD hat rein gar nichts zur Architektur überliefert, also ob die jetzt mehr queues verschicken können etc.
Sieht deshalb auch eher wie ein GCN1. Chip aus, oder wie ein GCN2 Chip der kaum einen Unterschied aufweist, was ich eher weniger glaube.

Ein Pitcairn Chip ist das ja auch nicht, es ist ein Bonaire Chip, ein ganz eigenständiger. (~160mm²)
Die Zusammensetzung davon ist dann Ansichtssache.

Kannst du deine Aussagen vielleicht nochmal runterbrechen auf ein weniger technisches Niveau? Ich versteh leider nicht viel :cry:
 
Was hat es denn mit der GCN 1 und 2 Architektur auf sich? Weil du auch meintest es sieht so aus als nehmen Sony und MS GPUs von der Stange...danke für die Mühe :-)
Also ich mache vielleicht einen größeren Bogen:

GCN bedeutet Graphics Core Next, dass ist AMDs neue GPU Architektur seit 2012, nachdem sie Jahrelang die Terascale Architektur hatten bzw. VLIW5.
Also wie eine GPU prinzipiell ihr Zeug anpackt und berechnet.

Jetzt gibt es ja auch jedes Jahr oder alle 2 Jahre auch neue GPUs oder ein Update der Architektur.
Das nennt man bisher GCN 2 oder GCN 1.1 oder C.I.
C.I ist dabei ein Kürzel für Canary Islands oder ein Synonym für Sea Islands, das ist einfach total ungenau, AMD rafft da selber nicht mal durch was sie schreiben :v:

Jedenfalls hat AMD ein PDF hochgeladen für Softwareentwickler, wo es um die hauptsächlichen Unterschiede von GCN1 und GCN2 geht.
Die wichtigsten Punkte waren das es 8 Compute-Pipelines gibt, dass sind die ACEs (Asynchron Compute Engines) .
Jede ACE kann selber noch mehr Work-Queues versenden, also Arbeitspakete.

Dazu kam noch ein erweitertes Adressierungsmodell, kurz, es ist möglich jetzt mit GCN2 einen gemeinsamen Adressraum zu bilden und in kohärente Speicherbereiche zu schreiben, bisher hast du überall einen getrennten Adressraum gehabt.
Das heißt, du musst Daten für die CPU und GPU für ihren Adressraum kopieren, damit beide lesen können, was verändert wurde.
Wenn du einen gemeinsamen Adressraum hast, dann werden die Daten nicht mehr kopiert, sondern CPU und GPU müssen die Daten nur auslesen und können sie neuschreiben und die Veränderungen werden für die GPU oder CPU sofort ersichtlich sein.
Bisher war es so, die GPU berechnet etwas, dann schreibt sie das Ergebnis oder die Inhalte in ihren Speicherbereich, dann müssen die Daten kopiert werden und der CPU zugeschickt werden, damit die CPU weiß was die GPU verändert hat.

Oder ein menschliches Beispiel:

Früher:
2 Räume, zwei Büroarbeiter.
Der eine Büroarbeiter (CPU) schickt ein Blatt dem anderem (GPU), der schreibt da etwas drauf, der andere Büromann (CPU) muss aber wissen was der andere verändert hat, also macht der Büromann im Raum B (GPU) eine Kopie und schickt sie in den Raum A. (CPU)

HSA:
1 Raum, zwei Büroarbeiter.
Der eine schreibt etwas auf das Blatt (CPU), der andere ist direkt daneben (GPU) und weiß was verändert wurde und kann nachdem der andere fertig geschrieben hat, selber auf das Blatt schreiben und der andere wiederum sieht auch wieder was verändert wurde.


Bezüglich der ACEs:
Die ACEs sind dazu da Wavefronts (Bündel Arbeit) für die Compute-Shader zu erstellen.
Jede GPU hat Unified-Shader.
Das bedeutet jede ALU, das ist eine Recheneinheit, kann jeden Typus von Aufgabe berechnen.
Es gibt Pixel-Shader, Vertex-Shader, Compute-Shader usw.
Jede ALU kann nicht gleichzeitig alles berechnen, aber irgendeine Aufgabe die gerade nötig ist.
Mit den ACEs können Arbeitsbündel für Compute-Shader erzeugt werden.

Das sind bei GCN 2 Stück, bei GCN 2 sind das ganze 8 Stück. (Das mit den queues unterschlage ich jetzt mal einfach)
Somit erhöht sich die Parallelität bei Compute-Aufgaben.
Ansonsten wäre der Command-Processor dafür zuständig, ich habe aber keine Ahnung wie viel Arbeit der auf einmal verteilen kann.
Jedenfalls ist man mit ACEs deutlich schneller, weil das direkt für die Compute-Shader Arbeit bereit stellt, ohne auf den Command-Processor warten zu müssen.
Der Command-Processor kann sich so vollständig um die Versorgung der GFX-ALUs kümmern, also für das Rendering.
Man könnte sagen das sind alles Manager.

Bei einer 7790 gibt es allerdings weiterhin nur 2 ACEs, wie auch bei GCN1.
Vielleicht kann jetzt jede ACE mehr queues bereitstellen, aber dazu hat AMD nichts gesagt.
Habe auch keine Ahnung, wie das am Ende genau verteilt wird, scheinbar gibt es auch ein Maximum, was gleichzeitig ablaufen kann.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom