Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Nur mal so nebenbei: eine aktuelle Intel CPU ist noch immer ca. doppelt so stark wie ein Jaguar, sogar ein i3 hat noch mehr Power ;-)

Es geht weniger um die Leistung eines einzelnen Kernes sondern um die massive Parallelisierung.
Die Vorstellung, mit einem i3 mit 2 Kernen und HT eine Engine zu stemmen die auf 8 Kerne/Threads optimiert ist, ist einfach nur absurd.
 
Zuletzt bearbeitet:
LOL. Träum weiter. Der Jaguar ist bei weitem nicht so schwach.

Solange es keine anderen Daten für die Performance gibt kann ich nur jene von der pc version nehmen. :nix:
Ist der selbe Hersteller, die selbe Architektur und mindestens der selbe takt. Nur die Kernanzahl muß man interpolieren.
Ich weiß nicht auf welchen Daten deine i7 behauptungen basieren aber du kannst sie gerne hier posten, ich wäre erfreut mich diesbezüglich zu korrigieren.
 
Hä?
Verstehe ich das richtig, sie hauen die Daten (einer Datenbank) in die GPU und greifen dann von der CPU darauf zu um eine key value auflösung zu machen? Noch ein abstrakteres Beispiel das weiter von den praktischen Anwendungen in einem Spiel entfernt ist konntest du nicht finden? xD
Ich habe gerade auch nicht von Spielen geredet, sondern von der Technik allgemein. Memcached verwendet man logischerweise nur in Servern. Bei Spielen gibt es weitaus weniger interessante Anwendungsfälle weil die meisten Algorithmen ziemlich primitiv sind. Das wird sich aber noch erweisen wie nützlich es genau ist.

shamanu schrieb:
Übrigens ist es so das die CPU beim blauen Balken der (Radeon HD5870) nicht däumchen drehen wird sondern andere sachen berechnen kann. Man sieht auch die execution ist da viel viel schneller, also wiso überhaupt zur cpu übertragen und nicht auf der gpu alles machen was geht? Davon rede ich ja die ganze zeit. Aber ist halt ein abstraktes Beispiel. :D
In dem Diagramm ist ein höherer Balken mehr Performance, wieso solltest du alles auf der GPU machen wollen wenn die CPU alleine schneller wäre?
 
Du kannst keine Engine, die ihren Workload immer auf 8 Kerne/Threads umwälzt, einfach mal so mit einem i3 stemmen. Wie soll das überhaupt gehen? Der i3 ist ein Dualcore mit HT. Er ist kein richtiger Quadcore auch wenn er oftmals ziemlich nah an einen kommt. Genau wie ein i7 3770k kein rchtiger 8 Kerner ist. Mit der Nextgen wird werden wohl die 6 Core Intels mit 12 Threads richtig auffahren können. Selbst bei Crysis 3 ist bereits der i7 3960x mit grossem Abstand vorne.
 
In dem Diagramm ist ein höherer Balken mehr Performance, wieso solltest du alles auf der GPU machen wollen wenn die CPU alleine schneller wäre?
Es gibt jeweils zwei balken. Das eine mit den blauen ist aufteilung der 100% für Data Transfer und Execution. Bei der 5870 sieht man das der blaue balken den großteil ausmacht und sie für die ausführung am wenigsten rechenzeit gabraucht hat. Hätte man der gpu einen komplexen Auftrag geschickt wäre sie weit vorne gewesen da die cpu 98(?)% der Zeit auf die Daten gewartet hat.
 
Solange es keine anderen Daten für die Performance gibt kann ich nur jene von der pc version nehmen. :nix:
Ist der selbe Hersteller, die selbe Architektur und mindestens der selbe takt. Nur die Kernanzahl muß man interpolieren.
Ich weiß nicht auf welchen Daten deine i7 behauptungen basieren aber du kannst sie gerne hier posten, ich wäre erfreut mich diesbezüglich zu korrigieren.
Weißt du wo die CPU der 360 landen würde wenn du sie so benchen würdest wie den Jaguar? Bei einem Singlecore Athlon64. Versuche damit mal ein aktuelles Spiel auch nur zu starten, egal mit welchen Settings. Außerdem hat die Konsolen auch noch dedizierte Prozessoren für Sound und Kompression neben den 8 Kernen. Das liegt insgesamt schon auf dem Level eines aktuellen Intel Quadcore wenn man es vernünftig optimiert.
 
Und Games sind ein Paradebeispiel dafür? :ugly:

Viele Spiele nutzen derzeit auf dem PC immer noch primär nur 2 Kerne. Der Grossteil 3-4. Eine Vervierachung der genutzen Kerne ist für mich "massiv". Und der Jaguar zwingt die Entwickler wirklich dazu, jeden einzelnen Kern bis zum letzten Tropfen nutzen zu müssen. Wir sprechen über Nextgen und nicht über Engines, die selbst auf einer Xbox 360 von 2005 lauffähig sind.
 
Weißt du wo die CPU der 360 landen würde wenn du sie so benchen würdest wie den Jaguar? Bei einem Singlecore Athlon64. Versuche damit mal ein aktuelles Spiel auch nur zu starten, egal mit welchen Settings. Außerdem hat die Konsolen auch noch dedizierte Prozessoren für Sound und Kompression neben den 8 Kernen. Das liegt insgesamt schon auf dem Level eines aktuellen Intel Quadcore wenn man es vernünftig optimiert.
Echt? Referenz?

Nur auf die schnelle als plausibilitäts prüfung:
xbox 360 77 gflops
http://www.ign.com/articles/2010/08/26/xbox-360-vs-playstation-3-the-hardware-throwdown

Athlon 64 X2 4600+ - 19 GigaFLOPs
http://community.futuremark.com/forum/showthread.php?74706-How-Many-FLOPS&p=832061
 
CPU sind gerade die einzelne Komponente welche man in einen geschlossenen System optimieren kann bis zum Umfallen, da man in keinen anderen Fall auch bei speziellen Befehlssätzen so weit in die breite gehen kann, das feste Memormanagement tut sein übriges.
 
Es gibt jeweils zwei balken. Das eine mit den blauen ist aufteilung der 100% für Data Transfer und Execution. Bei der 5870 sieht man das der blaue balken den großteil ausmacht und sie für die ausführung am wenigsten rechenzeit gabraucht hat. Hätte man der gpu einen komplexen Auftrag geschickt wäre sie weit vorne gewesen da die cpu 98(?)% der Zeit auf die Daten gewartet hat.
Ja, sie hat am wenigsten Zeit gebraucht weil sie am wenigsten berechnet hat. Die GPU wäre massiv schneller wenn der Datentransfer mit der CPU nicht überwältigende Latenzen verursachen würde, die die gesamte Power der Karte egalisieren. Es gibt mit einer separaten Karte keine Möglichkeit den blauen Anteil zu reduzieren. Ich weiß nicht was du mit "komplexen Auftrag" meinst, die haben eine spezielle Funktion von memcached auf GPUs und APUs portiert und das ist einfach das Ergebnis.
 
Ja, sie hat am wenigsten Zeit gebraucht weil sie am wenigsten berechnet hat. Die GPU wäre massiv schneller wenn der Datentransfer mit der CPU nicht überwältigende Latenzen verursachen würde, die die gesamte Power der Karte egalisieren. Es gibt mit einer separaten Karte keine Möglichkeit den blauen Anteil zu reduzieren. Ich weiß nicht was du mit "komplexen Auftrag" meinst, die haben eine spezielle Funktion von memcached auf GPUs und APUs portiert und das ist einfach das Ergebnis.
Mit komplexen Auftrag meine ich: hey gpu rechne mir das mal aus.
Eben so wie man es meistens macht wenn man von der gpu was will.
Und nicht: hey gpu schick mir mal was auf adresse xyz in deinem Speicher steht.
 
Mit komplexen Auftrag meine ich: hey gpu rechne mir das mal aus.
Eben so wie man es meistens macht wenn man von der gpu was will.
Und nicht: hey gpu schick mir mal was auf adresse xyz in deinem Speicher steht.
Die Datentransfers sind in diesem Fall aber eine Voraussetzung um überhaupt etwas rechnen zu können. Das lässt sich mit diesem Setup nicht vermeiden. Der Punkt ist, dass eine immer größere Anzahl an Anwendungen durch Datentransfers begrenzt wird, schlicht und einfach weil es in dem Bereich nahezu null Fortschritt gibt, während die Rechengeschwindigkeit stetig zunimmt.

shamanu schrieb:
Echt? Referenz?

Nur auf die schnelle als plausibilitäts prüfung:
xbox 360 77 gflops
http://www.ign.com/articles/2010/08/...ware-throwdown

Athlon 64 X2 4600+ - 19 GigaFLOPs
http://community.futuremark.com/foru...FLOPS&p=832061
Ein Singlecore Athlon 64 hat fast den gleiche Transistorcount und den gleichen Stromverbrauch unter Last wie Xenon. Glaubst du wirklich, dass die Architektur der 360 (welche ohnehin ein Notnagel war und niemals in dieser Form eingesetzt werden sollte) einem Athlon 64 derart in seiner Effizienz überlegen war? Ich kann dir keine Benchmarks geben weil sowas nicht veröffentlicht wird aber Microsoft hat selbst behauptet, dass Xenon im Schnitt 0,2 Instruktionen pro Takt ausführt und damit gerade einmal einen kleinen Bruchteil der theoretischen Leistung erreicht. Das bezog sich auch bereits auf optimierte 2nd Gen Software. Das ist unglaublich schlecht und selbst mit 3 Kernen wären sie dann nur auf dem Niveau einer Singlecore CPU mit gleichem Takt und 0,6 IPC. Heutige CPUs liegen bei 1 - 1,5 unter den meisten Anwendungen. Ich bin doch der Ansicht, dass ein Athlon 64 das packt wenn er in einer Konsole wäre.
 
Die Datentransfers sind in diesem Fall aber eine Voraussetzung um überhaupt etwas rechnen zu können. Das lässt sich mit diesem Setup nicht vermeiden. Der Punkt ist, dass eine immer größere Anzahl an Anwendungen durch Datentransfers begrenzt wird, schlicht und einfach weil es in dem Bereich nahezu null Fortschritt gibt, während die Rechengeschwindigkeit stetig zunimmt.


Ein Singlecore Athlon 64 hat fast den gleiche Transistorcount und den gleichen Stromverbrauch unter Last wie Xenon. Glaubst du wirklich, dass die Architektur der 360 (welche ohnehin ein Notnagel war und niemals in dieser Form eingesetzt werden sollte) einem Athlon 64 derart in seiner Effizienz überlegen war? Ich kann dir keine Benchmarks geben weil sowas nicht veröffentlicht wird aber Microsoft hat selbst behauptet, dass Xenon im Schnitt 0,2 Instruktionen pro Takt ausführt und damit gerade einmal einen kleinen Bruchteil der theoretischen Leistung erreicht. Das bezog sich auch bereits auf optimierte 2nd Gen Software. Das ist unglaublich schlecht und selbst mit 3 Kernen wären sie dann nur auf dem Niveau einer Singlecore CPU mit gleichem Takt und 0,6 IPC. Heutige CPUs liegen bei 1 - 1,5 unter den meisten Anwendungen. Ich bin doch der Ansicht, dass ein Athlon 64 das packt wenn er in einer Konsole wäre.
Wenn man zuerst einmal an das limit des transfers kommt. Und meines wissens hat pcie noch massig luft. Ist also nur bei zeitkritischen aufgaben und da ist es die frage wieviel es ausmacht da die cpu/gpu derweil andere sachen berechnen kann. Darum wollte ich bei dem einen beispiel von amd die daten für gpu+cpu mit pcie.

Vergist du das die xbox cpu 3 kerne hat? Von der reinen rohleistung ist sie erstaunlich schnell.
Die benchmarks hier sind wie beim jaguar mit floating points operationen. Das ist eigentlich standard um die Rohleistung systemunabhängig zu ermiteln. Die Daten sprechen da für sich. Und ich gehe lieber nach daten wie marketing gewäsche. Die jaguar ist einfach eine mobiele cpu für notebooks, tablets usw. So ein teil kann einfach mit einem ausgewachsenen desktop cpu bei der Rohleistung nicht mithalten. Die xbox hatte eine richtige cpu und hat dementsprechend auch die rohleistung.
Was dann mit der rohleistung dank soc und optimierung noch möglich ist muß sich erst mal zeigen und wieviele Entwickler das überhaupt nutzen.
 
Zuletzt bearbeitet:
Einen i7 würde auch kein Konsolenhersteller der noch bei Sinnen ist verbauen, das dummgeschwätze hier schaukelt sich immer höher :lol:

Mit einem i7 ließe sich außerdem kein SOC System umsetzten bzw nur extrem kostenintensiv.

Fakt ist, sogar der hoffnungslos schwache Xenon der 360 stemmt Games in 30 bzw. 60 FPS und auch Fakt ist dass die GPU der zukünftigen Konsolen ein GPGPU Monster wird.
 
ajplvk.gif

Endlich zeigt die WiiU was sie kann. :o
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom