PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Ist es aktuell nicht sogar so, dass selbst die Bandbreite von PCI-Express 2.0/2.1 nicht komplett ausgenutzt wird? Das habe ich zumindest immer wieder gelesen, als ich Ende 2011 meinen PC gekauft habe :ugly:
Oder hat sich da in den letzten 1-2 Jahren soviel geändert, dass demnächst sogar PCIe 3.0 zu "langsam" ist?
 
Hmm, das weiss ich jetzt nicht. Was ich aber weiss ist, dass die PS4 sicherlich einfacher zu programmieren sein wird mit dem unified Memory Space. Aber wie viel dass da performancemässig schlussendlich drinnliegt, das ist höchst schwierig zu sagen denke ich ;)
 
Hmm, das weiss ich jetzt nicht. Was ich aber weiss ist, dass die PS4 sicherlich einfacher zu programmieren sein wird mit dem unified Memory Space. Aber wie viel dass da performancemässig schlussendlich drinnliegt, das ist höchst schwierig zu sagen denke ich ;)

Ich bin ja kein Spieleprogrammierer, aber wird die Speicherverwaltung nicht "extern" verarbeitet?
Kann mir nicht vorstellen, dass bei heutigen PC Spielen von Hand Daten in den Speicher der Grafikkarte geschickt werden?
Oder wie soll das Programmieren da einfacher werden (ausser für die Leute, die die Speicherverwaltung schreiben ;-) )? Kann man das irgendwo nachlesen, würde mich mal interessieren :-)
 
Ist es aktuell nicht sogar so, dass selbst die Bandbreite von PCI-Express 2.0/2.1 nicht komplett ausgenutzt wird? Das habe ich zumindest immer wieder gelesen, als ich Ende 2011 meinen PC gekauft habe :ugly:
Oder hat sich da in den letzten 1-2 Jahren soviel geändert, dass demnächst sogar PCIe 3.0 zu "langsam" ist?

Spiele die auf die PS4 zugeschnitten sind, werden die Datenmenge von heutigen PCs weit übertreffen. 2GB VRAM wird nicht reichen. PC-Ports müssen dann entweder federn lassen oder die Anforderungen, für maximale Einstellungen/PS4 Qualität, werden enorm ansteigen. Zumal der ganze GPGPU Zauber der PS4 auf heutigen PCs sowieso nicht möglich ist.
Wenn sowas wie Crysis 3 schon heutige Topkarten wie die GTX 680 und HD 7970 auf knappe 30 Frames drückt, was meinst du wird dann ein Deep Down mit diesen Karten anstellen? Eine GTX 680 oder HD 7970 werden bei Deep Down keine 30 Frames schaffen. Im Leben nicht. Da gebe ich dir Brief und Siegel.
 
Spiele die auf die PS4 zugeschnitten sind, werden die Datenmenge von heutigen PCs weit übertreffen. 2GB VRAM wird nicht reichen. PC-Ports müssen dann entweder federn lassen oder die Anforderungen, für maximale Einstellungen/PS4 Qualität, werden enorm ansteigen. Zumal der ganze GPGPU Zauber der PS4 auf heutigen PCs sowieso nicht möglich ist.
Wenn sowas wie Crysis 3 schon heutige Topkarten wie die GTX 680 und HD 7970 auf knappe 30 Frames drückt, was meinst du wird dann ein Deep Down mit diesen Karten anstellen? Eine GTX 680 oder HD 7970 werden bei Deep Down keine 30 Frames schaffen. Im Leben nicht. Da gebe ich dir Brief und Siegel.

Deep Down erscheint in 3-4 Jahren, was glaubst du was es da für Grakas geben wird :ugly:
 
Deep Down erscheint in 3-4 Jahren, was glaubst du was es da für Grakas geben wird :ugly:

Das ist wahr. Aber ich rede von heutigen PCs. Da könnte nur die Titan die nötige Leistung für sauberere 30 FPS bringen.
In 3+ Jahren sollte es die GTX 8xx Reihe und die HD 9XXX geben, die natürlich die PS4 auseinander nehmen werden. Aber eine GTX 680 und HD 7970, was viele hier behaupten, werden das nicht schaffen.

@Ashrak

Kannst mich gerne quoten. Doch ich weiss, dass es so kommen wird. Nur weiss ich ebenfalls jetzt schon, was du (und andere) dann sagen wirst: "Wer interessiert sich schon für Highend-Karten von 2012?"
 
Spiele die auf die PS4 zugeschnitten sind, werden die Datenmenge von heutigen PCs weit übertreffen.
Womit? Bei den Texturen? Carmack hat gesagt das es erst ab 32-64gb interessant wird. Davon sind die Konsolen auch noch weit entfernt. Die ganzen 8gb kann man eh nicht für grafikkarte verwenden da die cpu auch dran hängt. Die Grafikkarten für den PC werden einfach mehr speicher erhalten wenn notwendig. Und so wie es heute gemacht wird lädt man dann einfach weiterhin die ganzen Daten welche der Level benötigt am Anfang in den Speicher der Grafikkarten. Für irgendwas gibt es ja Ladescreens...
 
Spiele die auf die PS4 zugeschnitten sind, werden die Datenmenge von heutigen PCs weit übertreffen. 2GB VRAM wird nicht reichen. PC-Ports müssen dann entweder federn lassen oder die Anforderungen, für maximale Einstellungen/PS4 Qualität, werden enorm ansteigen. Zumal der ganze GPGPU Zauber der PS4 auf heutigen PCs sowieso nicht möglich ist.
Wenn sowas wie Crysis 3 schon heutige Topkarten wie die GTX 680 und HD 7970 auf knappe 30 Frames drückt, was meinst du wird dann ein Deep Down mit diesen Karten anstellen? Eine GTX 680 oder HD 7970 werden bei Deep Down keine 30 Frames schaffen. Im Leben nicht. Da gebe ich dir Brief und Siegel.

Crysis 3 mit über 200 FPS auf einer einzigen GTX680:
[video=youtube;vSWRMIe72-s]http://www.youtube.com/watch?v=vSWRMIe72-s[/video]
 
Abhängig vom Releasezeitpunkt von Deep Down ist dieser Einwand auch durchaus legitim. Bedenke dass der PC eine offene Plattform ist (das war ja der zentrale Kernpunkt am Erfolg des PCs) und wenn sich im Jahr 2016 - 2017 (je nachdem wann Deep Down erscheint) das High End aus dem Jahr 2015 bei den Gamern in der Breite durchgesetzt hat... wozu dann noch die GTX 680-Vergleiche?
Die Hardware der Wii U wird ja auch mit der PS4 verglichen, berechtigterweise.
 
Wenn sowas wie Crysis 3 schon heutige Topkarten wie die GTX 680 und HD 7970 auf knappe 30 Frames drückt, was meinst du wird dann ein Deep Down mit diesen Karten anstellen? Eine GTX 680 oder HD 7970 werden bei Deep Down keine 30 Frames schaffen. Im Leben nicht. Da gebe ich dir Brief und Siegel.

Das liegt aber sicher nicht am Speicher. Die 7970 hat 3 bzw. 6 GB Speicher. Wenn das bei Crysis 3 (wegen zu wenig Speicher) nur für 30fps reichen würde, wäre aber sehr schlimm (und stimmt natürlich nicht)
 
Zuletzt bearbeitet:
Das ist wahr. Aber ich rede von heutigen PCs. Da könnte nur die Titan die nötige Leistung für sauberere 30 FPS bringen.
In 3+ Jahren sollte es die GTX 8xx Reihe und die HD 9XXX geben, die natürlich die PS4 auseinander nehmen werden. Aber eine GTX 680 und HD 7970, was viele hier behaupten, werden das nicht schaffen.

@Ashrak

Kannst mich gerne quoten. Doch ich weiss, dass es so kommen wird. Nur weiss ich ebenfalls jetzt schon, was du (und andere) dann sagen wirst: "Wer interessiert sich schon für Highend-Karten von 2012?"

Sehe ich ähnlich

@ashrak

Ja, du hast genauso recht.

Wie gesagt, ich freue mich auf so "frische" hardware wie sie die ps4 besitzt. Profitieren werden alle, außer naja so ne "bunte" fraktion^^
 
Aha wiso wird dann bezüglich Unterschiede immer erklärt das DDR hin zu geringen zugriffszeiten auf kosten der Bandbreite optimiert ist und es bei GDDR genau das Gegenteil ist?
Wiso der ganze tamtam mit DDR4 welches seit jahren aufwendig entwickelt wird und noch immer weniger Bandbreite wie GDDR5 haben wird. Sind das alles deppen das sie nicht einfach GDDR5 nehmen das nach deinen Aussagen ja genau gleich ist bis auf die höhere Bandbreite?

2. Ne wir sind uns einig das es ein anderer Ansatz ist. Du scheints jedoch davon auszugehen das jetzt plötzlich überall gpu und cpu zusammen arbeiten müssen und daten überall austauschen. Ich gehe davon aus das es die Ausnahme ist welche man vermeiden will wenn es geht.
Warum hat sich diese Technologie noch nicht im high performance computing bereich durchgesetzt? Amd ist nicht die erste firma welche an so eine Lösung denkt und in dem Bereich sind auch spezial lösungen willkommen wenn sie mehr performance bringen. Sind das auch alles deppen? Wiso geht amd damit nicht gleich in den professionellen high performance bereich? Die bezahlung für eine gute technologie wäre da um welten besser wie bei den billigen Konsolen.
1. GDDR5 hat leider auch Einschränkungen. Du musst es verlöten, wenn du es verlötest dann ist das Signal sauberer und das ermöglicht es dir auch den Takt etwas höher anzuziehen. Es gibt seit neuestem einen Standard für GDDR5 DIMMs für den Mobile-Bereich und jetzt rate mal wie schnell der effektive Takt ist? Irgendetwas mit 3200Mhz, jedenfalls nicht viel mehr.
Die heutigen GPUs wie z.B. cape verde setzen schon auf 4500Mhz effektiv und auch normaler Mobile-Bereich ist ungefähr bei 4000Mhz.
Da sieht man schon, dass es etwas bringt, die Chips direkt zu verlöten.
DDR4 hat übrigens auch mehr Pins für die Kontaktfläche, um auch hier einen höheren Takt garantieren zu können.
Modularität und Aufrüstbarkeit könnte hier eine große rolle Spielen.
GDDR5 hat auch eine geringere Datendichte, als normaler Arbeitsspeicher und ist auch an sich billiger.
Temperatur und Stromverbrauch könnten weitere Unterschiede aufzeigen.
Die absoluten Latenzen sind dabei vergleichbar, bloß hat auch GDDR5 dabei deutlich mehr Bandbreite.
Ob das intern bei Datenpaketen auch die CPU negativ beeinflussen kann, ist eine zwar interessante frage, aber ich habe natürlich Zweifel daran.
Die Gründe die gegen GDDR5 sprechen sind wohl weniger die Leistung am Ende, sondern viel mehr die Kosten und die Einschränkungen bei der Verwendung.

Hier sind übrigens die Unterschiede zwischen DDR3/4 und GDDR5 aufgelistet:

Micron-DDR4-2-800.jpg-aa71a640952bcb8a.jpeg


2. Ich gehe nicht davon aus, ich denke das Spiele eher klassisch programmiert werden.
Da müssen ja auch die ganzen Entwicklertools darauf angepasst werden und Algorithmen dafür geschaffen.
Ich gehe nur davon aus, dass hier deutlich mehr Potential verborgen ist, als auf dem PC mit PCIe Flaschenhals.
Ich kann ja leider auch nicht vorhersagen, welche Spiele die Devs in Zukunft programmieren und welchen Grad an Interaktion von CPU und GPU sie wählen werden.

Und wieso das AMD nicht macht? Machen sie doch ;)
Kaveri mit der Technologie kommt auch erst Ende 2013/Anfang 2014.
AMD gibt an, APUs im unterem Server-Segment oder Workstation-Markt anbieten zu wollen.
Bei Trinity hat man das schon gemacht (Gibt eine FirePro davon), sogar ein Opteron wurde genannt, aber offiziell ist das glaube ich noch nicht.
Nvidia geht ja auch mit Project Denver dahin, indem man ARM-Cores in die GPU implantiert, somit will man die GPU unabhängiger von der CPU gestalten.
Beim HPC-Markt hat sich das ganze ja auch nicht durchgesetzt, weil dort ja ebenfalls der PCIe-Link limitiert.
Da verwendet man auch Algorithmen, wo der PCIe nicht Unmengen an Ineffizienz mit sich bringt oder limitiert.
Niemand kitzelt dort einen Flaschenhals, weil er meint das passt schon so.
Nvidia hat mit CUDA z.B. auch eine Sprache für GPGPU zur Verfügung gestellt und weitere Techniken, um die GPU unabhängiger von der CPU zu machen oder sie effektiver ausnutzen zu können.
Die ganze HSA, Denver SoCs Schiene wird wohl viele Segmente beerben, aber bei Sachen wo es auf puren Durchsatz geht, da wird man mit einem SoCs nicht weit kommen, weil Flächenmäßig ist so eine Lösung natürlich arg limitiert.
 
Zu dem "PCIe Flaschenhals" kann man sich mal den folgenden Test anschauen:

http://www.computerbase.de/artikel/grafikkarten/2013/bericht-pcie-3.0-vs.-pcie-2.0/5/

Beispiel:
Battlefield 3 in 2560x1600 und 4xAA/16xAF

HD 7970 @ PCIe 3.0 37,8 fps
HD 7970 @ PCIe 2.0 37,8 fps
HD 7970 @ PCIe 1.0 37,6 fps

Bei den getesteten Spielen bringt der Sprung von PCIe 1.0 (4GB/s) auf PCIe 3.0 (15.75GB/s) (getestet mit HD 7970 und GTX 680) einen Gewinn von etwa 1 Frame/Sekunde.
Bin ich mal gespannt, ob das dann in 1-2 Jahren echt zu einen Flaschenhals werden wird.
 
Bei diesen Tests wird ja auch das klassische 3D-Rendering getestet, ohne latenzkritischen write-back.
Die Bandbreite wird auch nicht als primäres Problem angegeben, sondern die Latenz welche es für ein passables GPGPU-Computing braucht, wo auch die CPU ihre Daten abholen kann.

Die bisherigen PCIe Tests zeigen bisher, dass all die vorhandenen Programmabläufe bisher nicht bandbreitenlimitierend sind.
Die Frage ist halt, wie es sich mit dem erscheinen der Next-Gen auswirken wird?
 
Zuletzt bearbeitet:
@Paddy
Gerade das beweist es doch. Selbst ein Spiel wie BF3 berechnet alles mit seinem ~ 2GB VRAM Verbrauch und benötigt nur minimale Mengen an Daten vom Systemram. Deswegen limitiert nichtmal PCI-E, was ein Armutszeugniss ist da heutige Spiele eben immernoch auf 32Bit (2GB Adresslimit) ausgelegt sind. Daher nutzen selbst die aufwendigsten Spiele auf dem PC kaum den Systemram, weil die meisten Karten sowieso genug VRAM (2-3GB) liefern . Bei der PS4 wird sich das aber ändern, da sie bis zu 7,5 GB für Grafikberechnungen und Gamelogic nutzen kann. UMA sei dank. Und 512MB (Oder halt 1GB, wenn Sony gerne verschwendet) für das OS.
Der PC ist auf 2-3GB VRAM, und das bisschen was der Systemram über PCI-E liefern kann, begrenzt.
Und das reicht für Spiele (siehe BF3) von heute noch aus. Noch..

Und ich erwähne nichtmal das ganze GPGPU Zeug, das auf dem PC derzeit nicht möglich ist. Nicht in dem Umfang wie bei der PS4.
 
Zuletzt bearbeitet:
1. GDDR5 hat leider auch Einschränkungen. Du musst es verlöten, wenn du es verlötest dann ist das Signal sauberer und das ermöglicht es dir auch den Takt etwas höher anzuziehen. Es gibt seit neuestem einen Standard für GDDR5 DIMMs für den Mobile-Bereich und jetzt rate mal wie schnell der effektive Takt ist? Irgendetwas mit 3200Mhz, jedenfalls nicht viel mehr.
Die heutigen GPUs wie z.B. cape verde setzen schon auf 4500Mhz effektiv und auch normaler Mobile-Bereich ist ungefähr bei 4000Mhz.
Da sieht man schon, dass es etwas bringt, die Chips direkt zu verlöten.
DDR4 hat übrigens auch mehr Pins für die Kontaktfläche, um auch hier einen höheren Takt garantieren zu können.
Modularität und Aufrüstbarkeit könnte hier eine große rolle Spielen.
GDDR5 hat auch eine geringere Datendichte, als normaler Arbeitsspeicher und ist auch an sich billiger.
Temperatur und Stromverbrauch könnten weitere Unterschiede aufzeigen.
Die absoluten Latenzen sind dabei vergleichbar, bloß hat auch GDDR5 dabei deutlich mehr Bandbreite.
Ob das intern bei Datenpaketen auch die CPU negativ beeinflussen kann, ist eine zwar interessante frage, aber ich habe natürlich Zweifel daran.
Die Gründe die gegen GDDR5 sprechen sind wohl weniger die Leistung am Ende, sondern viel mehr die Kosten und die Einschränkungen bei der Verwendung.

Hier sind übrigens die Unterschiede zwischen DDR3/4 und GDDR5 aufgelistet:

Micron-DDR4-2-800.jpg-aa71a640952bcb8a.jpeg


2. Ich gehe nicht davon aus, ich denke das Spiele eher klassisch programmiert werden.
Da müssen ja auch die ganzen Entwicklertools darauf angepasst werden und Algorithmen dafür geschaffen.
Ich gehe nur davon aus, dass hier deutlich mehr Potential verborgen ist, als auf dem PC mit PCIe Flaschenhals.
Ich kann ja leider auch nicht vorhersagen, welche Spiele die Devs in Zukunft programmieren und welchen Grad an Interaktion von CPU und GPU sie wählen werden.

Und wieso das AMD nicht macht? Machen sie doch ;)
Kaveri mit der Technologie kommt auch erst Ende 2013/Anfang 2014.
AMD gibt an, APUs im unterem Server-Segment oder Workstation-Markt anbieten zu wollen.
Bei Trinity hat man das schon gemacht (Gibt eine FirePro davon), sogar ein Opteron wurde genannt, aber offiziell ist das glaube ich noch nicht.
Nvidia geht ja auch mit Project Denver dahin, indem man ARM-Cores in die GPU implantiert, somit will man die GPU unabhängiger von der CPU gestalten.
Beim HPC-Markt hat sich das ganze ja auch nicht durchgesetzt, weil dort ja ebenfalls der PCIe-Link limitiert.
Da verwendet man auch Algorithmen, wo der PCIe nicht Unmengen an Ineffizienz mit sich bringt oder limitiert.
Niemand kitzelt dort einen Flaschenhals, weil er meint das passt schon so.
Nvidia hat mit CUDA z.B. auch eine Sprache für GPGPU zur Verfügung gestellt und weitere Techniken, um die GPU unabhängiger von der CPU zu machen oder sie effektiver ausnutzen zu können.
Die ganze HSA, Denver SoCs Schiene wird wohl viele Segmente beerben, aber bei Sachen wo es auf puren Durchsatz geht, da wird man mit einem SoCs nicht weit kommen, weil Flächenmäßig ist so eine Lösung natürlich arg limitiert.

1. Das GDDR5 verlötet wird ist wieder eine andere geschichte. Eben weil sie auf die Grafikkarten kommen und hohe Bandbreiten brauchen macht das Sinn. Und die kosten von GDDR5 sind sicher nicht höher wie jene von DDR4 sein werden.
Das sie gelötet werden ändert auch nichts an der höheren Zugriffszeit.

2. Naja, du gehst von irgendwelchen möglichen sachen aus welche vielleicht einmal entwickelt werden könnten und dann genau mit dieser technologie super schnell sind. Solange es keinen Ansatz am Horizont gibt der in die Richtung geht ist es für mich einfach träumerrei.

Server Segment und Workstation ist aber nicht der high performance computing bereich auf den ich mich beziehe. Weiters unterstützen die amd cpus ddr3 & gddr5. Bezweifle sehr das sie versuchen am servermarkt/performance bereich gddr5 einzusetzen wenn das schlecht ist für die cpu.
Hehe, witzig das du sagst das beim HPC markt algorithmen verwendet werden bei welchen PCIe nicht limitiert. Es ist nämlich so das man üblicherweise sagt PCIe2 zu PCIe3 macht bei Spielen keinen Unterschied, nur bei HPC kann es in gewissen fällen probleme machen.
 
Bei diesen Tests wird ja auch das klassische 3D-Rendering getestet, ohne latenzkritischen write-back.
Ja weil man das bei spielen eben nicht macht. ;)

Scheinbar werden in Zukunft die Grafikkarten aufhören zu rechnen und sich nur noch damit beschäftigen Pakete an die CPU zu schicken. Diese wiederum wird nur noch Packete an die Grafikkarte schicken. Bin gespannt was sich damit für Spiele realisieren lassen. :v:
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom