PC vs. Konsole

Status
Nicht offen für weitere Antworten.
@Zeratul Du redest immer von mögliche zukünftigen Spielen, die von PCIe ausgebremst werden könnten. Gibts da irgendein Beispiel? Die meisten "Next-Gen-Engines" werden doch auf dem PC vorgeführt (und laufen da doch problemlos). Wird es also deiner Meinung nach in 2-3 Jahren so eine große Umstellung geben, dass auf einmal der PC zu "unbeweglich" wird?

Ausserdem gibt es jetzt schon Grafikkarten mit 6GB Speicher. Das wird in 2-3 Jahren auf dem PC Standard sein (Gaming-PCs natürlich). Die sollen dann nicht reichen für die Next-Gen Spiele?
 
1. Das GDDR5 verlötet wird ist wieder eine andere geschichte. Eben weil sie auf die Grafikkarten kommen und hohe Bandbreiten brauchen macht das Sinn. Und die kosten von GDDR5 sind sicher nicht höher wie jene von DDR4 sein werden.
Das sie gelötet werden ändert auch nichts an der höheren Zugriffszeit.

2. Naja, du gehst von irgendwelchen möglichen sachen aus welche vielleicht einmal entwickelt werden könnten und dann genau mit dieser technologie super schnell sind. Solange es keinen Ansatz am Horizont gibt der in die Richtung geht ist es für mich einfach träumerrei.

Server Segment und Workstation ist aber nicht der high performance computing bereich auf den ich mich beziehe. Weiters unterstützen die amd cpus ddr3 & gddr5. Bezweifle sehr das sie versuchen am servermarkt/performance bereich gddr5 einzusetzen wenn das schlecht ist für die cpu.
Hehe, witzig das du sagst das beim HPC markt algorithmen verwendet werden bei welchen PCIe nicht limitiert. Es ist nämlich so das man üblicherweise sagt PCIe2 zu PCIe3 macht bei Spielen keinen Unterschied, nur bei HPC kann es in gewissen fällen probleme machen.

1. Der Standard wurde schon immer mit dem verlöten konzipiert und damit ist es auch leichter höhere Mhz zu fahren, welches natürlich zu höherer Bandbreite führt.
Das macht man nicht nur, weil sich die GPU-Platine dafür anbietet.
Wenn du dir die Tabelle anguckst, dann ist DDR4 ein mix aus DDR3 und GDDR5, da versucht man einen Kompromiss zwischen Speed, Kosten, Datendichte etc. hinzubekommen.
Was ein Kilo GDDR5 kostet und was ein Kilo DDR4 kosten wird, Fragezeichen.

Welche höheren Zugriffszeit eigentlich? Die angegeben Timings (Zugriffslatenzen von mir aus) sind höher, aber mit dem höherem Takt kommt man wieder auf die gleichen absoluten Latenzen wie bei DDR3.
So kommt auch DDR3 auf die gleichen absoluten Latenzen wie DDR1 Speicher.
DDR1 hat auch bessere Timings angegeben, aber auch deutlich weniger Takt und die absolute Latenz berechnet sich eben aus den Timings und dem Takt.

2. Die Möglichkeit für GPGPU besteht da natürlich. Aber der Chip der PS4 ist ja auch kein Rechenmonster. Der muss ja auch parallel noch das Rendering berechnen, dass Budget für GPGPU ist in dem Sinne oft beschränkt.
Liegt dann am Entwickler welche Möglichkeiten er anstrebt und welches grafische Niveau er dafür in Kauf nimmt.
Ich will dir hier nicht verkaufen, dass jedes PS4 Spiel vor lauter GPGPU-Power explodieren wird und du mit deiner PC-CPU und deinem System bei 2FPS herumkrebsen wirst, aber das Potential ist doch eindeutig, die Möglichkeiten sind auf jeden Fall größer und es gibt viele Vorteile, fraglich ist nur wie weit das zum Gesamtresultat beitragen kann.

Bei HPC kommt es ja häufig auf puren Rechendurchsatz an. Da hat man auch die 32 PCIe Lanes.
Hier spielt man ja nicht mit Algors herum, wo die CPU ständig auf die GPU warten muss und andersherum.
Da wird versucht einen relativ unkomplizierten Fluss zu schaffen.
Eine fette HSA-APU ist eben nicht so leicht zu realisieren.
Du hast ein Belichtungsmaximum von ungefähr 600mm², je größer der Chip, desto schlechter deine Yields, also wirst du lieber 550mm² als Maximum nehmen.
Intels Server CPUs und AMDs GPUs und Nvidias GPUs wiegen ja selber über 300mm² bis hin zu 550mm², klar das ich das nicht einfach in eine APU quetschen kann.
Es gibt dann auch ein weiteres Problem, der Interconnect.
Das ganze Zeug ist ja auch verbunden, irgendwann ist der Interconnect und die Kommunikation zwischen den ganzen Prozessoren so ineffizient das das ganze sich nicht lohnt.
Z.B. von der Perf/Watt sind kleine Einheiten deutlich besser, also wieso nicht 2.000 ARM Chips kombinieren und rechnen lassen?
Weil die Verbindung untereinander jeden Vorteil töten wird.
Auch wieder eine Effizienzrechnung, wo der Sweetpoint aus Rechenleistung und Interconnect-Effizienz liegt.
Je höher die Rechenleistung einer einzelnen Einheit, desto weniger brauche ich davon für das gleiche Ergebnis und desto geringer ist der Interconnect-Overhead.
Wenn ich 1.000 schwache SoCs verbinde, dann wird deren Effizienzvorteil irgendwann ins Negative umdrehen, bei irgendeiner Zahl.
Weiß auch nicht, wie viele Racks die da haben und was die genau verbauen und welches Wetter welchen Algorithmus braucht und wo eine HSA APU auch im Server, Workstation, HPC-Bereich gewinnbringend eingesetzt werden könnte.
Die Pläne dafür sind jedenfalls da.

Die Frage ist natürlich auch spannend, wieso man keinen GDDR5 verbaut? 1. Braucht das ja Controller-Optimierungen, einen unified Controller für DDR3 und GDDR5 gibt es meines Wissens nicht, zweitens müsste auch GDDR5 wieder in HPCs etc. verlötet werden.
Vielleicht ist es eine Kostenrechnung, vielleicht darf die Verbindung zum GDDR5 auch nicht so lang sein, ansonsten schafft man die Taktfrequenzen nicht, was Einschränkungen bei der Konstruktion und dem Kühlmittel nach sich zieht.
Von hohen Bandbreiten profitieren CPUs nicht sonderlich, da sie wahre Cache-Monster sind, dennoch wird natürlich ein fettes Quad-Channel bei Intel verbaut, womit sich das scheinbar doch irgendwo auszahlt.
Keine Ahnung, ob Modularität da ein unglaublich gewichtiger Aspekt ist.
Kann mir leide auch keine glasklare Antwort liefern, sondern nur Spekulationen.

PCIe kann ja überall bei latenzkritischen Algos von Nachteil sein und bessere Latenzen sind ja immer ein Vorteil, bloß je nach Aufgabe nicht immer merklich spürbar.
Die ganz kritischen Algos werden weder beim PC verwendet, bei Spielen, noch sonst wo.
Sie werden vornehmlich von der CPU berechnet.
Häufig ist auch der Performance-Rückstand der CPU gegenüber der GPU kleiner, als der Overhead vom PCIe groß ist.
SoCs sind aber die Zukunft und schnell angebundener Speicher auch.
Das wird nicht für die High-Elite Durchsatzklasse gelten, aber die Vorteile die dieses Konzept in sich trägt wird viele klassische Systeme beerben und ersetzen.
 
Zuletzt bearbeitet:
Let the battle begin. :D
Ab 8:00 wird es interessanter.
[video=youtube;7dCWpno0cYI]http://www.youtube.com/watch?v=7dCWpno0cYI[/video]
Und das ganze trotz dem super langsamen pcie flaschenhals. ;)
 
first real time ocean simulated. Na endlich etwas, was ich mir schon lange wünsche ^^
 
Und das ganze trotz dem super langsamen pcie flaschenhals. ;)
Du weißt doch genau mit welchen Szenarien das möglicherweise verbunden ist.

Das tolle war aber echt das Schiff. Meinem Verständnis nach simuliert die GPU die Wellen, aber die Schiffsgeometrie und der Standpunkt wird von der CPU berechnet und die braucht ja natürlich die Wellen-Daten der GPU, hier sollte wenn es so berechnet wird eine häufige Synchronisation der Daten vorkommen.
Wenn das auch in einer Spielszene mit deutlich mehr Kontaktflächen und Informationsaustausch problemlos möglich ist, dann hat der PC wohl auch nichts zu befürchten.

Dat hair simulation :eek: :eek: :eek: :eek: :eek:

Sehr beeindruckende Techdemo. Schade das wir sowas in der kommenden Generation noch nicht zu sehen bekommen.
TressFX ist auch schon einmal ein guter Anfang.
Wäre die Sache nicht so verdammt ineffizient bisher, wäre das häufiger praktikabel.
 
Die Demo die man ab 2 : 50 sieht habe ich vor ein paar Monaten am Rechner installiert. Läuft superflüssig. :)
Und das auf meiner ach so veralteteten GTX680. ;)
 
Zuletzt bearbeitet:
Nvidia hat für die neue Dawn zwei 670 GTX Karten empfohlen.
Das eine limitierte Szene super flüssig läuft, beweist leider auch gar nichts.
Ein Kopf macht kein Spiel.
Das gleiche Problem bei der PS4 mit DeepDown oder Unreal4.
Schön das eine Szene mit der Grafik InEngine funktioniert, solange ein ganzes Spiel nicht diesen Grafikstandard erfüllt, ist es nur eine Machbarkeitsstudie für diese spezielle Szene und damit nur ein Eye-Candy.
 
Nvidia hat für die neue Dawn zwei 670 GTX Karten empfohlen.

Läuft auch mit einer ganz gut.

Schön das eine Szene mit der Grafik InEngine funktioniert, solange ein ganzes Spiel nicht diesen Grafikstandard erfüllt, ist es nur eine Machbarkeitsstudie für diese spezielle Szene und damit nur ein Eye-Candy.

Genau das mein ich ja. Bis wir sowas in einem Spiel sehen werden, vergehen nochmal etliche Jahre.
 
Nvidia hat für die neue Dawn zwei 670 GTX Karten empfohlen.
Das eine limitierte Szene super flüssig läuft, beweist leider auch gar nichts.
Ein Kopf macht kein Spiel.
Das gleiche Problem bei der PS4 mit DeepDown oder Unreal4.
Schön das eine Szene mit der Grafik InEngine funktioniert, solange ein ganzes Spiel nicht diesen Grafikstandard erfüllt, ist es nur eine Machbarkeitsstudie für diese spezielle Szene und damit nur ein Eye-Candy.
Die Demo besteht aus mehr als nur einem Kopf. ;)
 
Es ist eig. ganz lustig die alten 3D-Marks anzuschauen und die Tech-Demos von AMD und Nvidia.
Was damals 2006 präsentiert wurde, kam erst so langsam 2012 in echten Spielen auch grafisch an.
Schade immer erst horny gemacht zu werden und dann ewig warten zu müssen.
Wobei ich mit Watch Dogs voll zufrieden bin.

@ Kay,
dann zähle noch paar Bäume und eine Schaukel dazu. :-P
 
1. GDDR5 hat leider auch Einschränkungen. Du musst es verlöten, wenn du es verlötest dann ist das Signal sauberer und das ermöglicht es dir auch den Takt etwas höher anzuziehen. Es gibt seit neuestem einen Standard für GDDR5 DIMMs für den Mobile-Bereich und jetzt rate mal wie schnell der effektive Takt ist? Irgendetwas mit 3200Mhz, jedenfalls nicht viel mehr.

Darf ich mal fragen warum das Signal dadurch sauberer wird? Mit einem Oszilloskop sehe ich beim Signal null Unterschied ob das nun gesteckt worden ist oder gelötet, solange die Kontakte ordnungsgemäß funktioneren. Also keine Korrosion aufweisen oder sonstige Schmutzpartikel.

Bei einer Platine kommt es ganz darauf an wie sie konzipiert worden ist. Sprich, hat man auf die Leiterbahn Auren geachtet, sind die Bauteile angeordnet so das ihre Elektrische Felder nicht das Signal stören usw...:)
 
Wenn an sich die Dawn Demo anschaut, sieht man sofort, dass Nvidia kein Spielentwickler ist. Die Elfe sieht beeindruckend aus, keine Frage. Aber wie der NV-CEO sagte, sieht sie "creepy" aus. Völlig leblos und befremdlich.
Der alte Man von Quantic Dreams Demo war jedoch vollkommen "lebendig". Man konnte förmlich die Gefühle/Gedanken in seinen Augen sehen. Er sah einfach wie ein richtiger Mensch aus. Wohingegen man bei dieser Elfe von Nvidia sofort sehen kann, dass sie nur aus Einsen und Nullen besteht. Und das hat nichts damit zu tun, dass sie eine Elfe ist. Ihr versteht was ich meine.
Das gilt übrigens auch für den Typen der "reale" Gesichtsausdrücke zeigen soll. Was absolut nicht der Fall ist.
 
Zuletzt bearbeitet:
Let the battle begin. :D
Ab 8:00 wird es interessanter.
[video=youtube;7dCWpno0cYI]http://www.youtube.com/watch?v=7dCWpno0cYI[/video]
Und das ganze trotz dem super langsamen pcie flaschenhals. ;)

Schon krass, wie realistisch der Schatten ist bei dem Gesicht ab Minute 8.. :angst2:
 
@ Sorrow

Ich habe mir sagen lassen, dass der Widerstand so geringer sei und man deswegen auch über eine höhere Frequenz stabile Taktung erreicht, da negative Induktive Eigenschaften so geringer seien.
Generell sollen Steckplätze da Nachteile bereit halten.
Sei es PCIe4, LGA , Ram-Slots etc.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom