Locuza
L10: Hyperactive
- Seit
- 3 Dez 2012
- Beiträge
- 1.336
Komm sprich dich aus, lass deinen Gefühlen freien Lauf.Am besten sind die idiotischen Kommentare der PCGH-Frickler. Diese Vollpfosten haben nicht einmal eine Ahnung, wer dieser Mann ist und wie viel mehr Wissen er über diese Materie besitzt. Um Welten mehr als all diese Affen zusammen. Tut mir Leid aber anders kann man diese Teenager und Erstsemester-Studenten nicht bezeichnen, die gerade diesem Mann die Kompetenz absprechen wollen. Unfassbar, wie sie gerade einmal ein paar Komponenten einbauen und Treiber installieren können und sich damit bereits für Koryphäen halten...![]()
Ach komm jetzt werden aus paar Steinen wieder CPU-Killer, immer diese übertriebene Art.Die Havok Demo hat doch sehr gut gezeigt, wie nur ein Bruchteil der GPU Leistung für die Demo verwendet wurde. Eine Demo, die fast jede CPU zum Glühen gebracht hätte. PCs können das Computing nicht so nutzen wie die PS4. Jeder der 8 CPU-Kerne kann direkt auf eine Compute-Only-Pipeline der GPU zugreifen. Beim PC ist das unmöglich. Schon allein weil die CPU keinen direkten Kanal zur GPU hat und es keinen gemeinsamen Speicher + Adressraum gibt. Das ermöglicht Ansätze und Engines, die auf dem PC, und ich wiederhole mich gerne, UNMÖGLICH sind. Wie soll es überhaupt möglich sein, mit der Konzeption, Bauweise und der DX Schlammschicht des PCs?
Mit der finalen API werden sowohl CPU als auch GPU gleichzeitig angesprochen und können simultan die selbe Aufgabe übernehmen. Das wird, wie Cerny prognostiziert hat, einen gewaltigen Sprung ermöglichen. Naughty Dog, GG und Santa Monica werden es schon zeigen. Verlasst euch darauf.
Das PhysX-Zeug vom neusten SDK läuft auf einer CPU auch ganz anständig.
Die Havok-Demo war einfach billig in jeder Hinsicht und hat nichts anständig präsentieren können.
Unmöglich sind spezielle Berechnungen auf einem PC ja nicht, die Frage ist eher, ob ein PC das auch in 33ms schaffen könnte?
Bei den ganzen Latenzaufschlägen würde ich da bei einigen Stellen zu Nein tendieren.
Viel Spaß beim 500-1.000€ ausgeben.Na also, 1 Jahr nach Nextgen Release wird die Hardware schon hoffnungslos veraltet sein![]()
Aber Intel ist technisch natürlich ganz weit vorne.
Speziell an den Rechenkernen wurde sicherlich nichts angepasst. Die GPU hat auch wenig Custom-Zeug.Die PS4 hat die Octacore Variante und wurde sicherlich irgendwie speziell angepasst. Frag mich nicht wie aber ich glaube nicht dass die den unangetastet lassen. Wir reden hier über Sony.
Der Jaguar ist aber am Ende kein Intel oder IBM Power 7. Jedoch muss man bei einem SOC Kompromisse eingehen. Ein SOC mit einem Intel i7 wäre wohl derzeit kaum möglich.
Der Interconnect ist speziell.
Und mit einem i7 würde das theoretisch natürlich schon gehen, aber Intel ist eine Klasse für sich.
Kommt auf das Problem an, manche Sachen skalieren kaum über 3 Kerne, andere haben auch mit 1.000 keine Probleme.Der Benchmark ist schonmal sowieso nicht viel wert weil die PS4 8 Jaguar Kerne hat. Ich bin mir aber nicht sicher ob da jeder zusätzliche Kern linear skaliert. Dass müsste man die Ergebnisse da oben einfach mit 2 mulitiplizieren. Dann sieht der Jaguar nicht mehr so schwach aus. Zumal ich weiterhin davon überzeugt bin dass Sony die CPU angepasst hat. Genau wie den Grafikchip mit dem irren GPGPU Zeugs.
Höre mich jetzt fast so an wie die Nintendos vor dem WiiU Launch. :angst2:
Ich bin kein Technikcrack und will auch nicht von zuviel Zeugs labern wovon ich nicht viel verstehe.
Einfach mit 2 multiplizieren geht nicht.
Du hast Skalierungsprobleme zum Teil, höhere Verwaltungskosten, höhere Latenzen bei der Kommunikation der zwei Module untereinander usw.
Und die GPGPU-Sachen sind Stangenware, aber am PC bisher auch nicht verfügbar und auch nutzlos bisher.
Vielleicht bietet Kaveri ähnliches.
Und beim PC stallt gleich mal die gleiche Pipeline.Zudem sollte man nicht vergessen, das jede CU die man für GPGPU nutzt dann bei der grafischen Berechnung fehlt.
Beim PC verbraucht so etwas viel mehr Ressourcen, als auf einer PS4.
Wird wohl einer der Stellen sein, wo die theoretische Kluft praktisch ganz klein wird.
Das ganze hatte man in der Form auch noch nicht präsentiert bekommen und es ist schön, wenn sich so etwas als normale Grafik etabliert.Was ist also nun so besonders daran?
Kann dem nicht zustimmen. Crysis 3 ist technisch klar überlegen und Crysis 1 war das auf anderen Gebieten auch.Crysis 2 war schon ein ziemliches Grafikbrett, finde ich optisch auch hübscher als Crysis 3, ist allerdings auch erheblich schlauchiger...
Crysis 2 empfinde ich als den schwächsten Teil der Serie, in technischer Hinsicht.
Zuletzt bearbeitet: