Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
es ist doch nicht seit neustem bekannt dass entwickler aus der konsolenarchitektur weit mehr rausholen können als aus den pcs
laut euer logik dürften dann spiele wie uncharted 3 und co auf den derzeitigen konsolen nicht möglich sein wenn man sich die gpus werte anguckt r

??? Nein!! Es geht eher darum, dass man bei Konsolen die Leistung bis zum letzten Tropfen durch die Anpassung der Anwendung in deinem Beispiel halt Uncharted aussaugt. Denn die Grafikkarte der PS3 ist z.B eine Standard-GK vom PC die halt etwas optimiert ist, jedoch nicht die zigfache Leistung einer vergleichbaren PC-Karte in den Spielen rausholt, was du gerade behauptet hast. Denn dabei muss der Cell helfen, sonst würde alleine die GK noch mehr in die Knie gehen. Sprich, die Leistung zählt genauso bei den Konsolen wie auf den PCs und hat eine bestimmte Aussagekraft. Die Ergebnisse der Leistung zeigen sich dann in Spielen und je mehr Leistung desto besser die Ergebnisse -> wenn man die Software halt nur auf jene Architektur zu 100% anpasst(das ist im Verlauf eines Konsolenlebens der Fall) kommen solche Ergebnisse und nicht durch Magie oder Wunderhardware :coolface: heißt also schwache Hardware = schwache Entwicklung in Sachen Spieltechnik in Verlauf ihres Lebens.
 
Zuletzt bearbeitet:
3 TF-GPU wär mehr als ok, und würde eine lange Ära gewährleisten, aber 1,2 oder auch 1,8TF wär dafür ein Witz, da wär es schon nach 1-2 bzw. 2-3 Jahren problematisch, zumindest gegenüber dem PC. ;-)

Zudem peilt Sony noch 4k (MS weiss ich nicht)an, wenn das auch für Spiele gilt, unter dem 3D-ohne Brille Thema, ist die Luft auch sehr schnell raus.
 
Zuletzt bearbeitet:
als damals die zahlen von PS3 das 2tflop monster geleakt wurden, da wurde die 360 im GAF sowas von klein gemacht wie die WiiU jetzt.
Auch viele seiten schrieben das isider von doppelter leistung sprechen usw. war damals wie jetzt täglich im GAF ;)
die aussage jetzt mit 33% kommt auch nur anscheinend von entwicklern, die die Tf vergleichen, genauso wie damals.

Ist imo früher nichts anderes gewesen als das Nachquatschen von Fanboys von dem was Sony und MS ihnen vorgelegt hat. Sollte an den aktuellen Gerüchten was dran sein, wäre es imo mehr sowas wie die früheren "Edge" Gerüchteecke, bei denen anonyme Devs Sagten: "Kein 1080p bei PS3, ungefähr auf Level der 360", so wie es Carmack später auch schnell offiziell sagte.
Aber was solls, kommt am Ende eh anders als wir denken ^^
 
die xbox 3 und ps 4 brauchen keine monströse pc einzelteile um das was auf der xbox 360 und ps 3 möglich ist um ein vielfaches zu überbieten
es wurde mehrmals auf beyond 3 d und im gaf geschrieben dass man die gpu der xbox 3 nicht in tf werte einschätzen kann
eine 1.2 tf gpu in einer konsole ist auch nicht mit einer 1.2 tf gpu des pc gleich zu setzen denn durch die konsolenarchitektur kann man weit mehr rausholen
irgendwie wird es auch hier immer klarer dass es den meistens nicht um ein generationsprung in sachen grafik und technik geht sondern darum wie viel die neuen konsolen an tf haben und wie gut sie im vergleich zum pc darstehen werden ( was absolut lächerlich ist )
auf den next gen konsolen werden spiele in qualität der neusten techdemos möglich sein aber anscheinend ist das für manche nicht gut genug
Lies Nullpointers Post von vor ein paar Seiten. :ugly:

GPUs kann man auf Konsolen eben nicht wirklich besser auslasten. Selbst am PC laufen GPUs nahe ihres theoretischen Maximums. Der Trick ist mit möglichst wenigen Berechnungen möglichst gute Ergebnisse zu bekommen, diese Art von Optimierung ist aber nicht von der Plattform abhängig. Wenn du diesen Faktor verbesserst laufen alle Versionen schneller. Wenn eine gewisses Feature nicht mehr weiter optimiert werden kann und x FLOPs braucht um glaubwürdig simuliert zu werden, dann läuft es auch auf keiner Konsole wenn sie nicht ebenfalls x FLOPs liefert, egal wie sehr das jemand gerne möchte.

Aus CPUs hingegen kann man durch Optimierungen sogar mächtig Performance herausholen, weil die tatsächliche Auslastung bei breit gemischten Workloads bei nicht einmal 50% liegt. Die meiste Zeit über warten CPUs auf Event Y um endlich weiterrechnen zu können, solche Latenzen machen einen riesigen Teil der gesamten Laufzeit aus. Durch eine intelligente Organisation von Datenbewegungen kann man das oft vermeiden und wegen der unterschiedlichen Architekturen ist das auch oft spezifisch für jede Plattform notwendig. GPUs haben das Problem gar nicht weil sie durch ihre massive Parallelität Latenzen sehr gut verstecken können.

Der gesamte PC-Ballast (OS, APIs, etc.) wird außerdem komplett von der CPU berechnet, die GPU ist auch am PC quasi Ballast-frei. Deshalb sollte man auch von Latenz-optimierten Prozessoren und Durchsatz-optimierten Prozessoren reden, anstatt von CPUs und GPUs. Wächst in Zukunft eh zusammen und die CPU ist dann eben nicht mehr so central und die GPU nicht mehr nur für graphics. ;-)
 
Zuletzt bearbeitet:
Agni´s Philosophy war n nettes Realtime Renderfilmchen, die Figurendemo sah top aus, aber wirkte unfassbar statisch, ich mein die schwebte da wie festgetackert rum, und der drehte die Kameraperspetive, und spielte mit dem Licht, bei der figur selbst war alles starr, Alles, wie ne Plastikpuppe, könnte mir vorstellen, das das ingame nicht so aussieht, denn das sah ja schon sowas von raytraysisch :lol: aus, aber ihr wisst ja ich bin hoffnungsloser Träumer. :lol:
 
Da hab ich ja Glück dass mir 1313 und Watch Dogs fast schon reicht. Wäre für den Anfang schon sehr spektakulär und Sony kitzelt aus ihren Konsolen bekanntlich noch viel mehr heraus.
Bei Agni's Philosophy bin ich noch skeptisch wie das Resultat im Spiel aussehen wird.

Es geht doch garnicht darum :( :coolface: Es geht einfach um den technischen Aspekt. Es wäre wenn so kommen würde eher ernüchternd(auch auf einen 10 Jahreszyklus bezogen). Zum Anderen hat @Coda sehr sehr schnell bzw. sehr früh erkannt, dass wenn man jetzt gescheite Technik verbaut, so ist man sehr lange durch die Optimierung der Software(Spiele) an der Hardware UptoDate. Denn die Leistungssteigerung bei den kleinen Verfahren also 20/14 usw.. wird immer geringer und es dauert immer länger. Daher hat man eigentlich die Trümpfe in der Hand lange UpToDate zu sein und zudem ist einfach die Leistung heute da. Man muss sie sich nur nehmen^^ Ich beziehe mich auf GPU^^ Denn CPU ist ein anderer Hut und gibt mehr Möglichkeiten her^^
 
Zuletzt bearbeitet:
Ja, aber wenn einen das nicht beeindruckt, dann hasst man die NextGen weil sie nicht mehr bieten wird als diese Videos, oder wie?

Man kann immer nur über die Anfänge reden. Das am Ende dann doch mehr drin ist, dürfte jedem klar sein. Das hat jede Generation bisher gezeigt. Es gab bereits immer am Anfang jeder neuen Gen einen Sprung und mit der Zeit wurde dieser immer größer.
 
Man kann immer nur über die Anfänge reden. Das am Ende dann doch mehr drin ist, dürfte jedem klar sein. Das hat jede Generation bisher gezeigt. Es gab bereits immer am Anfang jeder neuen Gen einen Sprung und mit der Zeit wurde dieser immer größer.

Wieso ist bei der Wii U jetzt schon dann das "Limit" erreicht laut euch? :-?
 
Lies Nullpointers Post von vor ein paar Seiten. :ugly:

GPUs kann man auf Konsolen eben nicht wirklich besser auslasten. Selbst am PC laufen GPUs nahe ihres theoretischen Maximums. Der Trick ist mit möglichst wenigen Berechnungen möglichst gute Ergebnisse zu bekommen, diese Art von Optimierung ist aber nicht von der Plattform abhängig. Wenn du diesen Faktor verbesserst laufen alle Versionen schneller. Wenn eine gewisses Feature nicht mehr weiter optimiert werden kann und x FLOPs braucht um glaubwürdig simuliert zu werden, dann läuft es auch auf keiner Konsole wenn sie nicht ebenfalls x FLOPs liefert, egal wie sehr das jemand gerne möchte.

Aus CPUs hingegen kann man durch Optimierungen sogar mächtig Performance herausholen, weil die tatsächliche Auslastung bei breit gemischten Workloads bei nicht einmal 50% liegt. Die meiste Zeit über warten CPUs auf Event Y um endlich weiterrechnen zu können, solche Latenzen machen einen riesigen Teil der gesamten Laufzeit aus. Durch eine intelligente Organisation von Datenbewegungen kann man das oft vermeiden und wegen der unterschiedlichen Architekturen ist das auch oft spezifisch für jede Plattform notwendig. GPUs haben das Problem gar nicht weil sie durch ihre massive Parallelität Latenzen sehr gut verstecken können.

Der gesamte PC-Ballast (OS, APIs, etc.) wird außerdem komplett von der CPU berechnet, die GPU ist auch am PC quasi Ballast-frei. Deshalb sollte man auch von Latenz-optimierten Prozessoren und Durchsatz-optimierten Prozessoren reden, anstatt von CPUs und GPUs. Wächst in Zukunft eh zusammen und die CPU ist dann eben nicht mehr so central und die GPU nicht mehr nur für graphics. ;-)

Was du schreibst ist vollkommen richtig. PC Grafikkarten können, solange die CPU nicht als Bremsklotz fungiert, bis auf wenige Prozente ihr volles Potential auch ausspielen.
Ich denke aber, ohne die relativ schwache Konsolentechnik würden viele Spiele bei gleicher Optik wesentlich mehr Power benötigen. Die begrenzten Ressourcen zwingen die Entwickler, immer nach neueren Ressourceschonenderen Verfahren zu suchen, um die grafische Pracht trotz gleichgebliebener Hardware zu erhöhen.

Gäbe es keine Konsolen könnten die Entwickler einfach so wie Crytek mit Crysis eins ein Game entwickeln, was zum Verkaufsstart eigentlich auf keinem PC mit maximalen Details flüssig läuft. Durch Aufrüstung wird das eben irgend wann auf genügend Kisten laufen.
Ich finde es erstaunlich, was man heute noch aus einer GPU mit gut 200Gflops rausquetschen kann, wenn man keine andere Wahl hat. GTA V wird da sicherlich noch einmal zum Staunen anregen oder auch nach der neuesten Meldung Star Wars 1313 auf der PS3. Oder auch TLOU oder Beyound.

Ich gehe von ca. 2TF bei der GPU Leistung der Next Gen aus. Eventuell etwas weniger oder etwas mehr. Mit kleinem Vorteil für die PS3. Damit ist meiner Ansicht nach schon eine Menge drin.
Wie gesagt, nicht aufgrund der Ausreizung der GPU, die eben nicht größer sein wird als beim PC, einfach durch neue Techniken. So werden Grafiken, die heute eine 3TF GPU benötigen in Zukunft von diesen 2TF Konsolen mühelos dargestellt und sogar übertroffen werden.

Dass der PC GPU Zug nicht plötzlich zum Stillstand kommt, ist sonnenklar. Somit wird der reine Flopabstand zwischen diesen Karten und den Konsolen GPUs auch weiterhin ständig ansteigen. Wenn sie etwas mehr Leistung spendiert bekommen als von mir erwartet, passiert das eben alles etwas langsamer. Aber es passiert und ist nicht abzuwenden.

Eine Wii-U Situation wäre aber selbstverständlich inakzeptabel, da gibts nichts dran zu rütteln. Aber so weit wird es 100pro nicht kommen :)
 
Zuletzt bearbeitet:
Wieso ist bei der Wii U jetzt schon dann das "Limit" erreicht laut euch? :-?

Wie gesagt, mit jeder neuen Gen war ein Sprung bereits sichtbar. Bei der WiiU, die ja die neue Gen "einläutet", geht leider in die andere Richtung. Die Konsolen hat Probleme, CurrentGen power hin zu bekommen. Daher mache ich mir da nicht wirklich viel Hoffnung, zumal Nintendo scheinbar keine Ahnung von Hardware hat.
 
Ich sags doch, hier sind seit paar Wochen irgendwelche Trolle unterwegs, die jeden Tag Bullshit posten. Seit Wochen gibts täglich "Gerüchte und Leaks", von wegen. :rofl3:

Das wird dann aber wiederum stimmen, da braucht man nicht hellsehen können. :)

Klar, ich seh jetzt schon tausende von Beschwerden: "Ich habe meine Xbox über dem TV montiert um Kinect 2.0 nutzen zu können, aber sie ist runtergefallen! Hilfe!"

Kinect IST und BLEIBT eine sparate Hardeware die man zusätzlich kaufen kann.

Achja, bezüglich der TF Werte:

Laut Sony hat die PS3 auch 2TF ;)
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom