ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

ist auch die fe. die normale hat 10.1 mit turbo etwas mehr

Es ist die Normale. Alle Tests werden mit der FE gemacht, es ist die offizielle nVidia GPU, die immer für Tests und Vergleiche genommen wird, man nimmt keine Customer dafür. Aber spielt auch keine Rolle, weil es in dem besagten Videos genau jene GPU's sind und meine Zahlen dem Unterschied bestmöglich zeigen.
 
?
SSD Speed ist auch immer nutzbar

Was ist das für ein Argument?

Es geht darum das Multigames bei diesem Unterschied der GPU noch weniger sichtbare Unterschiede haben werden als es bei Ps4 vs Xbox war, wo der Unterschied mehr als das doppelte betrug

Andersrum werden Multis nicht das volle Potential der Sony SSD nutzen, da ist der kleinste gemeinsame Nenner dann die Xbox 4 SSD

Voll Ausgereizt werden Systeme immer nur von Exclusives oder bezweifelst du das nun?

Es ging um das Gamedesign^^
GPU Power und Bandbreite sind auch für Multis voll nutzbar, da gibt es keine Einschränkungen und hat auch nix mir nur Exklusive zu tun.
 
Es ist die Normale. Alle Tests werden mit der FE gemacht, es ist die offizielle nVidia GPU, die immer für Tests und Vergleiche genommen wird, man nimmt keine Customer dafür. Aber spielt auch keine Rolle, weil es in dem besagten Videos genau jene GPU's sind und meine Zahlen dem Unterschied bestmöglich zeigen.
auf der anderen seiten wird die 10.1 angegeben. bei wiki auch

ist auch egal

Wie gesagt, eine 2070S zu 2080S sind 2TF
quatsch mit soße. 2tf sind also bei 100 zu 98tf (übertrieben) gleichzusetzen wie 1 zu 3 tf? das verhätnis in em von mir gezeigten video passt schon, vor allem, weil ich davor noch ein ~ gesetzt habe.
 
Zuletzt bearbeitet:
Es ging um das Gamedesign^^
GPU Power und Bandbreite sind auch für Multis voll nutzbar, da gibt es keine Einschränkungen und hat auch nix mir nur Exklusive zu tun.


Nutzbar ist alles für jeden, das ist ja nicht der Punkt

Der Punkt ist ob man ein Spiel ohne Rücksicht auf andere Specs entwickeln kann oder ob man 3, 4, 5, 6 andere Geräte berücksichtigen muss

Besonders am Anfang der Gen werden auch Ps4 und X1 noch ein limitierender Faktor sein

Richtige Ps5 bzw Xbox 4 Exclusives sind nötig um das volle HW Potential entfalten zu können


Man kann natürlich weiter Current Gen Games entwickeln und dann auf 8k120fps Schrauben
Das wäre dann aber ne ziemlich arme Next Gen
 
Das mit dem normalen Takt, welcher nun mal vorhanden ist, da es sonst keinen Turboboost geben würde

Der normale Takt ist 2.23Ghz und sie geht von dem runter wenn die GPU die Leistung nicht braucht und nicht hoch, wie oft den noch :rolleyes:
Und selbst wenn die CPU 10% runter müsste, was sie aber laut Cerny nicht muss, sondern das Power Limit, hat man nur den unterschied bei CPu wie es schon immer bei ONE und PS4 war. Und in 4K eh scheiß egal, da die GPU bremsen wird vorher in den meisten fällen und von daher werden sich eh die meisten Devs so wie Dictator aus Gesprächen mit solchen her raus gehört hat, für volle GPU Power und bei bedarf weniger CPU entscheiden.
 
auf der anderen seiten wird die 10.1 angegeben. bei wiki auch

ist auch egal

Auf was willst du hinaus ?? Es gibt keine Referenz von Turing(die Ref-Editionen sind Customer mit unterschiedlichen Takten und PowerTarget+Kühlern), die normale Referenz von nVidia ist die FE-Edition und damit machen die ganzen Seiten und auch Youtuber die Vergleiche. Ich habe mich darauf bezogen und habe die Werte dem entsprechen aufgezeigt. Dein Youtube-Vergleich entspricht nichts anderem als 2080 FE zu 2080 S :)
quatsch mit soße. 2tf sind also bei 100 zu 98tf (übertrieben) gleichzusetzen wie 1 zu 3 tf? das verhätnis in em von mir gezeigten video passt schon, vor allem, weil ich davor noch ein ~ gesetzt habe.

Ich habe dir doch extra dazu die % angegeben. Und dir auch gesagt, dass es ungefähr passt, da man nicht die perfekten Differenzen bei den GPU's finden kann. 2070 S zu 2080S = 20% (bei Konsolen 18%), 2060 S zu 2080 = 37% (bei Konsolen 32%)

Der normale Takt ist 2.23Ghz und sie geht von dem runter wenn die GPU die Leistung nicht braucht und nicht hoch, wie oft den noch :rolleyes:
Und selbst wenn die CPU 10% runter müsste, was sie aber laut Cerny nicht muss, sondern das Power Limit, hat man nur den unterschied bei CPu wie es schon immer bei ONE und PS4 war. Und in 4K eh scheiß egal, da die GPU bremsen wird vorher in den meisten fällen und von daher werden sich eh die meisten Devs so wie Dictator aus Gesprächen mit solchen her raus gehört hat, für volle GPU Power und bei bedarf weniger CPU entscheiden.

Du weißt selbst, dass die CPU's bei dem niedrigen Takt 3,5 nicht viel schlucken, die Frage ist nun, wie viel Watt braucht die GPU um auf 2,23Ghz zu bleiben, weil diese Wattzahl von der CPU entnommen wird. Daher mal gucken wo der Takt bei der GPU überproportional viel nimmt und wie viel der CPU-Takt ist. Man weiß aber das RDNA2 wohl gut takten wird können aber mal gucken wo da die Grenze ist.
 
Zuletzt bearbeitet:
Du weißt selbst, dass die CPU's bei dem niedrigen Takt 3,5 nicht viel schlucken, die Frage ist nun, wie viel Watt braucht die GPU um bei 2,23Ghz zu bleiben, weil diese Wattzahl von der CPU entnommen wird. Daher mal gucken wo der Takt bei der GPU überproportional viel nimmt. Man weiß aber das RDNA2 wohl gut takten wird können aber mal gucken wo da die Grenze ist.


Wenn die CPU mit Volldampf, allen 16 Threads und ausgelasteten AVX Einheiten wird auch seinen beträchtlichen Teil zur Leistungsaufnahme beitragen. Interessiert mich sowieso, wie sich dies in Zukunft gestaltet. Der Ausnutzungsgrad der CPU wird mit der Zeit steigen (bessere Ausnutzung der Threads, Caches, AVX), dann wird auch die Leistungsaufnahme der CPU steigen. Entweder wird der GPU um Laufe der Zeit mehr "entnommen", oder der Spielraum ist groß genug.
 
Der normale Takt ist 2.23Ghz und sie geht von dem runter wenn die GPU die Leistung nicht braucht und nicht hoch, wie oft den noch :rolleyes:
Und selbst wenn die CPU 10% runter müsste, was sie aber laut Cerny nicht muss, sondern das Power Limit, hat man nur den unterschied bei CPu wie es schon immer bei ONE und PS4 war. Und in 4K eh scheiß egal, da die GPU bremsen wird vorher in den meisten fällen und von daher werden sich eh die meisten Devs so wie Dictator aus Gesprächen mit solchen her raus gehört hat, für volle GPU Power und bei bedarf weniger CPU entscheiden.
Aber machen wir uns nix vor.
Der Github Leak war auf dem Punkt
Die PS5 GPU war für die 9.2TF ausgelegt und jetzt wurde zum Kaschieren eben Smart-Shift dazu geschaltet, damit man eben die magischen 10TF überschreiten kann
Was so im Leben, vor den Specs der XSX vorher nicht angedacht war.
Und es existiert vermutlich noch kein finales Gehäuse und Kühllösung, weshalb da auch noch nix präsentiert wurde.

Ich will auch nicht Klugscheißen
Aber von den maximal 10.28 zu 12.15TF der XSX sind nach Adam Riese 18%.
Nur weil hier immer 15% oder auch mal 10% im Raum rumschwirren.
Die 2% Abfall um 10% Leistung einzusparen hat sich auch nur einer ausgedacht und hat Cerny so nie gesagt.
Es werden hundert Pro ein paar Prozentpunkte mehr sein, alles andere wäre komplett komisch.

So liegt man im Schnitt eben 20% drüber, was aber auch nicht so viel ist.
Wollte das nur mal klarstellen, damit wir alle auf dem gleichen Stand sind :)

Trotzdem wird die PS5 maximal nur doppelt so schnell laden. Technisch ist nicht mehr drin. Versteht ihr das nicht? Und das doppelte von 0 Ladezeiten wie Sony proklamiert sind ein paar Millisekunden. Dafür dann aber mit schlechterer Optik. Wie man sich daran so aufgeilen kann ist mir unverständlich. Aber wenn man nix anderes hat klammert man sich an den letzten Strohhalm der Hoffnung verspricht.

Ein Spiel dss 30 Sekunden lädt wird es mit einer SSD ohnehin nicht geben. Da limitiert dann längst die restliche Hardware.

Nur mal so nachgefragt.
Du hast aber jetzt nicht mich in deinem Kommtar damit gemeint oder?
 
Nutzbar ist alles für jeden, das ist ja nicht der Punkt

Der Punkt ist ob man ein Spiel ohne Rücksicht auf andere Specs entwickeln kann oder ob man 3, 4, 5, 6 andere Geräte berücksichtigen muss

Besonders am Anfang der Gen werden auch Ps4 und X1 noch ein limitierender Faktor sein

Richtige Ps5 bzw Xbox 4 Exclusives sind nötig um das volle HW Potential entfalten zu können


Man kann natürlich weiter Current Gen Games entwickeln und dann auf 8k120fps Schrauben
Das wäre dann aber ne ziemlich arme Next Gen

Nein Bond du hast behauptet die GPU Power wäre nicht nutzbar für Thirds das ist Quatsch und schon eine andere Sache ggü. SSD speed @ Design ^^
 
Die GPU alleine verbraucht sicher schon so viel, das die mit ~50Mhz genug power raus nehmen kannst und bei der CPU werden es vielleicht 200Mhz pro Core sein. Und wie gesagt, sollte mal so ne "worst case scene" kommen für die GPU/CPU, würde sie eh die CPU bremsen und der takt geht dort runter.
 
Die GPU alleine verbraucht sicher schon so viel, das die mit ~50Mhz genug power raus nehmen kannst und bei der CPU werden es vielleicht 200Mhz pro Core sein. Und wie gesagt, sollte mal so ne "worst case scene" kommen für die GPU/CPU, würde sie eh die CPU bremsen und der takt geht dort runter.

Meinst du?
Die GPU ist doch viel variabler? Ich gehe aktuell eher davon aus, dass der GPU Takt gesenkt wird, wenn die CPU auf Volldampf läuft.
 
Wenn die CPU mit Volldampf, allen 16 Threads und ausgelasteten AVX Einheiten wird auch seinen beträchtlichen Teil zur Leistungsaufnahme beitragen. Interessiert mich sowieso, wie sich dies in Zukunft gestaltet. Der Ausnutzungsgrad der CPU wird mit der Zeit steigen (bessere Ausnutzung der Threads, Caches, AVX), dann wird auch die Leistungsaufnahme der CPU steigen. Entweder wird der GPU um Laufe der Zeit mehr "entnommen", oder der Spielraum ist groß genug.

Ja, dass stimmt, also 256-AVX haut schon richtig rein, da hast du recht. Ja, das frage ich mich auch, daher wird es interessant, wenn wir mehr Infos dazu bekommen. Den die Watt-Zahl bzw. TDP ist schließlich begrenzt.

@Conso
Ja, das ist halt die Frage. Da bin ich gespannt, was dazu gesagt wird.
 
Aber machen wir uns nix vor.
Der Github Leak war auf dem Punkt
Die PS5 GPU war für die 9.2TF ausgelegt und jetzt wurde zum Kaschieren eben Smart-Shift dazu geschaltet, damit man eben die magischen 10TF überschreiten kann

Der letzte Github leak war mit 2Ghz von Juni 2019 und der davor mit 1.8Ghz von april? oder so und nur weil Sony nach dem Leak aufgehört hat öffentlich zu testen, bedeutet nicht das sie nicht so weit wie es geht nach oben wollten xD Der test mit 2.23 wurde einfach nicht mehr gefunden weil nicht mehr öffentlich gemacht.
Denn wäre er es, hätte die PS5 schon die ganze Zeit 10TF :nix:
Bei smart shift hat man einfach AMDs neuste Technik für Gaming APUs genommen und sicher nicht um schnell an die Xbox TF zu kommen, denn 100% war es schon bei den 1.8GHz an Bord. Das teil soll einfach so hoch laufen wie es geht und wenn Leistung nicht gebraucht wird, was jeden neuen frame passiert wie wir vom PC wissen und da sich eine GPU langsam auf heizt, kann hat maximale power garantiert werden ohne das die Lüfter ständig am Anschlag sind.

Meinst du?
Die GPU ist doch viel variabler? Ich gehe aktuell eher davon aus, dass der GPU Takt gesenkt wird, wenn die CPU auf Volldampf läuft.

für smart shift ist sie variabler, da ne GPU selten 100% erreicht und ständig schwankt. Hast du aber situationen mit vielen Alpha effekten wie die se Gen in BF z.b wo selbst eine Jaguar gebremst wurde durch die GPU weil sie auf 100% war, denke ich das dann der CPU takt runter geht.

Das hat Dictator ja auch zu einem geschrieben und er hat mit paar Devs die auf der PS5 arbeiten drüber gesprochen, da sie klarheit wollten nach dem reveal.

Devs will choose whether they want full Power to gpu or full Power to CPU where one or the other underclocks below the listed spec. So a game to game Basis. I imagine most cross gen games will choose to prefer higher clocked gpu Mode as they will be gpu bound even if the Zen cores are underclocked. Zen just runs around the Jag that most cross gen games are not going to worry about CPU time, especially 30 fps games.

That is how it works.

die 10.2TF werden sich devs nehmen wenn sie sie brauchen und sonst macht smartshift die balance wie es gerade ausgelastet wird.
 
Zuletzt bearbeitet:
Der letzte Github leak war mit 2Ghz von Juni 2019 und der davor mit 1.8Ghz von april? oder so und nur weil Sony nach dem Leak aufgehört hat öffentlich zu testen, bedeutet nicht das sie nicht so weit wie es geht nach oben wollten xD Der test mit 2.23 wurde einfach nicht mehr gefunden weil nicht mehr öffentlich gemacht.
Denn wäre er es, hätte die PS5 schon die ganze Zeit 10TF :nix:
Bei smart shift hat man einfach AMDs neuste Technik für Gaming APUs genommen und sicher nicht um schnell an die Xbox TF zu kommen, denn 100% war es schon bei den 1.8GHz an Bord. Das teil soll einfach so hoch laufen wie es geht und wenn Leistung nicht gebraucht wird, was jeden neuen frame passiert wie wir vom PC wissen und da sich eine GPU langsam auf heizt, kann hat maximale power garantiert werden ohne das die Lüfter ständig am Anschlag sind.

Sony hätte ganz einfach sagen sollen, (Achtung nur zur Veranschaulichung) bei 3,5Ghz CPU = 2Ghz GPU, oder 2,23 Ghz GPU = 3,0 Ghz. Bzw. bei max. CPU-Last, wie viel GPU-Last übrig bleibt und anders rum. Damit wüßte man ganz genau Bescheid
 
Aber so viel wird die nie runter müssen, wenn man sieht das ne 5700XT bei 2100mhz schon fast 100% mehr verbraucht hat ;)
Die 2Ghz nimmt nur jeder weil Sony das mal in der E0 version getestet hat als Max clockt und hat nix mit den 10% Power Target zu tun.
 
Aber so viel wird die nie runter müssen, wenn man sieht das ne 5700XT bei 2100mhz schon fast 100% mehr verbraucht hat ;)
Die 2Ghz nimmt nur jeder weil Sony das mal in der E0 version getestet hat als Max clockt und hat nix mit den 10% Power Target zu tun.

Sie sollen einfach Klarschiff machen und gut ist. Mehr will man doch nicht als Technikfan^^
 
Sie sollen einfach Klarschiff machen und gut ist. Mehr will man doch nicht als Technikfan^^

Haben sie doch, sie läuft so gut wie immer auf 2.23Ghz :verwirrt: "most of its time" daher geben sie auch "capped" an im spec sheed.
Du kannst doch keine angaben machen für jedes Prozent was die GPU gerade nicht ausgelastet wird wen du SS hast, das wechselt doch wie gesagt per frame.
 
Haben sie doch, sie läuft so gut wie immer auf 2.23Ghz :verwirrt: "most of its time" daher geben sie auch "capped" an im spec sheed.
Du kannst doch keine angaben machen für jedes Prozent was die GPU gerade nicht ausgelastet wird wen du SS hast, das wechselt doch wie gesagt per frame.
Und die CPU läuft dann auif wie viel?? Da beide nicht gleichzeitig Max-Takt haben können, da TDP nicht für beide ausreicht. Sprich, daher mein vorheriger Post, wie viel braucht die CPU bei Max und wie viel hat dann z.B die GPU als Takt.

@Xyleph
Hab mir jetzt AVX angeschaut, OK, Prime95 ist auch brutal aber schau dir dem Verbrauch einer 3700X(nicht vergessen die geht von3,6Ghz und geht mit Tubro bis 4,4Ghz) an^^(Du muss etwas runter scrollen, also sind es etwa 90Watt)
 
Zuletzt bearbeitet:
Zurück
Top Bottom