ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Was ich schade finde, ist dass niemand über die K.I. in Games spricht. Dort sollte es mal einen Sprung geben und nicht mit RayTracing scheiss. Klar, man spielt immer mehr online mit echten Menschen aber ein Gears oder Uncharted mit intelligenten Gegnern, würde nicht schaden.
 
Was ich schade finde, ist dass niemand über die K.I. in Games spricht. Dort sollte es mal einen Sprung geben und nicht mit RayTracing scheiss. Klar, man spielt immer mehr online mit echten Menschen aber ein Gears oder Uncharted mit intelligenten Gegnern, würde nicht schaden.
Die KI ist eigentlich nicht das Problem, du konntest selbst mit der Last gen KIs programmieren, die aber jedem Menschen deutlich überlegen wäre, durch umlaufen des Spielers etc. Das will man aber auch nicht. Deshalb sucht man meist den MIttelweg, die meisten Gamer nicht zu frustrieren. Man will schließlich massenkompatibel sein
 
Die KI ist eigentlich nicht das Problem, du konntest selbst mit der Last gen KIs programmieren, die aber jedem Menschen deutlich überlegen wäre, durch umlaufen des Spielers etc. Das will man aber auch nicht. Deshalb sucht man meist den MIttelweg, die meisten Gamer nicht zu frustrieren. Man will schließlich massenkompatibel sein

Ne, dieses Argument lasse ich nicht gelten. Für was gibt es Schwierigkeitsgrade?
 
Ne, dieses Argument lasse ich nicht gelten. Für was gibt es Schwierigkeitsgrade?
Die meisten Entwickler sind dabei faul, erhöhen einfach die gegner anzahl, machen aus den Feinden schlucknutten und teilen mehr aus. Trotzdem ist es kein Problem eine gescheite KI zu bringen. Da gabs irgendwo mal ein Interview zu, muss ich morgen mal raussuchen
 
Die meisten Entwickler sind dabei faul, erhöhen einfach die gegner anzahl, machen aus den Feinden schlucknutten und teilen mehr aus. Trotzdem ist es kein Problem eine gescheite KI zu bringen. Da gabs irgendwo mal ein Interview zu, muss ich morgen mal raussuchen
Gute KI heißt halt im Spielekontext nicht einfach starke KI. Letzteres wäre natürlich extrem einfach und auch derzeit schon locker möglich gewesen. Aber eine wirklich glaubhafte KI, die in vielen verschiedenen Szenarien glaubhaft klug und innerhalb menschlicher Fähigkeiten agiert, ist mit Sicherheit extrem schwierig umzusetzen.
 
Was ich schade finde, ist dass niemand über die K.I. in Games spricht. Dort sollte es mal einen Sprung geben und nicht mit RayTracing scheiss. Klar, man spielt immer mehr online mit echten Menschen aber ein Gears oder Uncharted mit intelligenten Gegnern, würde nicht schaden.

Hat MS doch mit DirectML. Das ML steht für Machine learning.
Dafür können außer den 24TF mit 16bit auch noch zusätzlichh 49TOPS in 8bit oder 97TOPs in 4bit verwendet werden.

Hier der entsprechende Abschnit aus der FAQ von MS zur XSX
DirectML

Xbox Series X unterstützt Machine Learning in Spielen mit DirectML. DirectML ist Teil von DirectX und nutzt die hohe Hardwareleistung der Xbox Series X und profitiert von über 24 TFLOPS bei 16-bit-Float Performance Berechnungen und mehr als 97 TOPS (Billion Berechnungen pro Sekunde) bei 4-bit Integer Berechnungen. Machine Learning kann viele Bereiche in Spielen verbessern, wie z.B. die Intelligenz von NPCs, beim Anzeigen von lebensechteren Animationen oder bei der Verbesserung der Grafikqualität.

Hier die Seite mit den gesamten FAQs
https://news.xbox.com/de-de/2020/03/16/xbox-series-x-technologie-duden/
 
Andererseits kann ich mir auch nicht vorstellen, dass MS nicht
A) ebenfalls Entwicker gefragt hat
B) sie nicht ausgelotet haben, welche Geschwindigkeit eine SSD haben muss, um eben keine Ladezeiten und Pop ups /ins haben zu müssen.

Was ich eben schon ewig meine, MS brauch mit selben specs auf dem Papier erst recht nicht kommen und muss ihre schiene jetzt weiter fahren wie mit der X um wenigstens diese Leute nicht zu verlieren.
Was sollen sie mit auf dem Papaier selben specs gegen den Namen Sony machen der mit 110Mio spielern dahinter steht?
Jetzt haben sie halt das Geld so investiert und einen Preispunkt gewählt von dem sie dachten sie würden sich abheben und Sony nicht mit gehen.
Sony hat eine ganz andere strategie und möchte ihre Konsolen absetzten so schnell es wieder nur geht und ihre 100Mio Kunden glücklich machen und das werden sie so, da kannst du gift drauf nehmen.
Mir hätte zwar ne 4,5GB/s ssd gereicht(mehr hab ich garnicht erwartet) und lieber 18 oder 20GB Ram gesehen, aber jetzt wurde man immerhin bei der SSD noch überrascht ;)
Und dem takt xD

Anderer seits brauch MS jetzt halt lockhart wie es scheint und das brauch Sony nicht ;) ihre devs entwickeln mit so ner SSD als basis und da bin ich gespannt drauf.
 
MS braucht Lockhart?
Das wohl nicht.
Was meinst du genau?
Die PS5 hat Power Managment. Das ist (oder wird ?) in den neuen AMD Karten Standard.
Kein klassischer Boostmodus
Kein klassischer Boost, aber ein Boost.
Bisher gab es die Aussage, das macht man bei Konsolen nicht. Explizit "hat in Konsolen nichts zu suchen".
Davon ging ich übrigens auch aus, bei aktuellen Spielen merke ich kaum vorteile meiner 4000MB/s NVME, allerdings habe ich jetzt Windows draufgespielt und WTF... Schalte den PC ein, die SSD bootet ca. 7 sekunden nachdem das BootLogo vom Bios verschwindet. Die NVME allerdings... 1 Sekunde ca. total irre.

Wenn Spiele in Zukunft darauf optimiert werden, wirds wohl wirklich keine Ladezeiten mehr geben.
Gut, Win bootet nicht in 10GB rein und Online wartet man noch auf die Server.
Aber ja wir reden nur noch von wenigen Sekunden.
 
Laut AMD ist smart shift nice und ein vorteil den sie gegenüber NV haben werden laut ihnen :D
Das die PS5 im worst case die Temperatur der APU regeln muss nicht imo. Was ja nicht 10% takt wird, verstehen nur manche nicht.
Die APU läuft aber standart mäßig sonst immer mit höchstem takt und daher "capped" und kein boost wie man es vom PC kennt.
Wird wohl wie wenn du in benchmarks von DF 98% 30 oder 60fps hast und ab und zu dips imo.
Ich sehe es so, lieber hab ich selbst 90% 2.2GHz auf ner 36CU APU (was schon verrückt ist xD ) statt immer 2.0GHz bei 36CU ;)
 
Die KI ist eigentlich nicht das Problem, du konntest selbst mit der Last gen KIs programmieren, die aber jedem Menschen deutlich überlegen wäre, durch umlaufen des Spielers etc. Das will man aber auch nicht. Deshalb sucht man meist den MIttelweg, die meisten Gamer nicht zu frustrieren. Man will schließlich massenkompatibel sein

Na ja, aber siehe einfach mal Uncharted oder auch GoW. Anstelle viele (meist nur bedingt clevere) Gegner einzusetzen, könnte man auch schlicht weniger Gegner nehmen, die dafür aber clever. Und auch nicht mit "ich muss halt drei mal drauf schießen", sondern realistischen Trefferzonen. Was der Spieler selbst aushält kann man dann ja mit dem Schwierigkeitsgrad regeln oder dann eben wieder die Gegnerzahl hochschrauben etc., da gäbe es schon Lösungen.

Oder gerade auch bei Strategiespielen, überall wird Künstliche Intelligenz hochgelobt, in Smartphones und was weiß ich, hier wo man direkt einen "praktischen" Einsatzzweck hätte, tut sich kaum was...
 
Laut AMD ist smart shift nice und ein vorteil den sie gegenüber NV haben werden laut ihnen :D
Das die PS5 im worst case die Temperatur der APU regeln muss nicht imo. Was ja nicht 10% takt wird, verstehen nur manche nicht.
Die APU läuft aber standart mäßig sonst immer mit höchstem takt und daher "capped" und kein boost wie man es vom PC kennt.
Wird wohl wie wenn du in benchmarks von DF 98% 30 oder 60fps hast und ab und zu dips imo.
Ich sehe es so, lieber hab ich selbst 90% 2.2GHz auf ner 36CU APU (was schon verrückt ist xD ) statt immer 2.0GHz bei 36CU ;)
Ist halt umgekehrter Boost, also nicht rauf bei Bedarf, sondern runter.
Meine hier natürlich im Konsolenkontext. Da bestand ja noch vor Kurzem die Meinung das wäre nichts dafür und auch doof für Entwickler.
Aber ja es ist anscheinend nicht viel was korrigiert wird. Viel merken dürfte man nicht.

Btw:
 
Laut AMD ist smart shift nice und ein vorteil den sie gegenüber NV haben werden laut ihnen :D
Das die PS5 im worst case die Temperatur der APU regeln muss nicht imo. Was ja nicht 10% takt wird, verstehen nur manche nicht.
Die APU läuft aber standart mäßig sonst immer mit höchstem takt und daher "capped" und kein boost wie man es vom PC kennt.
Wird wohl wie wenn du in benchmarks von DF 98% 30 oder 60fps hast und ab und zu dips imo.
Ich sehe es so, lieber hab ich selbst 90% 2.2GHz auf ner 36CU APU (was schon verrückt ist xD ) statt immer 2.0GHz bei 36CU ;)
Also so ganz bin ich von Cernys Aussage noch nicht überzeugt.
GPU und CPU haben einen völlig unterschiedlichen Leistungsverbrauch.
Die elektrische Leistung, welche die GPU benötigt dürfte fast zehnmal so hoch sein wie die der CPU.

Wird also die GPU stark belastet, kann sie gar nicht so viel Lesitung von der CPU bekommen, da diese einfach nicht vorhanden ist.
Gehe somit davon aus, dass die GPU nur den hohen Takt solange halten kann, solange sie nicht am Limit läuft.
Der hohe Takt kommt also dann hauptsächlich den restlichen GPU Komponenten zu Gute.

Ob jetzt die CPU mit 3,5GHz taktet oder nur mit 2GHz macht vielleicht einen Unterschied von maximal 10 Watt aus.
Eine Takterhöhugn der GPU von 2GHz zum Maximaltakt von 2,23GHz schlägt aber sicherlich mit weit mehr zu Buche.

Realistisch betrachtet, wird man also die maximale TF Zahl von 10,28 so gut wie nie erreichen.
Das hat Cerny auch geschickt umschifft.

Du sagst es ja selber. Nicht der Takt bestimmt allein die Leistung an sich, sondern der Takt in Kombination mit der Auslastung der jeweiligen Einheit.
Die GPU mag also mit 2.23Ghz bei normaler Auslastung laufen. Dann berechnet sie aber in dem Moment keine 10TF.
Schießt die Auslastung hoch, muss der Takt runtergehen und auch dann kommt sie eben nicht auf 10TF
Sollte die CPU Däumchen drehen, kann sich die GPU natürlich hier mehr Watt reinziehen.
Aber wie erwähnt, ist eben das Budget an elektrischer Leistung, was die CPU dann "abgeben" kann, um einige Größenordnungen niedriger als umgekehrt.

Man weiß natürlich nicht, wie
A) die maximale Gesamtverlustleistung der APU sein darf
B) wie hoch die GPU Verlustleistung im Maximalfall wäre
C) wie hoch bei der CPU

und somit
D) wie groß die Differenz zwischen Gesamtleistung und der Addition beider maximalen Einzelleistungen ist.

Aus den Werten könnte man dann relativ leicht errechnen, wie sich der Takt je nach Auslastung beider Komponenten verhält.
 
Ist halt umgekehrter Boost, also nicht rauf bei Bedarf, sondern runter.
Meine hier natürlich im Konsolenkontext. Da bestand ja noch vor Kurzem die Meinung das wäre nichts dafür und auch doof für Entwickler.
Aber ja es ist anscheinend nicht viel was korrigiert wird. Viel merken dürfte man nicht.

Btw:

Das Problem beim normalen Boost ist folgendes.
Je nach Umgebung taktet die Komponente hoch oder runter.
Es kommt auf die termische Beanspruchung an.
Man kann nicht vorhersagen, wie die Komponente in einer bestimmten Umgebung sich verhält.
Weiterhin ist dadurch der Boostmodus auch nur auf eine beschränkte Zeit möglich, da ja durch den Boost eben die Temperatur ansteigt.
Das ist bei einer Konsole somit ein NO-GO

Das Leistungsmanagment der neuen Desktop AMD APUs und der PS5 APU verhält sich aber komplett anders.
Man sagt dem System, welche maximale Verlustleistung es haben darf unabhängig von der Temperatur. Darauf muss das Kühlsystem hin entwickelt werden.
Und damit ist ein nachvollziehbares Szenario geschaffen.

Die Gesamtverlsustleistung der APU beträgt z.B. 180 Watt.
Die GPU benöitgt bei vollem Takt und Auslastung davon 170 Watt
Die CPU in dem Beispiel dann 20 Watt.

Dreht die GPU voll auf, bleibt für die CPU nur noch 10 Watt übrig.
Dreht die CPU auf, darf sich die GPU nur noch 160 Watt gönnen.

Könnte aber auch sein, dass die GPU bei voller Auslastung und höchstem Takt schon die 180 Watt erreicht.
Dann wäre natürlich nix mehr für die CPU drin. Die wäre damit sicherlich nicht einverstanden :)
Somit müsste man dann also den Takt runterschrauben, damit die Verlustleistung niedriger ausfällt.


Ist natürlich nur ein Beispiel
Keine Ahnung, wie die genauen Verhältnisse von CPU zu GPU bei der PS5 sind.
 
Ergibt das nur für mich überhaupt keinen Sinn?!?

Die PlayStation 5 wird ein neues System zur Minimierung von Lüftergeräuschen verwenden. Das bestätigt Lead System Architect Mark Cerny in seiner Präsentation The Road to PS5.

Cerny erklärte, dass die Konsole jetzt eine feste Leistung beim Spielen zusammen mit einer "variablen Frequenz" verwenden wird. Dies führt zu einem Kühlsystem, das nicht "hochdreht", denn die Menge der verbrauchten Energie bleibt jetzt immer gleich.



:ugly:
 
Das Problem beim normalen Boost ist folgendes.
Je nach Umgebung taktet die Komponente hoch oder runter.
Es kommt auf die termische Beanspruchung an.
Man kann nicht vorhersagen, wie die Komponente in einer bestimmten Umgebung sich verhält.
Weiterhin ist dadurch der Boostmodus auch nur auf eine beschränkte Zeit möglich, da ja durch den Boost eben die Temperatur ansteigt.
Das ist bei einer Konsole somit ein NO-GO

Das Leistungsmanagment der neuen Desktop AMD APUs und der PS5 APU verhält sich aber komplett anders.
Man sagt dem System, welche maximale Verlustleistung es haben darf unabhängig von der Temperatur. Darauf muss das Kühlsystem hin entwickelt werden.
Und damit ist ein nachvollziehbares Szenario geschaffen.

Die Gesamtverlsustleistung der APU beträgt z.B. 180 Watt.
Die GPU benöitgt bei vollem Takt und Auslastung davon 170 Watt
Die CPU in dem Beispiel dann 20 Watt.

Dreht die GPU voll auf, bleibt für die CPU nur noch 10 Watt übrig.
Dreht die CPU auf, darf sich die GPU nur noch 160 Watt gönnen.

Könnte aber auch sein, dass die GPU bei voller Auslastung und höchstem Takt schon die 180 Watt erreicht.
Dann wäre natürlich nix mehr für die CPU drin. Die wäre damit sicherlich nicht einverstanden :)
Somit müsste man dann also den Takt runterschrauben, damit die Verlustleistung niedriger ausfällt.


Ist natürlich nur ein Beispiel
Keine Ahnung, wie die genauen Verhältnisse von CPU zu GPU bei der PS5 sind.


Ich hab von sowas überhaupt keine Ahnung, aber ist so eine Kühllösung im Vergleich nicht wesentlich teurer? Bzw. klingt das für mich halt alles etwas arg umständlich gelöst.
 
Ergibt das nur für mich überhaupt keinen Sinn?!?

Die PlayStation 5 wird ein neues System zur Minimierung von Lüftergeräuschen verwenden. Das bestätigt Lead System Architect Mark Cerny in seiner Präsentation The Road to PS5.

Cerny erklärte, dass die Konsole jetzt eine feste Leistung beim Spielen zusammen mit einer "variablen Frequenz" verwenden wird. Dies führt zu einem Kühlsystem, das nicht "hochdreht", denn die Menge der verbrauchten Energie bleibt jetzt immer gleich.



:ugly:

Hmm im Umkehrschluss würde das imo auch bedeuten, dass eben so leicht kein fester Wert definiert werde kann was die GPU und CPU Power betrifft.
Das bewegst sich alles zwischen Minimum und Maximum.
 
Zurück
Top Bottom