• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Ich weiß dass die bauen Fanbois jetzt aufschreien werden bei dem Link aber Fakten bleiben Fakten


Einer technischen Analyse zufolge, ist es sogar möglich, bis zu 100 GB Assets direkt von der SSD zu streamen!

Ujjj wieder nur die 100 GB und das von der größten MS fanboi seite.

dazu die schwachsinnige Formulierung "bis zu 100 GB Assets direkt von der SSD zu streamen!" ... genau und die 100GB streamt die XSX wohn in einen 16 GB RAM, ooops sorry 10 GB RAM (weil nur dieser dezidiert für die GPU ist) :uglylol:

Die XSX kann dank der "Velocity Architecture" einen Berich von 100 GB der SSD für dieses "high speed" streaming nutzen.

The form factor is cute, the 2.4GB/s of guaranteed throughput is impressive, but it's the software APIs and custom hardware built into the SoC that deliver what Microsoft believes to be a revolution - a new way of using storage to augment memory (an area where no platform holder will be able to deliver a more traditional generational leap). The idea, in basic terms at least, is pretty straightforward - the game package that sits on storage essentially becomes extended memory, allowing 100GB of game assets stored on the SSD to be instantly accessible by the developer. It's a system that Microsoft calls the Velocity Architecture and the SSD itself is just one part of the system.

Der restliche SSD Plattenbereich wird vom I/O und MemoryController nicht für "high speed" streaming unterstützt ? :angst:

Während bei der Speedstation 5 der volle SSD-Speicherbeireich für ultra high speed streaming unterstützt wird und das doppelt so schnell :kruemel:
 
Zuletzt bearbeitet:
  • Lob
Reaktionen: DuG
Schon lustig wie hier ein eindeutig formuliertes Programm wie Smart Delivery mit "Sony überlässte es den Thirds" oder Cross Buy gleichgesetzt wird.

Ist so ählich wie bei der AK von der PS4 zur Pro und der ONE zur X.
Während bei der X sich MS darum kümmert, dass jedes ONE Game anstandslos ohne weiteres Zutun des Users auf der X läuft und dass dann auch mindestens unter Nutzung der halben X Performance, muss man bei der Pro dieses selber austesten mittels Boost Modus. Dazu bekommt man hier weiterhin nur die halbe GPU Power serviert. Ist aber hier manchem Spezie nach auch das Gleiceh.

Wer bei einem Spiel Smart Delivery angibt, hat sich an strickte Vorgaben zu halten. Er kann nicht plötzlich ein neues Update oder gar neue Version rausbringen, für das man dann wieder zahlen muss. Weiterhin übernimmt auch hier MS alle nötigen distributionellen Schritte. Sie sorgen auch dafür, dass die Konsole eben immer wirklich auch die beste Version zieht. Und man kann weiterhin alle Versionen besitzen. Und es funktioniert mit Disc und Downloadversionen.
Für ihre eigenen Spiele ist SD bereits Pflicht.

Wer glaubt denn, dass ein TLOU2 oder andere First Party Games , wenn es später mal in einer richtig angepassten PS5 Version herauskommen sollte, kostenlos sein wird?
Spreche nicht von einem kleinen Update, dass schon mal die rudimentären neuen Fähigkeiten der PS5 nutzen wird, sondern von einem, was grundlegende Überarbeitungen mit sich bringt.

Auch in der blauen Lagune sollte man froh sein, dass MS so etwas anbietet.
Denn es ist immer gut, wenn sich jemand für die Spieler einsetzt, egal aus welchem Lager.
Das färbt dann natürlich auch auf die anderen Lager ab.
Gerade jetzt, wo beide Konsolen mit ihren Vorgänger prinzipiell AK fähgig sind ist es um so wichtiger klare Rahmenbedingungen für Updates auf die neue Konsole zu schaffen.
Beim PC bezahlt man schließlich auch nicht für Updates, die speziell für neuere Hardware rauskommen.



Ujjj wieder nur die 100 GB und das von der größten MS fanboi seite.

dazu die schwachsinnige Formulierung "bis zu 100 GB Assets direkt von der SSD zu streamen!" ... genau und die 100GB streamt die XSX wohn in einen 16 GB RAM, ooops sorry 10 GB RAM (weil nur dieser dezidiert für die GPU ist) :uglylol:

Die XSX kann dank der "Velocity Architecture" einen Berich von 100 GB der SSD für dieses "high speed" streaming nutzen.



Der restliche SSD Plattenbereich wird vom I/O und MemoryController nicht für "high speed" streaming unterstützt ? :angst:

Während bei der Speedstation 5 der volle SSD-Speicherbeireich für ultra high speed streaming unterstützt wird :kruemel:

Du schreibst schon ein wenig Unsinn.
Die 100GB beziehen sich auf eine normale Spielgröße in der Next-Gen.
Man kann also aufgrund der schnellen SSD auf alles fast so zugreifen, als ob es sich im regulären Hauptspeicher befinden würde. Und das natürlich bei jedem Spiel

Natürlich geht das auch bei der PS5.
Aber der Artikel erschien bereits VOR der PS5 Präsentation. Deshalb werden hier natürlich auch noch keine Vergleiche zu ihr vorgenommen
 
Zuletzt bearbeitet:
Du schreibst schon ein wenig Unsinn.
Die 100GB beziehen sich auf eine normale Spielgröße in der Next-Gen.
Man kann also aufgrund der schnellen SSD auf alles fast so zugreifen, als ob es sich im regulären Hauptspeicher befinden würde. Und das natürlich bei jedem Spiel

Natürlich geht das auch bei der PS5.
Aber der Artikel erschien bereits VOR der PS5 Präsentation. Deshalb werden hier natürlich auch noch keine Vergleiche zu ihr vorgenommen

Nein, die CPU/GPU muss den SSD Speicherbeirch (Adressen) kennen damit RAM und die 100 GB der SSD in einen gemeinsamen Memorypool zusammengefast werden können d.h. der MemoryController muss das Memory-mapping machen/unterstützen.
Dadurch kann die CPU/GPU mit der vollen I/O throughput speed darauf zugriefen z.B. ins RAM streamen.

Natürlich kann der Restliche bereich der SSD gestream werden aber nich mit der max. I/O throughput speed.
 
Nein, die CPU/GPU muss den SSD Speicherbeirch (Adressen) kennen damit RAM und die 100 GB der SSD in einen gemeinsamen Memorypool zusammengefast werden können d.h. der MemoryController muss das Memory-mapping machen/unterstützen.
Dadurch kann die CPU/GPU mit der vollen I/O throughput speed darauf zugriefen z.B. ins RAM streamen.

Natürlich kann der Restliche bereich der SSD gestream werden aber nich mit der max. I/O throughput speed.

Wozu soll man hierfür einen festen Bereich brauchen?
Geschieht alles über virtuell Mapping.

Wie sollte das auch sonst funktionieren.
Soll das Game bei Start sich erst mal in den festen Bereich kopieren?
Wäre ziemlich aufwendigt und dazu auch nicht gerade gut für die Lebensdauer der SSD

Eine SSD lebt im Übrigen davon, dass sie ihren Speicher selber organisiert und Dinge von A nach B kopiert, damit die einzelnen Speicherzellen eben homogen ausgelastet werden.
Das angeschlossene System bekommt davon überhaupt nix mit.
Ist also alles hoch virtualisiert.

Das Einzige, was vielleicht noch vorstellbar ist wäre,
wenn der Speichercontroller nur 100GB einbinden kann, dieses aber natürlich flexibel.
Sprich, das Spiel startet und der Controller setzt seine Marke auf den Bereich des Spiels.
Sollte das Game nun größer als 100GB sein, legt man als Entwickler die Priorität fest, welche Daten auf jeden Fall von den 100GB erfasst werden sollen.
Das würde erklären, warum immer genau von 100GB die Rede ist.
Kann aber wie erwähnt einfach nur ein willkürlicher Wert sein, der sich eben aus der durchchnittlichen Größe eines Spiels ergibt.

Vielleicht arbeitet ja hier einer in der Branche und kann dazu mehr sagen :)
 
Zuletzt bearbeitet:
Nein, die CPU/GPU muss den SSD Speicherbeirch (Adressen) kennen damit RAM und die 100 GB der SSD in einen gemeinsamen Memorypool zusammengefast werden können d.h. der MemoryController muss das Memory-mapping machen/unterstützen.
Dadurch kann die CPU/GPU mit der vollen I/O throughput speed darauf zugriefen z.B. ins RAM streamen.

Natürlich kann der Restliche bereich der SSD gestream werden aber nich mit der max. I/O throughput speed.

Oh-Wait-Youre-Serious_o_97195.gif
 
Nein, die CPU/GPU muss den SSD Speicherbeirch (Adressen) kennen damit RAM und die 100 GB der SSD in einen gemeinsamen Memorypool zusammengefast werden können d.h. der MemoryController muss das Memory-mapping machen/unterstützen.
Dadurch kann die CPU/GPU mit der vollen I/O throughput speed darauf zugriefen z.B. ins RAM streamen.

Natürlich kann der Restliche bereich der SSD gestream werden aber nich mit der max. I/O throughput speed.
Jungejunge, wenn ich so etwas lese. Zeig mir mal bitte wo MS in der Vergangenheit von XO zu X anders oder besser geliefert hat als Sony bei der PS4 zu Pro? MS hat einen super Job zur X360 gemacht, das bestreitet auch niemand. Bei Sony ging es einfach aus technischer Sicht nicht dafür hatte aber PS3 und PS2 top AK. Und Smart Delivery ist nichts anderes als alter Wein in neuen Schläuchen. GTA5 ist doch das beste Beispiel. Als Entwickler kann ich auch einfach sagen ich machen eine XO Version, die läuft auch auf der SX. Auf der PS5 biete ich aber zusätzlich ein Update für 20€ an. Tolle Sache für MSler dann leer auszugehen. Druck kann MS ausüben wenn 100 Mio Konsolen verkauft werden und es nahezu jeden Titel auf der Plattform gibt.
 
Zuletzt bearbeitet:
Wozu soll man hierfür einen festen Bereich brauchen?
Geschieht alles über virtuell Mapping.

Wie sollte das auch sonst funktionieren.
Soll das Game bei Start sich erst mal in den festen Bereich kopieren?
Wäre ziemlich aufwendigt und dazu auch nicht gerade gut für die Lebensdauer der SSD

Eine SSD lebt im Übrigen davon, dass sie ihren Speicher selber organisiert und Dinge von A nach B kopiert, damit die einzelnen Speicherzellen eben homogen ausgelastet werden.
Das angeschlossene System bekommt davon überhaupt nix mit.
Ist also alles hoch virtualisiert.

Das Einzige, was vielleicht noch vorstellbar ist wäre,
wenn der Speichercontroller nur 100GB einbinden kann, dieses aber natürlich flexibel.
Sprich, das Spiel startet und der Controller setzt seine Marke auf den Bereich des Spiels.
Sollte das Game nun größer als 100GB sein, legt man als Entwickler die Priorität fest, welche Daten auf jeden Fall von den 100GB erfasst werden sollen.
Das würde erklären, warum immer genau von 100GB die Rede ist.
Kann aber wie erwähnt einfach nur ein willkürlicher Wert sein, der sich eben aus der durchchnittlichen Größe eines Spiels ergibt.

Vielleicht arbeitet ja hier einer in der Branche und kann dazu mehr sagen :)

Die XSX hat eine SSD ohne DRAM also legt sie das MemmoryMapping und SSD "Pflege" in den normalen RAM (die langsamen 6 GB).

Es könnte tatsächlich so sein, dass der Controller nur 100GB zusammen mit dem 10GB RAM als gemeinsamen Pool verwalten kann. MS könnte das mapping für die 100GB dann pro Game machen und beim Laden des Games den Brteich dem Controller übergeben. Wenn die next-gen Games mehr als 100 GB haben wirds spannend.
 
Die XSX hat eine SSD ohne DRAM also legt sie das MemmoryMapping und SSD "Pflege" in den normalen RAM (die langsamen 6 GB).

Es könnte tatsächlich so sein, dass der Controller nur 100GB zusammen mit dem 10GB RAM als gemeinsamen Pool verwalten kann. MS könnte das mapping für die 100GB dann pro Game machen und beim Laden des Games den Brteich dem Controller übergeben. Wenn die next-gen Games mehr als 100 GB haben wirds spannend.
Was hat das DRAM jetzt damit zu tun?
Das dient bei normalen SSDs als Cache.
Hat doch mit dem Memory Managment mal überhaupt nix zu tun.
Durch das geschlossene System ist hier kein Cache auf der SSD nötig.
Dafür gibts auf der APU extra ein paar Megabyte an Speicher.
 
Was hat das DRAM jetzt damit zu tun?
Das dient bei normalen SSDs als Cache.
Hat doch mit dem Memory Managment mal überhaupt nix zu tun.
Durch das geschlossene System ist hier kein Cache auf der SSD nötig.
Dafür gibts auf der APU extra ein paar Megabyte an Speicher.

Wenn die Daten wegen der SSD Pflege rotieren müssen die Tabellen irgendwo aktualisiert werden. Wusste nicht, dass die XSX hier extra einen Speicher auf der APU hat. (-> Quelle?) Beim PC wird das im RAM gemacht.
 
Wenn die Daten wegen der SSD Pflege rotieren müssen die Tabellen irgendwo aktualisiert werden. Wusste nicht, dass die XSX hier extra einen Speicher auf der APU hat. (-> Quelle?) Beim PC wird das im RAM gemacht.

Da die Verschiebung der Daten bei der SSD sicherlich nicht während eines Spiels passiert, ist es doch unerheblich, wo sich was befindet.
Fakt ist, dass der DRAM auf einer normalen SSD zum Cachen von Lese- und vor allem Schreibdaten vorhanden ist.
Da auf die SSDs der Next Gen aber nur beim Insatllieren, Patchen und Parken nach Spielende geschrieben wird, ist ein Schreibcache überhaupt nicht nötig.
Und durch das geschlossene Sysstem und spezifischen Anwendungen reicht auch ein kleiner Cachbereich in der APU für Lesezugriffe hierfür.

Auf der APU sitzen insgesamt 76MB an SRAM Cache laut DF, die über das SOC verstreut sind. Wie genau die verteilt sind, ist nicht klar.
Aber dass auch einer für die SSD dabei sein wird, dürfte logisch sein.
Das ist schon ne Menge. Die Desktop Variante der CPU hat 32MB L3 Cache.
Die wird sicherlich in den Next-Gen abgespeckt sein, da man so einen großen CPU-Cache eben in einer Konsole nicht benötigt.
Sagen wir mal die Hälfte 16MB. Ist noch ne Menge und ist die Maximalgröße der Ryzen CPUs letzter Generation.
Dann bleiben also satte 60MB an Cache für andere Dinge übrig.

Zum Vergleich.
Die ONE hatte gerade mal 32MB ESRAM als wichtigsten Cache, da sie kein GDDR Ram hatte.
Den braucht natürlich weder die XSX noch die PS5 und auch die ONE-X hatte ihn ja schon nicht mehr.
 
Hmm, warum sagt dann MS selber das sie auch das selbe wie Sony hätten machen können, ihnen aber eine noch höhere TF zahl (oder jetzt generell TF auf einmal) nicht wichtig sind:verwirrt:
Klar, das die Konsole dann viel größer und auchnteuerer wäre haben sie nicht erwähnt ;)
TF sind gerade nicht mehr die richtige PR wie MS wohl schnell gelernt hat :awesome:
 
Hmm, warum sagt dann MS selber das sie auch das selbe wie Sony hätten machen können, ihnen aber eine noch höhere TF zahl (oder jetzt generell TF auf einmal) nicht wichtig sind:verwirrt:
Klar, das die Konsole dann viel größer und auchnteuerer wäre haben sie nicht erwähnt ;)
TF sind gerade nicht mehr die richtige PR wie MS wohl schnell gelernt hat :awesome:
Das hat auch Sony kapiert (bzw waren die schneller als ms), deswegen die Partnerschaft mit Epic. Die ue5 demo hätte man vermutlich genau so (oder besser) bei ms zeigen können. Aber wer zuerst kommt, mahlt zuerst
 
Epic Games' VP of engineering Nick Penwarden has called the PS5 a "masterpiece of systems design", after working with the console's dev kit to help create last month's jaw-dropping Unreal Engine 5 tech demo.

"The PlayStation 5 is a masterpiece of systems design," says Penwarden. "Not only is it driving a huge leap in computing and graphics performance, but it is also revolutionary in terms of storage and data compression technology, unlocking new kinds of games and experiences for players to enjoy."

Cerny du Schlingel ;)
 
Zurück
Top Bottom