PS5 PlayStation 5

Unabhängig davon das ich den 4Chan leak für BS halte, wüsste der leaker wohl eh nur das die 500GB im Devkit sind und nicht was Sony geplant hat für die Retail Konsole ;). Sollte die SSD der PS5 wirklich einiges schneller und teurer sein als die von MS wie viele leaker immer so meinen, würden sie sicher nicht übertrieben viel in ein Devkit packen aus kosten Gründen. Reicht ja schon das ein Devkit mehr VRAM braucht.
 
Ich weiß noch bei meiner PC-Zeit und SSD(da waren die 256GB schon teuer) war es folgendermaßen:

OS + 3 bis 5 Spiele auf SSD(256GB), die ganze Steam-Bib.. auf HDD(4TB). Je nachdem was gezockt wurde, wurde Copy&Paste betrieben.
Also zwei Pools
 
Ich weiß noch bei meiner PC-Zeit und SSD(da waren die 256GB schon teuer) war es folgendermaßen:

OS + 3 bis 5 Spiele auf SSD(256GB), die ganze Steam-Bib.. auf HDD(4TB). Je nachdem was gezockt wurde, wurde Copy&Paste betrieben.
Also zwei Pools
Wäre ja das notwendige Übel wenn es kein PCIe von außen zugänglich gibt und man trotzdem Speicher erweiterbar bieten will.
Poolverschiebung müsste dann aber weitgehend automatisch laufen, sofern Spiele mehr Speed brauchen als extern angebunden ist.
 
Wäre ja das notwendige Übel wenn es kein PCIe von außen zugänglich gibt und man trotzdem Speicher erweiterbar bieten will.
Poolverschiebung müsste dann aber weitgehend automatisch laufen, sofern Spiele mehr Speed brauchen als extern angebunden ist.

Alle Spiele auf dem zweiten Pool sind entweder nicht lauffähig und werden dann automatisch von zweiten Pool zum ersten kopiert(mit der Frage an den Anwender, welche anderen Inhalte aus Pool1(Start-Laufwerk) gelöscht/zurückkopiert werden sollten) oder das zweite Pool hat eine Platte drinnen, die die Mindestanforderung erfühlt, ich glaube da ist vielleicht garnicht die Bandbreite so entscheidend, sondern die Zugriffszeit(das ist eigentlich das wichtigere Element einer SSD im Vergleich zur HDD für mich jedenfalls)
 
Alle Spiele auf dem zweiten Pool sind entweder nicht lauffähig und werden dann automatisch von zweiten Pool zum ersten kopiert(mit der Frage an den Anwender, welche anderen Inhalte aus Pool1(Start-Laufwerk) gelöscht/zurückkopiert werden sollten) oder das zweite Pool hat eine Platte drinnen, die die Mindestanforderung erfühlt, ich glaube da ist vielleicht garnicht die Bandbreite so entscheidend, sondern die Zugriffszeit(das ist eigentlich das wichtigere Element einer SSD im Vergleich zur HDD für mich jedenfalls)
SATA-SSD per USB 3 ist Mindestanforderung für extern imo. Sollte jedenfalls....wer will ernsthaft erstmal 70-120GB mit ca 100MB/s verschieben und ggf das andere vorher evakukieren auf extern?
Macht man zwar trotzdem nur alle paar Tage einmal aber wäre jedesmal einige Minuten lang warten, sofern nicht Intelligent kopiert wird (zuerst was zuerst benötigt wird)
 
SATA-SSD per USB 3 ist Mindestanforderung für extern imo. Sollte jedenfalls....wer will ernsthaft erstmal 70-120GB mit ca 100MB/s verschieben und ggf das andere vorher evakukieren auf extern?
Macht man zwar trotzdem nur alle paar Tage einmal aber wäre jedesmal einige Minuten lang warten, sofern nicht Intelligent kopiert wird (zuerst was zuerst benötigt wird)

Die Alternative ist neu ziehen oder die Schnittstelle ist eine andere(direkte SATA mit einem Adapter, k.a^^). Man muss so oder so ein Kompromiss finden, da es nicht anders zu lösen ist.
 
Die Alternative ist neu ziehen oder die Schnittstelle ist eine andere(direkte SATA mit einem Adapter, k.a^^). Man muss so oder so ein Kompromiss finden, da es nicht anders zu lösen ist.
Externe SSD ist bisher immer SATA nach Stand der Dinge, die wenigen Thunderbolt-Varianten mal nicht berücksichtigt, also bis 500MB/s.
HDD kann technisch nur um 100MB/s.
Also die Art der externen ist schon nicht ganz unwichtig für die Praxis.
Wo ist das Problem spiele zu löschen und dann wieder zu instalieren wenn man sie Spielen möchte?
Mal eben 100GB runterzuladen, wenn man mal wieder in ein Spiel reintauchen will sehe ich schon als Problem.
 
500GB mache ich nur mit wenn ich Day1 aufrüsten kann und zwar mind. auf 2TB.
Das ist einfach nicht mehr zeitgemäß und ich war jemand, der mit 16GB auf der Vita genügend Daten herumjongliert hat diese Gen. Party-Games und gewisse MP-Titel willst du auch einfach immer auf der Platte haben, wenn mal Freunde kommen.
 
Single Player und OW-Games? Damit kann man rechnen im Schnitt, ja. Bei GaaS-Games ist das aber nicht das Hauptproblem. Gerade die Games, die du auf der Platte lassen willst, blasen sich einfach im Laufe der Gen unglaublich auf. Das ist das größere Problem imo. Und selbst wenn die Games im Schnitt etwas kleiner werden, willst du keine 500GB haben. 1TB ist schon imo auf aktuellen Konsolen nur noch akzeptabel.
 
Ich gehe safe davon aus das es Spiele geben wird die neue Rekordgrößen erreichen (GTA6). Von 0,5TB wären ca. 100GB schonmal für OS etc. reserviert. Problem ist wie immer das Budget. Wenn die Produktionskisten 70$ über der PS4 liegen, dann muss Sony bei einen VK von 499 so oder so drauf legen da Steuer, Vetrieb, Transport, Verpackung etc. nich dazu kommen. Für die Kohle lässt sich dann sicher was anständiges herstellen. Nach der erfolgreichen PS4 und der Beteiligung von Sony an der Entwicklung von Navi, ist man in einer ganz anderen Position. Der ReRAM Gedanke hat mir auch gut gefallen. Leider hört man nix mehr davon, schadeschade.
 
Mal eben 100GB runterzuladen, wenn man mal wieder in ein Spiel reintauchen will sehe ich schon als Problem.
Ich weiß nicht was für Spiele du glaubst zu spielen. Aber die wenigsten Spiele haben - sieht man von vereinzelt irrwitzig großen Patches mal ab - selten mehr als 20 - 30 GB. :nix:
Aber gut, ansonsten "Hurra" für den "Digital Only" Lifestyle, den viele ja so geil finden angeblich.
 
Unabhängig davon das ich den 4Chan leak für BS halte, wüsste der leaker wohl eh nur das die 500GB im Devkit sind und nicht was Sony geplant hat für die Retail Konsole ;). Sollte die SSD der PS5 wirklich einiges schneller und teurer sein als die von MS wie viele leaker immer so meinen, würden sie sicher nicht übertrieben viel in ein Devkit packen aus kosten Gründen. Reicht ja schon das ein Devkit mehr VRAM braucht.


Naja, die Dinger kosten schon eine Ecke, da wäre es nicht wirklich eine Ersparnis.

Sollten es 500GiB sein, gehe ich davon aus dass man einen weiteren Massenspeicher anschließen kann.
Frei Schnautze eine SSD wird man imo nicht wechseln können, wenn die hohe Datenübertragukgsrate einen so wichtigen Punkt darstellt. Da hat Sony wohl keinen Bock auf Massenweise Supportanfragen, weil sich die Nutzer massenweise billige SSDs in die Konsole knüppeln wollen.
 
Keine Ahnung aber ich habe mal gelesen das die Playtester Devkits 500GB drin haben. Ob das jetzt stimmt oder nicht sei mal dahingestellt. Aber zum Playtesten reichen ja 500GB locker.

Muss ja nicht heißen das die Retail auch nur 500 hat.
 
Wo ist das Problem spiele zu löschen und dann wieder zu instalieren wenn man sie Spielen möchte?

Die Probleme heißen Telekom, Vodafone, 1&1, o2 & Co, insbesondere außerhalb der Kernstadt.

Das nächste Problem sind die Datentransferraten von 100GB Quad Layer Blu-Rays, da bist du auch locker 30 Minuten dran bis die Disc drauf ist - darauf folgen aber noch die zig GB Patches, weshalb man es eigentlich gleich komplett laden kann. Diese Generation hatten wir vereinzelt schon 40GB Day1 Patches.

Erfahrungsgemäß wirds einen Tag vor und nach Release einen AAA Games insbesondere auf Sonys Servern langsam bis sehr langsam.

1TB wären ja schon hart an der Grenze, da kann man aber noch argumentieren "nicht jedes AAA Game hat 200GB".
500GB sind viel zu wenig, das kann man drehen und wenden wie man möchte.
 
Es wäre auch mal intelligent wenn man auswählen könnte welche Sprachen man installieren möchte. Würde Speicher sparen wenn man nicht alle Sprachen installieren muss.
Bei God of War hab ich mich gewundert. Deutsch ist installiert und die englische muss man sich runtergeladen und die anderen Sprachen. Fand ich toll
 
Zurück
Top Bottom