• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Also werden ja doch große Texturendaten geladen von der SSD für neue Objekte und um so schneller man sich bewegt und umso mehr Objekte dadurch hinzukommen oder auch auf anderen Weg neue Objekte hinzukommen in den Bereich um so mehr muss geladen werden

Angepasst dann per Mip Mapping über die GPU, das macht ja nichts die Textur von allein.

Da diese Texturen auch noch Geometrie Daten enthalten für ihre Struktur werden sie ja nicht kleiner als bisher sondern noch größer.

Hab so das Gefühl wir drehen uns langsam im Kreis.
Aber wieso sollten mehr Objekte geladen werden, als dargestellt werden sollen? Werden es auch nicht.
 
Aber wieso sollten mehr Objekte geladen werden, als dargestellt werden sollen? Werden es auch nicht.
Meinst du jetzt weil ich auch "auf anderen Wege" geschrieben habe?

Damit meine ich Objekte die auf dich zukommen oder kreuzen z.b. Auto, Gegner, Gegenstände die durch die Luft fliegen usw.

Und die sollen ja dargestellt werden.?
Es sei denn es sind unsichtbar und extrem gut getarnte Gegner, Gegenstände und Autos ?
 
Zuletzt bearbeitet:
Paar Infos wie es auf dem PC läuft
UE5 tech demo on a RTX 2080 & 970 EVO Plus notebook is 1440p40
Epic China engineers’ interview, if you know Chinese you can confirm it by yourself.
https://www.bilibili.com/video/BV1kK411W7fK
  • 53:00, he said his notebook could run at 1440p 40fps+, optimization target is 60fps for next-gen.
  • 2:08:00, SSD bandwidth (for the flying part) isn’t as that high as ppl said, not need a stricted spec SSD (decent SSD is ok).
  • Someone at TGFCer forum said, the engineer just confirmed to him: RTX 2080 GPU notebook but forgot the exact SSD model, maybe 970 EVO Plus. (http://club.tgfcer.com/thread-8307013-7-1.html 94th post)

Ab 53 bzw. 54min
 
es ging allerdings um die Demo und seine Aussage, dass sie auf Xbox genau so gut laufen wird wie auf PS5 und nicht den SSD Bereich (der einzige bereich, in dem die PS5 stärker ist als die Box), den du da gerade ins Spiel bringen möchtest

Es ging ersteinmal um deine Aussage, in der du Sweeney Bullshit und käuflichkeit unterstellst, und dafür einen Tweet heranziehst, dem Sweeney niegends widersprich.
 
Meinst du jetzt weil ich auch "auf anderen Wege" geschrieben habe?

Damit meine ich Objekte die auf dich zukommen oder kreuzen z.b. Auto, Gegner, Gegenstände die durch die Luft fliegen usw.

Und die sollen ja dargestellt werden.?
Es sei denn es sind unsichtbar und extrem gut getarnte Gegner, Gegenstände und Autos ?
Wieso soll das für die anders funktionieren? Die Statuen und der Fels in der Demo kommen auch auf dich zu, wenn du den Charakter nach vorne bewegst :nix:
 
Hier stellt sich auch die Frage, ob hier schon die HW unterstützt wird. Sprich, Nvidia hat eigentlich ne gute Beziehung zu Epic, könnte sein, dass die 10Frames mehr dadurch zustande kommen oder einfach andere Einstellungen verwendet wurden. Aber nett einfach irgendwie ne Info zu UE5 bekommen zu haben

Edit: O.K, Soll gleiche Einstellungen gehabt haben
 
Zuletzt bearbeitet:
Wieso soll das für die anders funktionieren? Die Statuen und der Fels in der Demo kommen auch auf dich zu, wenn du den Charakter nach vorne bewegst :nix:
Hab ich ja auch nicht geschrieben, logisch funktioniert der Vorgang für jedes Objekt gleich.

Aber ich weiß immer noch nicht wie das laut deiner Aussage, nur der benötigte Pixel von einem Objekt geladen werden muss, funktionieren soll.

Den wenn ein neues Objekt in den Bereichen kommt muss ja die Texturen des Objektes von der SSD geladen werden es sei den es ist das gleiche Objekt schon mal im Bereich und eben nicht der Pixel geladen werden der angezeigt wird.

Und da die Texturen höher aufgelöst sind und Geometriedaten enthalten werden Dateien größer im Vergleich zum jetzigen üblichen Verfahren.

Oder etwas nicht?
 
Hab ich ja auch nicht geschrieben, logisch funktioniert der Vorgang für jedes Objekt gleich.

Aber ich weiß immer noch nicht wie das laut deiner Aussage, nur der benötigte Pixel von einem Objekt geladen werden muss, funktionieren soll.

Den wenn ein neues Objekt in den Bereichen kommt muss ja die Texturen des Objektes von der SSD geladen werden es sei den es ist das gleiche Objekt schon mal im Bereich und eben nicht der Pixel geladen werden der angezeigt wird.

Und da die Texturen höher aufgelöst sind und Geometriedaten enthalten werden Dateien größer im Vergleich zum jetzigen üblichen Verfahren.

Oder etwas nicht?
Soll 1 Frame Latenz fürs Laden und Darstellen haben. Weniger als bisher.
Ob Dateien größer werden, klar. Jetzt aber sind deren Teile nur dann notwendig wenn sie dargestellt werden.
 
Jetzt aber sind deren Teile nur dann notwendig wenn sie dargestellt werden.

Sie waren schon immer nur dann notwendig wenn sie angezeigt/berechnet werden soll, oder nicht?

Nur mussten sie schon geladen werden weil die HDD's doch viel zu langsam waren um auftretende spitzen bedienen zu können, also musste ein Polster geschaffen werden im RAM.

Umso schneller die Festplatte um so weniger muss im RAM rein theoretisch an Daten die noch nicht direkt für die Bearbeitung von GPU und CPU gebraucht werden vorgehalten werden.

Sehe ich das falsch?
 
Sie waren schon immer nur dann notwendig wenn sie angezeigt/berechnet werden soll, oder nicht?

Nur mussten sie schon geladen werden weil die HDD's doch viel zu langsam waren um auftretende spitzen bedienen zu können, also musste ein Polster geschaffen werden im RAM.

Umso schneller die Festplatte um so weniger muss im RAM rein theoretisch an Daten die noch nicht direkt für die Bearbeitung von GPU und CPU gebraucht werden vorgehalten werden.

Sehe ich das falsch?
Bei Texturen ja. Bei Geometrie war das bisher nur sehr eingeschränkt möglich. Dazu kommt dass Mikropolygone bisher extrem ineffizient sind, da Fragmentshader auf Quad-Basis arbeiten. Sind Polygone nur 1 Pixel groß, sinkt die Effizienz der GPU deshalb dramatisch. All das umgeht Nanite. Mit der SSD hat das erst mal wenig zu tun.
 

War ja eigentlich klar aber paar blaue hier meinten ja was anderes

Edit: okay wurde schon gepostet

Die letzten Seiten hier sind wieder pures Gold :P
 
Zuletzt bearbeitet:
ahc, die versuchen eh schon alles schönzureden, deswegen treffen die Sweeney Kommentare die gerade recht hart :ugly:
Was soll an den Aussagen jemand hart treffen, habe ich was verpasst?

Hat er irgend einer Plattform irgendwie besonders Leistung ab oder zugesprochen?

Oder weil er sagt die Engineentwickler bei Epic und die Hardwareentwickler bei Sony miteinander über Jahre Austausch betrieben haben und somit gemeinsame Ziele hatten System und Engine aufeinander abzustimmen?

Welch große Überraschung das wird mit MS wohl nicht viel anders gelaufen sein.

Oder soll das jetzt jemand hart treffen das die Multplatformengine schlecht hin, in ihrer neusten Version auf allen Systemen gut läuft?

Ja da wird sich bestimmt gleich jemand von der Brücke stürzten.?

Das trifft aller höchsten Crytek, Unity oder Valve aber nicht die Aussage, sondern vielleicht die resultierenden Tatsachen?
 
Jetzt will wieder keiner behauptet haben, dass es nur auf Zauber-PS5 möglich wäre
b76e7729d43c4a49182d020741285bef.gif
 
Bei Texturen ja. Bei Geometrie war das bisher nur sehr eingeschränkt möglich. Dazu kommt dass Mikropolygone bisher extrem ineffizient sind, da Fragmentshader auf Quad-Basis arbeiten. Sind Polygone nur 1 Pixel groß, sinkt die Effizienz der GPU deshalb dramatisch. All das umgeht Nanite. Mit der SSD hat das erst mal wenig zu tun.
Aber irgend einen Grund muss es ja geben warum Sony und MS auf diese starken SSD's mit Hardware Dekompression setzen. Das machen die nicht um bisschen Zeit beim starten der Spiele zu sparen oder Ladebildschirm zu reduzieren oder eliminieren.

Und die meisten (vielleicht meine Wahrnehmung) Entwickler das mit als die beste Entwicklung/technische Entscheidung der Next Gen Konsolen sehen, das ja weil Daten schnell oder viel mehr in der selben Zeit von dort angerufen werden können
 
Aber irgend einen Grund muss es ja geben warum Sony und MS auf diese starken SSD's mit Hardware Dekompression setzen. Das machen die nicht um bisschen Zeit beim starten der Spiele zu sparen oder Ladebildschirm zu reduzieren oder eliminieren.

Und die meisten (vielleicht meine Wahrnehmung) Entwickler das mit als die beste Entwicklung/technische Entscheidung der Next Gen Konsolen sehen, das ja weil Daten schnell oder viel mehr in der selben Zeit von dort angerufen werden können
Der Grund dafür ist nicht Nanite :nix: Ein schnellerer Massenspeicher macht dessen Umsetzung einfacher. Wobei ich hier vermute, dass der Compute Aufwand immer noch die bremsende Größe ist, immerhin läuft es nur in 1440p.

Bisher hat Epic nichts konkretes über die Datenmengen in der Demo, also auch nicht über die Vorteile evtl. SSD-Geschwindigkeiten gesagt. Die benötigte Datenmenge kann man aber annähernd anhand der Auflösung überschlagen. Das sind keine 22GB/s, eher mind. eine Größenordnung drunter lel.
 
Weil die Assets größer werden(viel mehr Details und somit auch Inhalte) und man irgendwie die Sachen klein halten muss, daher Dekompression bzw. Kompression. Bei der Bandbreite, da weiß ich nicht genau wo da das Limit ist, jedenfalls bei der PS5 war der Grund für die 30fps in der Demo eher die GI also nicht das schaufeln des Inhaltes. Wir werden einfach unglaublich detaillierte Welten sehen, aber es ist klar, dass hier der Speicherplatz die Assets beschneiden wird. Wie gesagt, ich glaube die Demo war riesig. Aber vielleicht ist da noch viel mehr dahinter aber dazu müssen sie auch klar schiff machen, sprich einfach wirklich die Idee dahinter beschreiben.
 
Zurück
Top Bottom