ConsoleWAR Last-Gen-Technik (Konsolen, PS4, Xbox One und Wii U)

Klingt etwas butthurt.

Dass 1st party games mehr rausholen werden war wohl so gut wie jedem klar, Bei 3rd Party games gabs imo nicht die größten Schritte, wenn man beispielsweise Assassins Creed Unity mit Origins vergleicht. Dazu ist das Material hier eben nicht von der Vanilla PS4, auch wenn es so ähnlich aussehen kann.

Ghost of Tsushima sieht natürlich klasse aus und das Studio hat für die Grafik jegliches Lob verdient wenn es am Ende so laufen wird.

Den Konsolen wurde generell vorausgesagt dass man zu Beginn der Gen bereits alles gesehen hat.

Ich bin auch der Meinung Multis haben sich gesteigert, teils sogar enorm.
 
So AI wie in Halo CE bzw. FEAR oder Animations/Physiksysteme wie in GTA4? Ja, dafür muss unbedingt eine bessere CPU her.
naja ich sage nur farcry2-5 vs fear da liegen ganzen welten zwischen
mittlerweile kommt es mir bei shootern vor als würde überhaubt keine ai mehr drin werkeln nur nen script das sacht wo auf der map sich der spieler befinden und
bf1 sind da schon der tiefpunkt könnte schwören doom anno 1995 hat es besser hinbekommen als z.b bf1
games wie fallout oder farcry machen es nicht anders ist der spieler einmal entdeckt können ine die npc selbst durch meter dicke häuser sehen
 
Wie kann das bei Far Cry 2 mit dem Jaguar zu tun haben, wenn das auf einem sogar (emuliert!) besser läuft?
Häh?

Das hat alles offenbar wenig abhängig mit CPU Performance sondern anderen Faktoren.
 
Nach Rocket League (1080p@60fps auf PS4), Doom (1080p@60fps auf PS4) und Wolfenstein (1080p@60fps auf PS4) portet Panic Button nun Warframe auf die Switch. Ein 1080p@60fps Titel auf PS4.

Aber hat natürlich immer nichts mit nichts zu tun
@angesprochenden :p
 
Zuletzt bearbeitet:
Nvidia hat sich eure Beschwerden zu den subnativen Auflösungen auf der Switch zu Herzen genommen und arbeitet schon an einer Lösung.
 
Wie kann das bei Far Cry 2 mit dem Jaguar zu tun haben, wenn das auf einem sogar (emuliert!) besser läuft?
Häh?

Das hat alles offenbar wenig abhängig mit CPU Performance sondern anderen Faktoren.
sry aber farcry 2 hat ne scheis wallhack ai einmal entdeckt wissen die gegner immer wo du dich versteckst und rennen dir hinterher
ist imo einer der gründe warum ist es nach 30 min abgebrochen hab

und ja ai und levelaufbau, geometrie, unter anderem die kollisions abfrage, scrips für die ai hat mit der cpu zu tun
die sagt der gpu was sie alles berechen muss wo welche textur hinkommt wo welcher welche shader bekommt usw..

Nvidia hat sich eure Beschwerden zu den subnativen Auflösungen auf der Switch zu Herzen genommen und arbeitet schon an einer Lösung.
heute entfernt es texte aus bilden morgen werden dann per knopfdruck persoen ausbildern entfernt
 
Nvidia hat sich eure Beschwerden zu den subnativen Auflösungen auf der Switch zu Herzen genommen und arbeitet schon an einer Lösung.

Von dem Anwendungsfall hat man schon häufig im Zusammenhang mit KI gelesen. Adobe arbeitet für ihr Photoshop auch daran, oder ist gar schon implementiert. Hier auch eine Lösung von Samsung für 8k


Und hier noch nVidia mit KI für die Framerateerhöhung.



Das ist schon wirklich interessant. Bin mal gespannt, ob das wirklich auch im Spielebusiness einzug halten wird.

Man stelle sic vor, eine PS5NextBox muss ein Spiel nativ nur in 1080p@30fps berechnen und eine KI mit Hardwarebeschleunigung macht daraus 8K@120fps :o
 
Und übermorgen fixt es deine Rechtschreibung.
aha schau mal hier
https://www.mobilegeeks.de/artikel/grammar-nazis-besserwisserische-klugscheisser/

Von dem Anwendungsfall hat man schon häufig im Zusammenhang mit KI gelesen. Adobe arbeitet für ihr Photoshop auch daran, oder ist gar schon implementiert. Hier auch eine Lösung von Samsung für 8k

Das ist schon wirklich interessant. Bin mal gespannt, ob das wirklich auch im Spielebusiness einzug halten wird.

Man stelle sic vor, eine PS5NextBox muss ein Spiel nativ nur in 1080p@30fps berechnen und eine KI mit Hardwarebeschleunigung macht daraus 8K@120fps :o
naja beim icehockey spieler und bei der tänzerin versagt die technik ja
für mich sieht das aus als fürde man versuchen aus zwei bildern nen drittes zu erstellen und zwischen diesen drei bildern nann noch nen bild dazwichen zu paken mit mächig viel motionblur
bei wasser feuer und objekten funktionieren kann die keine feste form haben klappt das sicher gut aber ne hand bleibt ne hand und schlittschuhe verformen sich halt auch nicht
es wirkt wie dies cheap ass handyvideos bei den der chip dennen der oberen teil des bildes langsamer berechnet als den unternen und das bild anfängt zu schwimmen
 
In den Beispielen geht es auch um eine Verachtfachung von Frames. Das sind natürlich andere Anforderungen als die Vervierfachung, von der ich sprach. Lass es meineswegen auch von 30 auf 60 sein, also eine Verdoppelung. Geht schlicht nur um die Möglichkeiten, jetzt schon zum Gegenwärtigen Zeitpunkt.
 
In den Beispielen geht es auch um eine Verachtfachung von Frames. Das sind natürlich andere Anforderungen als die Vervierfachung, von der ich sprach. Lass es meineswegen auch von 30 auf 60 sein, also eine Verdoppelung. Geht schlicht nur um die Möglichkeiten, jetzt schon zum Gegenwärtigen Zeitpunkt.
ja bei randern von videos sprich nachträglich beim videos in echtzeit mehr bilder einzufügen
vobei es dann immer noch per hand nachbearbeitet werden müste um alle fehler zu beheben

wenn die gpu zu schwach ist aus den cpu daten genügent bilder zu erzeugen (low fps) dann wird sie auch nicht schneller sein wenn sie dann auch noch zusätzlich aus zwei bildern eine oder mehere zwischen bilder erstellen und diese noch vor dem zweiten bild schalte

gut wenn die gps nur bei 20% auslastung ist und nix zutun hat weil die cpu einfach extrem langsam ist könne es klappen
auch wenn es am ende nicht hübsch aussehen würde aber so oder so die frametimes wären dann 100% für den arsch
 
Bei einer Verdoppelung ist die Fehlerrate natürlich weit geringer, als bei einer Verachtfachung der Frames. Schlicht weil das Verhältnis zwischen original und erzeugten Material ein gänzlich anderes ist.

Was die Auslastung angeht, kommt es darauf an inwieweit diese Techniken auf spezialisierten Einheiten läuft. Bei einer Verdoppelung der Frames (30 auf 60) und Vervierfachung der Auflösung (1080üp auf 4k) handelt es sich um die achtfache Pixelzahl/S. Dafür bräuchte es wohl pie Mal Daumen die 6-8 fache GPU-Leistung. Sollten die spezialisierten Einheiten demgegenüber nur ein Bruchteil der DIE-Fläche benötigen, hat man massiv gewonnen!
 
Nach Rocket League (1080p@60fps auf PS4), Doom (1080p@60fps auf PS4) und Wolfenstein (1080p@60fps auf PS4) portet Panic Button nun Warframe auf die Switch. Ein 1080p@60fps Titel auf PS4.

Aber hat natürlich immer nichts mit nichts zu tun
@angesprochenden :p

Ich fühle mich zwar nicht "angesprochend", aber ich will etwas berichtigen :v:

Soweit ich das gelesen habe leidet Warframe unter oft recht starken Framerateeinbrüchen auf der PS4 und läuft nur mit niedrigeren Einstellungen und dynamischer Auflösung (das Spiel scheint in der Tat für Konsolenfrickler gemacht) einigermaßen flüssig.

Hier eine sprachlich seltsame Anleitung, keine Ahnung ob die niedrigen Einstellungen alle Framerateprobleme lösen:



Scheinbar hilft das auch nicht wirklich wenn ich mir die Kommentare unter diversen Videos ansehe


Still an issue today (on base PS4 at least). I didn't realize how horrible the FPS would get until a good amount of time in and trying to play with a group. Set everything in the options to the lowest possible settings including the resolution but the framerate still tanks hard when the action gets busy. Debating on switching to PC once my parts get here but feel bummed I can't transfer PS4 to PC and will lose all my stuff.

Nach 1080p/60fps klingt das eigentlich nicht.
 
wenn die gpu zu schwach ist aus den cpu daten genügent bilder zu erzeugen (low fps) dann wird sie auch nicht schneller sein wenn sie dann auch noch zusätzlich aus zwei bildern eine oder mehere zwischen bilder erstellen und diese noch vor dem zweiten bild schalte
Woher kommt diese komische Annahme? Der Aufwand für diese ML-Algorithmen hängt nur von der Tiefe des neuronalen Netzes ab. Und das ist ja schon vorgelernt und muss nur noch für die Pixeldaten durchgerechnet werden. Und dabei können auch unpräzise schnelle Funktionen in der GPU (FP16 oder schlechter) problemlos genutzt werden. Das sollte Größenordnungen unter dem Aufwand für das normale Rendern eines Frames liegen. Und der CPU-Aufwand dafür ist ungefähr so groß wie der für FXAA.
 
naja beim icehockey spieler und bei der tänzerin versagt die technik ja
für mich sieht das aus als fürde man versuchen aus zwei bildern nen drittes zu erstellen und zwischen diesen drei bildern nann noch nen bild dazwichen zu paken mit mächig viel motionblur
bei wasser feuer und objekten funktionieren kann die keine feste form haben klappt das sicher gut aber ne hand bleibt ne hand und schlittschuhe verformen sich halt auch nicht
es wirkt wie dies cheap ass handyvideos bei den der chip dennen der oberen teil des bildes langsamer berechnet als den unternen und das bild anfängt zu schwimmen

Sorry, aber das macht bereits jeder Mittelklasse-TV, wenn man es eingestellt hat und ist prinzipiell nix neues.
Er empfängt Bild eins, wartet auf Bild zwei, und berechnet dann ein bis je nach Modell vier Zwischenbildern (oder mehr).
Das hier gezeigte erhöht dann noch zusätzlich die Auflösung.

In den TVs stecken auch keine sündhaft teuren GPUs, die hunderte von Watt verbraten und trotzdem können die aus einem 4K 30 hz Bild ein 4K 120 Hz Bild machen.
Das geht also alles über wesentlich günstigere Spezial-Chips.
 
Zurück
Top Bottom