• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

Nvidia DLSS vs. AMD FSR vs. Intel XeSS vs. Sony PSSR - Der Uspcaling-Krieg.

  • Thread-Ersteller Thread-Ersteller Phiron
  • Erstellungsdatum Erstellungsdatum

Phiron

L13: Maniac
Thread-Ersteller
Seit
11 Dez 2010
Beiträge
3.101
Seit einigen Jahren sind moderne Skalierungsverfahren im Gaming-Bereich in aller Munde.
Während Nvidia und AMD hier den Anfang machten und mit DLSS und FSR für hohe Bildraten bei bester Grafik sorgten, stieß schon bald Intel mit XeSS dazu. Nun hat auch Sony ihr eigenes Upscaling-Verfahren entwickelt.
Während Playstation-User hier auf CW behaupten, dass PSSR stellenweise besser aussieht, als die Pendants, beweisen PC-Besitzer immer wieder auf's neue, dass PSSR scheinbar auf einem Niveau mit DLSS und FSR in ihrer allerersten Version ist.
Und damit wir diese Diskussion gebündelt haben, habe ich diesen Thread erstellt. Lasst und gemeinsam herausfinden, welches Sklaierungsverfahren wirklich das beste ist.

Folgende Punkte solltet ihr im Hinterkopf haben:

- Vergleichsbilder und Vergleichsvideos sind, wenn möglich, erwünscht (eventuell auch bei den gleichen Games)
- Optik- und FPS-Verhältnis
- allgemeine Perfomance

Und jetzt legt los.
 
Auch DLSS hat seine Fehler und Schwächen gegenüber dem gerade mal 1 Monat jungem PSSR - dachte Ghosting gehört seit DLSS2.5 der Vergangenheit an?

GdLLP3nXMAAyEri
GdLMqqTWEAAj_iQ
 
Egal welche Variante, ein hervorragender Weg wertvolle Leistung zu sparen und für anderes zu verwenden

Alle Varianten werden sich weiterentwickeln und mithilfe immer besserer KI Software dafür sorgen das man mehr aus der reinen Rohleistung der Hardware rausholen kann
 
Egal welche Variante, ein hervorragender Weg wertvolle Leistung zu sparen und für anderes zu verwenden

Alle Varianten werden sich weiterentwickeln und mithilfe immer besserer KI Software dafür sorgen das man mehr aus der reinen Rohleistung der Hardware rausholen kann
Absolut.
Entwickler müssen nicht mehr auf 4K setzen.
1440p reicht,spart so Ressourcen.
 
Absolut.
Entwickler müssen nicht mehr auf 4K setzen.
1440p reicht,spart so Ressourcen.
Was hat das mit KI zu tun? Auch vorher ist man diesen Weg gegangen, siehe PS4 Pro.

Du schreibst irgendwie so, als hätten die Konsolen native 4k-Auflösungen fokussiert und deswegen andere Dinge vernachlässigt. In Wahrheit ging auch in der vorherigen Generation alles um Upscaling und wie man auch mit niedrigerer Auflösung ein gutes Bild hinbekommt.

Heißt also, dein Beitrag kommt mindestens 8 Jahre zu spät.
 
Was hat das mit KI zu tun? Auch vorher ist man diesen Weg gegangen, siehe PS4 Pro.

Du schreibst irgendwie so, als hätten die Konsolen native 4k-Auflösungen fokussiert und deswegen andere Dinge vernachlässigt. In Wahrheit ging auch in der vorherigen Generation alles um Upscaling und wie man auch mit niedrigerer Auflösung ein gutes Bild hinbekommt.

Heißt also, dein Beitrag kommt mindestens 8 Jahre zu spät.
Es geht ja um KI Upscaling.
Des sieht ja zum teil besser aus als natives 4K.
CB hat das glaub ich nie geschafft.
@ChoosenOne
Warum nein?
 
Es geht ja um KI Upscaling.
Des sieht ja zum teil besser aus als natives 4K.
CB hat das glaub ich nie geschafft.
@ChoosenOne
Warum nein?

Weil natives 4K längst etabliert und möglich ist.
Sowohl HW als auch SW ist in der Fläche verfügbar.
Anders als bei so nem Marketing Gelaber wie 8K und 120fps
Begrenzt nur durch HW Power uns SW Optimierung.

Also muß 4K auch der Anspruch sein, den man erriechen will.
 
Weil natives 4K längst etabliert und möglich ist.
Sowohl HW als auch SW ist in der Fläche verfügbar.
Anders als bei so nem Marketing Gelaber wie 8K und 120fps
Begrenzt nur durch HW Power uns SW Optimierung.

Also muß 4K auch der Anspruch sein, den man erriechen will.

Wenn man quasi dasselbe erreicht mit weniger Leistung, dann wird man diese Leistung nicht dafür vergeuden "natives 4k" zu machen, sondern dann wird eine geringere Auflösung von der HW berechnet und durch KI Software auf 4k gebracht ohne bzw ohne nennenwerte Verluste
 
Wenn man quasi dasselbe erreicht mit weniger Leistung, dann wird man diese Leistung nicht dafür vergeuden "natives 4k" zu machen, sondern dann wird eine geringere Auflösung von der HW berechnet und durch KI Software auf 4k gebracht ohne bzw ohne nennenwerte Verluste

1) Ich sprach nicht dediziert von den Konsolen oder der PS5, wo kein Gerät auch nur annähernd in der Lage ist, 4K@60FPS im DUrchschnitt zu gewährleisten. Allerdings ist die Messlatte der aktuellen Gen 4K und 60 fps

2) Der PC kann dies nativ, zu einem extrem miesen P/L Verhältnis

3) AI Upscaling ist super

Ich habe auf eine Frage geantwortet, das 4K Überflüssig sei und 1440p genüge.
Das habe ich verneint, genau wie ich verneinen würde wen einer sagt 30 FPS sind ausreichend und 60 FPS Uüberflüssig
 
1) Ich sprach nicht dediziert von den Konsolen oder der PS5, wo kein Gerät auch nur annähernd in der Lage ist, 4K@60FPS im DUrchschnitt zu gewährleisten. Allerdings ist die Messlatte der aktuellen Gen 4K und 60 fps

2) Der PC kann dies nativ, zu einem extrem miesen P/L Verhältnis

3) AI Upscaling ist super

Ich habe auf eine Frage geantwortet, das 4K Überflüssig sei und 1440p genüge.
Das habe ich verneint, genau wie ich verneinen würde wen einer sagt 30 FPS sind ausreichend und 60 FPS Uüberflüssig

Die Frage ist warum man native Berechnung überhaupt noch anstreben sollte unabhängig vom Gerät wenn die Ergebnisse derart gut sind

Auf jedem Gerät, egal wie leistungsfähig in der Theorie wird man diese Leistung nicht unnötig vergeuden wollen

4k wird ja weiterhin ausgegeben, nur wie man dahinkommt ist eben ein anderer Weg
 
Die Frage ist warum man native Berechnung überhaupt noch anstreben sollte unabhängig vom Gerät wenn die Ergebnisse derart gut sind

Auf jedem Gerät, egal wie leistungsfähig in der Theorie wird man diese Leistung nicht unnötig vergeuden wollen

4k wird ja weiterhin ausgeben, nur wie man dahinkommt ist eben ein anderer Weg

Weil nativ = beste Qualität
Bin aber auch mit dem Ergebnis von AI Uppsalaern zufrieden.

Und 4K@60fps ist doch natürlich nur ein Zwischenstopp
Genau wie es 1080p war und später 60 fps
 
Weil nativ = beste Qualität
Bin aber auch mit dem Ergebnis von AI Uppsalaern zufrieden.

Und 4K@60fps ist doch natürlich nur ein Zwischenstopp
Genau wie es 1080p war und später 60 fps

Wird letztlich nur noch was für absolute Puristen sein und ne rein theoretische Diskussion

Wenn das Ergebnis am Ende mit halbem Rechenaufwand zu 99% so aussieht wie die theoretisch beste native Berechnung und man die freie Rechenleistung in andere Bereiche stecken kann, damit es insgesamt grafisch besser aussieht, dann ist eh egal und kümmert keinen mehr

Bei PC ist ja das einzige Ding, dass es dort in der Theorie bei maximal teurer Hardware keine Software gibt die das ausreizt

Und keiner entwickelt extra ein Spiel für nen 5000 Dollar Rechner

Da fließt dann eben die Leistung in die native Berechnung von Pixeln oder Bildern pro Sekunde

Würde man extra nur für die teuerste Hardware entwickeln, würde man letztlich auch bei nativer Auflösung sparen um ein besseres Gesamtergebnis zu bekommen
 
Bei PC ist ja das einzige Ding, dass es dort in der Theorie bei maximal teurer Hardware keine Software gibt die das ausreizt

Das stimmt doch nicht.
Du kannst bei jeder SW/Game die Auflösung auf 3840x2160 einstellen und das sieht natürlich dramatisch besser aus als 1440p.
Auch ich spiele einige Spiele mit meiner 3080 auf 4K aber erreiche dann selten durchgehend 60fps
Selbst 30Fps sind dann nicht immer sicher
 
Zurück
Top Bottom