• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

Der PC Frickel Thread - Vsync, Anti Aliasing & Co.

Gerade für 1440p wäre eine Radeon 6800 oder 6800XT die bessere Wahl. Du verzichtest zwar auf DLSS aber FSR gibts mittlerweile fast überall bzw. man kann es reinmodden und ich muss sagen bei Scorn(gabs kein DLSS) habe ich bei 4K keinen Unterschied zu nativ gesehen, gut ich habe mich auch nicht sehr darauf konzentriert sondern das Spiel gespielt :ol:

Siehst du auch hier:

cb1k7eqc.jpg


Die 6800XT von Asus gibts bereits sehr günstig:
Das ist aber Rasterize Performance ohne RT. Das sieht in 4k auch nicht anders aus. 1440p mit RT ist die 3070 aber auch wieder oben auf
 
Ja gut, wenn du RT in 1440p@60 willst, solltest dir aber eh lieber ne 3080 holen. Musste mit meiner 3060Ti auf Medium-Hoch Settings bei der Grafik und RT nur auf Medium, trotz DLSS um 60FPS zu erreichen mit RT. Ich vermute, dass die Preise bald purzeln werden, wenn AMD seine Karten veröffentlicht, deshalb werde ich heute noch schnell meine 3060Ti auktionieren :ol:
 
Ja gut, wenn du RT in 1440p@60 willst, solltest dir aber eh lieber ne 3080 holen. Musste mit meiner 3060Ti auf Medium-Hoch Settings bei der Grafik und RT nur auf Medium, trotz DLSS um 60FPS zu erreichen mit RT. Ich vermute, dass die Preise bald purzeln werden, wenn AMD seine Karten veröffentlicht, deshalb werde ich heute noch schnell meine 3060Ti auktionieren :ol:
Hab jetzt mal mit eine RX 6800 XT bestellt und werde mir genau anhören ob und wie schlimm das Spulenfiepen ausfällt. Ist es zu schlimm geht die Karte zurück. Fallen die Preise nach der Vorstellung von AMD geht die Karte evtl. zurück (ich glaube jetzt noch nicht so wirklich dran, an den Preisen der NVidia 3xxx Serie hat die 4xxxer nichts geändert imho und AMD hat schon durchblicken lassen, dass man Anfang November keine Mittelklasse Karten vorstellen wird die zeitnah erscheinen; wird wohl auf High End hinauslaufen wodurch höchstens die RX 6950 sinken wird die für mich eh keine Option wäre und dann gibt die 6800 und XT vielleicht 20-50€ nach)
 
Hab jetzt mal mit eine RX 6800 XT bestellt und werde mir genau anhören ob und wie schlimm das Spulenfiepen ausfällt. Ist es zu schlimm geht die Karte zurück. Fallen die Preise nach der Vorstellung von AMD geht die Karte evtl. zurück (ich glaube jetzt noch nicht so wirklich dran, an den Preisen der NVidia 3xxx Serie hat die 4xxxer nichts geändert imho und AMD hat schon durchblicken lassen, dass man Anfang November keine Mittelklasse Karten vorstellen wird die zeitnah erscheinen; wird wohl auf High End hinauslaufen wodurch höchstens die RX 6950 sinken wird die für mich eh keine Option wäre und dann gibt die 6800 und XT vielleicht 20-50€ nach)
RT ist halt wirklich noch immer ein extremer Hardware Fresser auch mit ner Nvidia Karte.

Kleines Beispiel: CP2077 1440p, kein DLSS alles max inkl. raytracing: ~30FPS. Mach ich Raytracing komplett aus und nehme psycho reflektionen: 70FPS und kein drop unter 60. Mit DLSS gehen sich aber auch die 60 aus, muss allerdings Balanced gewählt werden das ist dann nimmer ganz so sauber, aber am 65 Zöller mit etwas sitzabstand durchaus spielbar. -Alternativ läuft auch alles auf max mit DLSS Quality auf 60FPS Lock in 4K wenn ich kein RT an habe(oder 30FPS mit RT)...

Die 6800XT ist für 1440p aber sicher die beste Wahl und man hat ja zur Not auch FSR was nicht so schlecht aussieht(zumindest auf der höchsten Qualitätsstufe, darunter verliert es recht stark in Sachen Bildqualität zu DLSS) und beim Raytracing hat man ja mittlerweile auch diverse Optionen, muss ja nicht immer die höchste sein. Effektiv sind die Radeon Karten ja "nur" 33% schlechter bei der RT Performance.
 
RT ist halt wirklich noch immer ein extremer Hardware Fresser auch mit ner Nvidia Karte.

Kleines Beispiel: CP2077 1440p, kein DLSS alles max inkl. raytracing: ~30FPS. Mach ich Raytracing komplett aus und nehme psycho reflektionen: 70FPS und kein drop unter 60. Mit DLSS gehen sich aber auch die 60 aus, muss allerdings Balanced gewählt werden das ist dann nimmer ganz so sauber, aber am 65 Zöller mit etwas sitzabstand durchaus spielbar. -Alternativ läuft auch alles auf max mit DLSS Quality auf 60FPS Lock in 4K wenn ich kein RT an habe...

Die 6800XT ist für 1440p aber sicher die beste Wahl und man hat ja zur Not auch FSR was nicht so schlecht aussieht(zumindest auf der höchsten Qualitätsstufe, darunter verliert es recht stark in Sachen Bildqualität zu DLSS) und beim Raytracing hat man ja mittlerweile auch diverse Optionen, muss ja nicht immer die höchste sein. Effektiv sind die Radeon Karten ja "nur" 33% schlechter bei der RT Performance.
Ja, die XT hat hier auch noch genug Rohleistung um mit RT zwischen 3060 Ti und 3070 Niveau zu landen. FSR 2.0 finde ich ganz gut, in etwa auf DLSS Niveau (aber bisschen schlechter). XeSS fand ich in den Paar Titeln die ich bisher gesehen hab überraschenderweise besser als beide.

Darf man ja fast nicht sagen aber ich hoffe maßgeblich für die Zukunft von RT werden wenigstens auf low die Konsolen sein und dann sollte auch die 6800 XT noch ordentlich performen
 
Darf man ja fast nicht sagen aber ich hoffe maßgeblich für die Zukunft von RT werden wenigstens auf low die Konsolen sein und dann sollte auch die 6800 XT noch ordentlich performen
Naja man sieht ja, wie weit die Konsolen bei RT hinterherhinken an zB. Spiderman(ein PS4 Game):

29nsybmwmjh91.jpg


Hat die meisten aber dennoch nicht gestört, weil sie nicht genau hingesehen haben. Die 6800XT schafft natürlich deutlich mehr, ist auch ca. doppelt so schnell.
 
Hallo liebe Leute,

schon lange nichts mehr hier getextet und wollte mal fragen wie es mit dem neuen Grafiktrend "DLS" so läuft?.

Ich kann nur aus eigener Erfahrung und Wahrnehmung sprechen. Am Anfang war DLS grafisch super, butterweichere Framerate und dann auch noch Hardware ersparniss es scheint das die Hardware nicht mehr soo heiß läuft bei höheren Einstellung?!?. Irgendwie wird das als der neue Wurf im PC-Bereich gehandelt. Tripple A Herrsteller supporten immer mehr dieses Feature und bringen besseren support mit, z.B. Cyberpunk 2077 hat jetzt die DLS Version 3 drauf. Alles schön und gut bis jetzt aber immer mehr verschwindet der Unterschied der klassischen Grafikeinstellungen.
Es sieht so aus als werden normale Grakaeinstellungen bei zukünftigen Spielen nicht mehr nötig sein?!?.

Wäre Schade dann ist man an ein bestimmten Standard gebunden den man in drei Größen einstellen kann = Performance, Standard oder Qualität?!?.
DLS ist für mich noch nicht der große Wurf, da ich Defizite sehe zu den normalen Grakaeinstellungen.
 
DLSS hat mit den anderen Grafikeinstellungen nix gemeinsam, da wurde auch nichts weniger. DLSS "Performance,Ausgewogen und Qualität" bedeutet einfach nur von wie weit unten die KI das Bild hoch skaliert, 720p,1080p oder 1440p. Was anderes macht es garnicht, bis auf mittlerweile besser aus zu sehen da AA auch oft besser wie die höhere Native Auflösung.
 
DLSS hat mit den anderen Grafikeinstellungen nix gemeinsam, da wurde auch nichts weniger. DLSS "Performance,Ausgewogen und Qualität" bedeutet einfach nur von wie weit unten die KI das Bild hoch skaliert, 720p,1080p oder 1440p. Was anderes macht es garnicht, bis auf mittlerweile besser aus zu sehen da AA auch oft besser wie die höhere Native Auflösung.
Um @Bomberman82 Frage mal zu beantworten. JA!!! DLSS ist DER große Wurf am PC. Wenn man sich mal ansieht, wieviele Frames man dadurch gewinnt, ist das schon beachtlich. Ein beispielt auf mein System bezogen. In Cyberpunkt mit Psycho Einstellungen mit DLSS in Qualität hab ich immer so um die 60 Frames mit dem Ultrawide Monitor (5120x1440). Mit DLSS3 hab ich konstant 120 Frames anliegen. Er würde wohl auch mehr schaffen, aber der Monitor macht nur 120 Frames. Einfach richtig gut das ganze. Und teilweise sieht das DLSS Bild besser aus als nativ. Das ist schon enorm. Es wäre soooo gut, wenn man sowas bei der nächsten Switch integrieren würde. Da würde dann richtig was gehen, und man müsste die Switch nicht mal so extrem leistungsfähiger machen.
 
Ja ist so, DLSS ist garnicht mehr weg zu denken und DLSS3 ist einfach unglaublich geil, gestern Hitman 3 für den Junior installiert und nicht gewusst das DLSS3 mit dabei ist und da jetzt auch mit allem auf anschlag locker 120fps und das war noch der Graka Killer als RT dazu kam :D
Glaub mit ner 3090 konntest du mir locked 30fps spielen :)
 
Ja ist so, DLSS ist garnicht mehr weg zu denken und DLSS3 ist einfach unglaublich geil, gestern Hitman 3 für den Junior installiert und nicht gewusst das DLSS3 mit dabei ist und da jetzt auch mit allem auf anschlag locker 120fps und das war noch der Graka Killer als RT dazu kam :D
Glaub mit ner 3090 konntest du mir locked 30fps spielen :)
Der Wahnsinn! Welch ein krasser Sprung von einer auf die nächste Grafikkarten Generation. Einfach richtig gut. Und man sollte bedenken, auch hier wird weiter entwickelt, und es wird auch hier noch Sprünge geben.
 
Und um das noch zu erweitern: Es geht nicht nur um DLSS von Nvidia, sondern um das Prinzip der erfolgreichen Voraussage einer KI eines entstehenden Bildes in weniger als einer Millisekunde. Sie denkt sich quasi ein Bild aufgrund vieler Faktoren (wie voriges Bild, Gewichtungen der Neuronen, Hardware) aus und fügt es ein oder flickt es ins Bild zusammen. Das Ergebnis ist mittlerweile unfassbar gut und performant. Und es gibt mittlerweile mehr als nur DLSS.

Nachteil ist nach wie vor kein Standard, auf das alle Spiele zugreifen können, die das bereits implementiert haben. Das heißt, jedes Spiel braucht eine dedizierte Version des Datensatzes. Das drückt sich beispielsweise darin aus, dass Control von Remedy ungemoddet immer noch DLSS 2.0 (glaube ich) benutzt. Das ist bereits sehr gut, aber bei weitem nicht so gut, wie nachfolgende Versionen. Jedes Spiel wird mit dieser Unterstützung ausgeliefert. Es ist nicht so etwas wie DirectX, wo das, glaube ich, auf Basis des Betriebssystems aktualisiert wird und die Spiele immer auf die neueste Version, die sie unterstützen aber dennoch aktualisiert wird, zugreifen können.

Das bedeutet aber auch, dass es mittlerweile für jede Grafikkarte der drei Hersteller etwas gibt:

FSR fvon AMD für alle. XESS von Intel für alle. DLSS von Nvidia und nur für Nvidia.
 
Zuletzt bearbeitet:
Ok so langsam kriege ich den Bogen raus, was DLS oder allgemein "Sampling" angeht. Musste hier und da ein paar Rädchen drehen. Aber jetzt habe ich es bei Cyberpunk2077 so hinbekommen wie mit meiner nativen Darstellung. Habe auf Qualität gestellt und den Schärfe-Regler auf halb und siehe da es ist fast kein Unterschied mehr.

Native =

20230320102515_1udfdy.jpg


DLS =

20230320102921_1fhc4i.jpg





DLS =

20230320102937_1kme4i.jpg



Native =

20230320102531_12af7n.jpg
 
Die Schwachstelle der Sampling Techniken sind Bewegungen. Dabei erscheint oft "Ghosting", sowas wie Spuren oder Schlieren hinter den Sachen, aus welcher Richtung sie stammen.


Das ist ein extremes Beispiel, aber eben DLSS 2.0. Man beachte das Heck des Wagens, welches so ein heftiges "After Image" erzeugt, dass man meinen könnte, es handele sich um eine Reflektion. Das ist mit DLSS 2.3 (anscheinend?) deutlich besser geworden, aber wie gesagt muss dafür die Datenbank für jedes Spiel einzeln gepatcht werden (wie in Cyberpunk geschehen) und komplett ausgemerzt ist das nicht.

DLSS 3.0 hat einen irreführenden Namen. Es ist nicht einfach eine "bessere" Version, sondern ein zusätzliches Feature.

Es erzeugt ein komplettes, "künstliches" Bild. Das ist theoretisch auch auf allen Tensor-Core-Karten (RTX 2k+) möglich, macht Nvidia aber aus Gründen nicht. DLSS 3.0 erzeugt damit wirklich quasi Bilder aus dem Nichts und erzeugt damit mehr FPS.

Die Bilder haben aber eine... teilweise fragwürdige Qualität, jedenfalls in Flight Simulator.


Es ist aber insgesamt für rohe Performance quasi geschenkt wirklich genial. Ich beispielsweise kann mit Ghosting nur recht schwer umgehen.

---

@Con$olef@natic Ich wollte gerade schreiben, dass eine 3090 Hitman 3 garantiert im Vorbeigehen auf 4k mit RT ohne DLSS bei 60 FPS schaffen würde.

Habe zum Glück vorher mal nach Benchmarks geschaut:


:eek: Ich kann mir nicht vorstellen, dass das gerechtfertigt ist. Ich habe das Spiel gesehen und es sieht nicht nach 12 FPS bei 4k mit RT bei einer 3090 aus...

---

Gerade den DLSS Swapper bei Death Stranding ausprobiert. Selbst bei der Game Pass Edition funktioniert das. Beinahe kein Ghosting mehr, daher kann ich es jetzt endlich wieder in 4k auf dem OLED zocken! 😍

DLSS bei ENB mittlerweile auch möglich. :banderas:
 
Zuletzt bearbeitet:
In Hitman wird schon intensiv RT genutzt, wie in Control auch, das kostet halt ohne DLSS in 4K einiges.
Und DLSS3 wäre so nicht einfach auf den RTX2xxx und 3 karten möglich wie auf Ada, da es da zuviel latenz bräuchte und dafür ja die Hardware zuständig ist die Ada spendiert bekommen hat.
 
Die Schwachstelle der Sampling Techniken sind Bewegungen. Dabei erscheint oft "Ghosting", sowas wie Spuren oder Schlieren hinter den Sachen, aus welcher Richtung sie stammen.


Das ist ein extremes Beispiel, aber eben DLSS 2.0. Man beachte das Heck des Wagens, welches so ein heftiges "After Image" erzeugt, dass man meinen könnte, es handele sich um eine Reflektion. Das ist mit DLSS 2.3 (anscheinend?) deutlich besser geworden, aber wie gesagt muss dafür die Datenbank für jedes Spiel einzeln gepatcht werden (wie in Cyberpunk geschehen) und komplett ausgemerzt ist das nicht.

DLSS 3.0 hat einen irreführenden Namen. Es ist nicht einfach eine "bessere" Version, sondern ein zusätzliches Feature.

Es erzeugt ein komplettes, "künstliches" Bild. Das ist theoretisch auch auf allen Tensor-Core-Karten (RTX 2k+) möglich, macht Nvidia aber aus Gründen nicht. DLSS 3.0 erzeugt damit wirklich quasi Bilder aus dem Nichts und erzeugt damit mehr FPS.

Die Bilder haben aber eine... teilweise fragwürdige Qualität, jedenfalls in Flight Simulator.


Es ist aber insgesamt für rohe Performance quasi geschenkt wirklich genial. Ich beispielsweise kann mit Ghosting nur recht schwer umgehen.

---

@Con$olef@natic Ich wollte gerade schreiben, dass eine 3090 Hitman 3 garantiert im Vorbeigehen auf 4k mit RT ohne DLSS bei 60 FPS schaffen würde.

Habe zum Glück vorher mal nach Benchmarks geschaut:


:eek: Ich kann mir nicht vorstellen, dass das gerechtfertigt ist. Ich habe das Spiel gesehen und es sieht nicht nach 12 FPS bei 4k mit RT bei einer 3090 aus...

---

Gerade den DLSS Swapper bei Death Stranding ausprobiert. Selbst bei der Game Pass Edition funktioniert das. Beinahe kein Ghosting mehr, daher kann ich es jetzt endlich wieder in 4k auf dem OLED zocken! 😍

DLSS bei ENB mittlerweile auch möglich. :banderas:

Danke @Naldan für deine Ausführliche Erklärung genau so hat es sich bei mir auch verhalten. Konnte es nur nicht soo gut in Worte fassen. Ich habe auch noch einige Screenshots wo dieser Umstand mit Ghosting und kleineren Auflösungsfehlern aufgrund der Berechnung der Grafik wahrscheinlich hatte. Da sah meine Figur auf dem Bild aus, als sei es nur mit 640x480 pixel aufgelöst, obwohl in Bewegung merkst du es garnicht. Man muss etwas frickeln um DLS in vollen zügen zu genießen. Manchmal zappe ich zurück auf native Auflösung und denke:,,Boah, Nativ sieht doch viel besser aus, Knackscharfe Texturen, prallere Farben?!?" Bis ich dann die Framerate zu spüren bekomme und denke:,,Joah, dann doch lieber DLS."

Mit DLSS hast du sogar etwas mehr details in der fehrne statt mit Nativ ;)
DF zeigt das immer gut, das kann die KI halt besser.

Kommt auf das Spiel an als eines der ersten Simgames bietet Farming Sim22 verschiedene Sampling Einstellung wie Xess (keine Ahnung) und DLS. Und das ist leider nicht optimal und man sieht das die Ferne total verschwommen ist, als ob man wie eine Brillenträger Kurzsichtig wäre. Ich glaube es gab sogar Let´s Plays wo das mal gezeigt wurde die Let´s Player dann auf Nativ zurückgestellt haben um den Unterschied zu zeigen. Habe es eben gerade auch nochmal probiert und tatsächlich die Ferne kommt nicht soo gut rüber und man merkt das Buffering total wenn man diverse Gegenstände anschaut und näher rangeht. Da wäre seitens der Herrsteller ein wenig optimierungsbedarf. Also im Moment spiele ich mit den Einstellung auch DLAA ist ne gute Sache, was die Grafik in der Ferne ein bißchen besser macht man aber den Übergang zwischen Nah und Ferne man wahrnimmt.
 
In mittlerweile fast jedem Game das DF Analysiert, hat man mit DLSS bessere details, außer das LOD ist wie in Dead Space irgendwie kapput gemacht worden, was sich selbst Dictator nicht erklären kann Ghosting wurde auch immer ziemlich schnell behoben. Gibt Viele AAA games wo Dictator meinte sieht besser aus als Natives 4K, teils sogar nur DLSS im Performance Modus, weil TAA das Bild oft zu soft macht. In RDR2 sieht DLSS auch viel schärfer aus imo.
 
Da ja gerade erst drüber diskutiert wurde, im neuen DF Podcast, meinten sie erneut, das NV 5-6 Jahre an Frame Generation gearbeitet hat. Ich habs die Tage noch im ERA extra gesucht wo Dictator das mal einem geschrieben hat, mit der Begründung, das AMD da auch erst mal nicht so gut mit ihrer Methode seien wird wie die HW basierte von NV.
Aber hat sich jetzt erledigt, da sie es im Podcast noch mal erwähnt haben.
Auch Intel arbeitet wohl schon länger dran, kommt aber später.
Gute news ist, das mit dem Unreal Engine Update 5.2 jedes Game was mit der UE ab der Version erstellt wird automatisch DLSS3 unterstützten wird ohne aufwand und ab Version 5.1 DLSS 2 version 3 :goodwork:
 
Zurück
Top Bottom