PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

ja, solange das Bild besser aussieht :ugly:

Im Grunde ist die AMD Lösung mal wieder nur "2. Wahl"
Nicht wenn du keine DLSS fähige GPU hast, dann ist es die erste Wahl. Außerdem hängt es auch sehr stark vom Spiel ab, hier hat hw unboxed Spiele die beides haben gegenübergestellt:


Fazit der höchste Quality Modus ist sehr nahe an echtem 4K, verbraucht aber deutlich weniger Leistung als nativ und DLSS ist nicht in jeder Situation besser als natives 4K.
 
Nicht wenn du keine DLSS fähige GPU hast, dann ist es die erste Wahl.
interessiert mich als 2080ti Besitzer eher weniger. :ugly:


Außerdem hängt es auch sehr stark vom Spiel ab
ja, FSR läuft entweder schlecht oder nicht ganz so schlecht je nach Spiel. In jedem Fall x mal schlechter als DLSS, wie zu erwarten halt.


Bei solchen Dingen vertraue ich lieber Nvidia, die geben da deutlich mehr Geld für R&D aus und laufen der Konkurrenz nicht hinter her
 
Eben nicht. Siehe mein Video edit. X-mal... das sind Nuancen.
klar, wenn es schlecht implementiert ist, könnte AMD an Nvidia rankommen.

In deinem Video sieht man ziemlich gut, wie die Image Quality bei FSR unter Ghosting und Aliasing leidet, Bild wird zu unscharf, vor allem bei den kleineren Details (sagen ja selber dass FSR kein gutes Upscaling bietet). Beide Lösungen haben noch Probleme, aber das Video zeigt auch warum ich wieder zu Nvidia greifen würde.

(Avenger ist imho eh kein gutes Beispiel, weil das generell scheiße lief und ein viel zu unruhiges Bild hat)
 
Naja in CP2077 ist DLSS ja auch recht verpönt(vielleicht ist es ja mittlerweile besser) gewesen, wäre interessant hier FSR zu sehen. Allgemein wird FSR natürlich immer schlechter als 4k nativ sein, das geht ja gar nicht anders, DLSS schafft es ja auch nur besser als 4k zu wirken weil es mit 8k Auflösung antrainiert wird.
 
Cyberpunk würde ich jetzt auch nicht wegen der Technik loben :ugly:
 
interessiert mich als 2080ti Besitzer eher weniger. :ugly:



ja, FSR läuft entweder schlecht oder nicht ganz so schlecht je nach Spiel. In jedem Fall x mal schlechter als DLSS, wie zu erwarten halt.


Bei solchen Dingen vertraue ich lieber Nvidia, die geben da deutlich mehr Geld für R&D aus und laufen der Konkurrenz nicht hinter her
R&D sagt nix aus sofern man das geld in die falsche entwicklung steckt
intel hat auch weit mehr R&D als amd und schau dir an wie stark die einknicken

bestes beispiel wird wohl die nächste generation an gpus sein nvidia klassischer big monolith vs amd MCM
wenn es gut funktioniert könnte das nen großern unterschied machen als intel 14nm cpus vs amd 10mn cpus

nvida hat ja jetzt schon mit der die größe zu kämpfen da sie den platz für tensor und cuda cores einplanen müssen was amd nicht machen muss
nvidas nächste chip könnte locker 700mm²+ sein, amds hingenen 2x300mm²
da kann man sich schon ausmahlen welche chip herstelle bei der produktion einfacher haben wird fehlerfreihe die zu bekommen

ampera vs rdna2 anschaut liegt nvidias vorteil allein bei der höheren RT leistung ansonsten verbrauchen sie oft mehr watt trotz weniger ram undsind langsamer
mal dlss /fsr bei seite es kommt schon sehr sehr oft vor das eine 6800xt mit 4608 cores und 20.7Tf schneller ist in game als eine 3080 mit 8704 cores und 29.7TF
und auf 2022 gesehen erwartet und 18432 cuda cores mit 144 RT cores vs 2x7680 RDNA3 cores mit 2x120 RT cores

nvidia das 2019 mit MCM als zukunft der gpu bezeichnet und nun schein in dem punkt von amd überhohlt worden zu sein obwohl sie mehr R&D haben
 
R&D sagt nix aus sofern man das geld in die falsche entwicklung steckt
Willst jetzt behaupten, dass technischer Markführer Nvidia ihr R&D in eine komplett falsche Entwicklung gesteckt hat?

Damit wäre ich ja mal gaaaanz vorsichtig, denn AMD sind diejenigen, die Nvidia durchgehend hinterherlaufen (und das in den meisten Fällen eher schlecht als recht) und dann erstmal halbherzig umsetzen.

intel hat auch weit mehr R&D als amd und schau dir an wie stark die einknicken

da hat wer die Alder Lake Gerüchte noch nicht mitbekommen :coolface:

nvida hat ja jetzt schon mit der die größe zu kämpfen da sie den platz für tensor und cuda cores einplanen müssen was amd nicht machen muss
ist eher ein kleines Problem, Ergebnisse sprechen da eher für Nvidia und gegen AMD.

RTX, DLSS, Leistung, Treiber. Alles besser bei Nvidia
 
Zuletzt bearbeitet:
Willst jetzt behaupten, dass technischer Markführer Nvidia ihr R&D in eine komplett falsche Entwicklung gesteckt hat?

Damit wäre ich ja mal gaaaanz vorsichtig, denn AMD sind diejenigen, die Nvidia durchgehend hinterherlaufen (und das in den meisten Fällen eher schlecht als recht) und dann erstmal halbherzig umsetzen.



da hat wer die Alder Lake Gerüchte noch nicht mitbekommen :coolface:


ist eher ein kleines Problem, Ergebnisse sprechen da eher für Nvidia und gegen AMD.

RTX, DLSS, Leistung, Treiber. Alles besser bei Nvidia
technishcer markt führer?
also amd will einen MCM rausbringen nächstes jahr nvidia aber nicht obwohl sie schon in 2019 davon geredet haben da MCM die zukunft der gpus ist
und wenn das die zukunft ist und amd da schnelelr da ist fürde ich nicht von technischen markt führer reden
das nvidia sein R&D in die falsche richung gesteckt kann man gut an cuda vs RDNA sehen wo nvidia die fast doppelte anzhal an kernen braucht + exrta tensor kernen um mit amds RDNA2 basierenden kernen mit zu halten

rtx ist marketing das RT beide können...
dlss (ghosting²)? nicht besonderes wenn man FSR zur verfühgung hat das auch mehr leistung bringt
treiber also kann mich erinner vor kurzem wieder mal ne news gelesen zu haben "game xyz kills 3090 ", zumal das "login to use you driver settings" eher nen witz ist
bei amd must nicht zwei dinge wie treiber und settings menü installieren da hast alles in einen treiber,
von settings, aufnahme bis hin über zu overclocking ohne das man dich nach nem login fragt

leistung ist bei nvidia besser? klar deswegen kämpft in benchmarks eine 29.7tf 3080 immer mit eier 20.7tf 6800xt um den vorderen platz
man muss sich vorsteller eine gpu mit 8704 + 272 shadern kampf mit eine gpu die grad mal 4608 shader zur verfügung hat......

adler lake? sind das die selben gerüchste wie schon bei ....sry hab die name der ganzen intel cpus die in den letzen monaten erschienen sind schon vergessen
intel haut gefühlt alle 6 monat ne neue cpu generation um und um am ende das schlechtere gesamt paket zu liefern
auf intel gerüchte gebe ich schon seit jahren nix mehr denn immer sollte xyz lake viel schneller viel besser sein als zen xyz, immer war diese news falsch oder viel zu übertrieben
 
Es riecht hier fürchterlich nach Fanboy. Dachte immer solche kindischen "Diskussionen" gibts nur bei den Konsolen.

Keine Ahnung warum ich auf eine Lösung, also RTX und gute Bildqualität, von AMD warten sollte, wenn Nvidia es schon anbietet, mir doch egal welcher Hersteller es ist. Hauptsache ich kann es JETZT nutzen und nicht vllt. evtl. in ein paar Monaten/Jahren.
 
Es riecht hier fürchterlich nach Fanboy. Dachte immer solche kindischen "Diskussionen" gibts nur bei den Konsolen.
Nene, gerade Nvidia hat ein treues Heer an Fanboys herangezüchtet, meine letzten beiden Karten waren Nvidia(970,1070Ti) davor AMD(HD4850, HD6870) und meine nächste hatte eine 3080 werden sollen aber nicht für 1000 Euro und schon gar nicht für 1500 oder 2000 Euro.

Man sollte nie vergessen, dass es Nvidia war, die Minern ihre GPUs in hunderttausenden direkt verkauft haben. Es war auch Nvidia die mit 699 Euro 3080 gelockt haben, obwohl dieser Preis durch die AiBs nicht haltbar war nach der ersten Chiplieferung, da danach rabatte seitens Nvidia gestrichen wurden.

Klar die Preise sind auch bei AMD derzeit horrend und der gesamte Grafikkartenmarkt ist fucked up. Ich profitiere aber dennoch trotz Nvidia Karte von AMDs Entwicklungen, konnte mir einen günstigeren Monitor ohne Gsync kaufen und nutze diesen im Freesync Modus mit meiner Nvidia Karte. Auch FSR geht mit meiner 1070Ti. Auch AMDs dynamisches Fidelity FX hat mir auf meiner Nvidia Karte ein besseres Erlebnis in Cyberpunk beschert.

AMD tut einfach viel für die PC Gemeinde und macht alles open source, während Nvidia auch auf Kosten der eigenen Leistung gerne Stolpersteine in den Weg legt, damit die Konkurrenz schlechter aussieht. Stichwort Hairworks im Witcher 3 oder was es auch schon gab, dass in einem Spiel Dinge berechnet werden müssten die gar nicht im Bild waren, nur um AMD Karten stärker zu verlangsamen, weil die mit dem und dem etwas schlechter klargekommen sind als die Nvidia Karten zu der Zeit.

Am Ende ist es mir aber auch egal was in meinem Rechner steckt, solange die Preisleistung stimmt.

Die stimmte bei der Geforce256 um rund 200 Euro, der HD4050 für 200 Euro, der HD6870 für 200 Euro, der 970 für 300 Euro und der 1070Ti für 350 Euro. Ich bin nicht gewillt mehr als 500 Euro für eine neue Grafikkarte zu zahlen, vor allem nicht, wenn diese nicht einmal mehr als die 8GB RAM meiner aktuellen bietet und dann vielleicht nur 50% Mehrleistung zu meiner alten Karte liefert.
 
Nene, gerade Nvidia hat ein treues Heer an Fanboys herangezüchtet
Was auch daran lag, dass AMD immer hinterhergerannt und halbherzige Dinge gebracht hat bzw die Karten früher auch einfach nur scheiße waren (sei es Treiber, AA Fehler oder sonstwas) und Nvidia halt einfach immer den Ton angesagt und den Weg gezeigt hat (siehe z.B. auch Raytracing oder DLSS, AMD hätte sowas doch nie gebracht, hätte Nvidia da nicht jahrelang R&D betrieben). Wenn ich Raytracing will, dann nehme ich auch lieber Nvidia als denjenigen, der immer hinterher hinkt und dann eine schlechtere Lösung anbietet.


Nach meiner 2080 werde ich schauen, ob ich mal wieder den Schritt zu AMD wagen sollte (habe ich 3 mal bisher gemacht und jedes mal bereut, dann gebe ich doch lieber etwas mehr Geld aus. Gleiches bei Freesync vs Gsync), oder dann zur 40er Reihe bei Nvidia. Bin gespannt, wie der nächste Schritt aussehen wird, wenn es so wird wie bei Intels Alder Lake (wenn die Gerüchte stimmen), dann freue ich mich schon drauf. Bin froh damals zur 20er Reihe zugegriffen zu haben, die 30er Reihe macht mir im Vergleich einen zu kleinen Sprung.
 
Was auch daran lag, dass AMD immer hinterhergerannt und halbherzige Dinge gebracht hat bzw die Karten früher auch einfach nur scheiße waren (sei es Treiber, AA Fehler oder sonstwas) und Nvidia halt einfach immer den Ton angesagt und den Weg gezeigt hat (siehe z.B. auch Raytracing oder DLSS, AMD hätte sowas doch nie gebracht, hätte Nvidia da nicht jahrelang R&D betrieben). Wenn ich Raytracing will, dann nehme ich auch lieber Nvidia als denjenigen, der immer hinterher hinkt und dann eine schlechtere Lösung anbietet.


Nach meiner 2080 werde ich schauen, ob ich mal wieder den Schritt zu AMD wagen sollte (habe ich 3 mal bisher gemacht und jedes mal bereut, dann gebe ich doch lieber etwas mehr Geld aus. Gleiches bei Freesync vs Gsync), oder dann zur 40er Reihe bei Nvidia. Bin gespannt, wie der nächste Schritt aussehen wird, wenn es so wird wie bei Intels Alder Lake (wenn die Gerüchte stimmen), dann freue ich mich schon drauf. Bin froh damals zur 20er Reihe zugegriffen zu haben, die 30er Reihe macht mir im Vergleich einen zu kleinen Sprung.
Ich weiß gar nicht woran das liegt, aber mir würde im Traum nicht einfallen, mir ne AMD Karte ins Gehäuse zu stecken. Ich hatte immer eine Nvidia Karte verbaut. Und das wird sich auch nicht ändern. Ich hatte immer ne Intel/Nvidia Kombi. Bin da immer bestens mit gefahren.
Wieso also ändern? :nix:
 
Ich war eigentlich immer je nach Gefühl, meine erste Graka war ne ATI. Die haben allerdings auch alles mögliche dafür getan, das man keine Radeon mehr kauft.
Die ist mir knapp nach der Garantiezeit abgeraucht, dann hatte ich eine Radeon 4850..zweimal, weil innerhalb der Garantie abgeraucht und die letzte habe ich verkauft. Seitdem bin ich bei Nvidia) und glücklich, die laufen wenigstens ohne murren. Auch wenn ich die Preise nicht gutheiße, aber immerhin kann man die Karten noch teuer verkaufen, wenn man wechseln will.

Klar hat sich in der Zeit auch bei AMD was getan, aber ist der Ruf einmal ruiniert, wird es schwer mich vom Gegenteil zu überzeugen. Meine nächste wird mit sicherheit wieder ne Nvidia (wahrscheinlich die 4080), alleine schon wegen dem GSync-Monitor. Da muss schon einiges passieren bis ich mir ne Highend AMD gönne.
 
Was auch daran lag, dass AMD immer hinterhergerannt und halbherzige Dinge gebracht hat bzw die Karten früher auch einfach nur scheiße waren (sei es Treiber, AA Fehler oder sonstwas)
Ich kann die AMD Zeit der 970er Generation bis heute nicht beurteilen aber meine HD4850 und HD6870 hatten nie Probleme egal mit welchen games, und das ist immerhin ein nicht zu kleiner Zeitraum(Ich tippe auf ca. 5 Jahre).

Daher kann ich das viele gejammere wegen der Treiber nicht wirklich nachvollziehen, sicher gabs mal hier und da einen Absturz bei Spielen, das passiert aber auch auf nvidia Seite immer wieder mal. Ist aber nicht so gravierend, dass ich deswegen gleich irgendwo rumfluchen müsste.

Ich habe allerdings gehört, dass es mit der 5700er Serie Probleme gab, die aber offenbar auch auf einen Hardwarefehler im GPU Design selbst zurückzuführen waren, das ist natürlich scheisse und kann aber immer mal passieren. Dafür sind ja gerade erst letztens einige Geforce 3090er abgeraucht wegen schlechter GDDR6X Kühlung und weil New World offenbar das Powerlimit einfach außer Kraft gesetzt hat. Waren zwar partnermodelle aber in den Spezifikationen von Nvidia gefertigt und man kann sagen Amazon war schuld aber normalerweise sollte der Grafiktreiber selbst bzw. das BIOS solche Vorfälle vermeiden...
 
Zuletzt bearbeitet:
Ich kann die AMD Zeit der 970er Generation bis heute nicht beurteilen aber meine HD4850 und HD6870 hatten nie Probleme egal mit welchen games, und das ist immerhin ein nicht zu kleiner Zeitraum(Ich tippe auf ca. 5 Jahre).

Daher kann ich das viele gejammere wegen der Treiber nicht wirklich nachvollziehen, sicher gabs mal hier und da einen Absturz bei Spielen, das passiert aber auch auf nvidia Seite immer wieder mal. Ist aber nicht so gravierend, dass ich deswegen gleich irgendwo rumfluchen müsste.

Ich habe allerdings gehört, dass es mit der 5700er Serie Probleme gab, die aber offenbar auch auf einen Hardwarefehler im GPU Design selbst zurückzuführen waren, das ist natürlich scheisse und kann aber immer mal passieren. Dafür sind ja gerade erst letztens einige Geforce 3090er abgeraucht wegen schlechter GDDR6X Kühlung. Waren zwar partnermodelle aber in den Spezifikationen von Nvidia gefertigt.
vor der 970er hatte ich in der gleichen Gen eine AMD Karte, die habe ich nach einem Jahr getauscht weil Treiber absolut kaputt waren (Abstürze waren da noch das geringere Übel, Spielqualität hat gelitten), Grafikfehler verursacht hatte bei diversen AA Settings und dann hatte Nvidia mit physx auch noch gelockt bei Batman.
Vor meiner 8800gt hatte ich auch noch eine AMD (oder war das noch ATI?) drin die sind gegen Nvidia ziemlich abgestunken,

Ich weiß gar nicht woran das liegt, aber mir würde im Traum nicht einfallen, mir ne AMD Karte ins Gehäuse zu stecken. Ich hatte immer eine Nvidia Karte verbaut. Und das wird sich auch nicht ändern. Ich hatte immer ne Intel/Nvidia Kombi. Bin da immer bestens mit gefahren.
Wieso also ändern? :nix:
ich habe gerne Hersteller gewechselt um zu sehen was die konkurrenz so macht. AMD hat da mit Enttäuschung bei mir auf jeden Fall geglänzt.
 
or der 970er hatte ich in der gleichen Gen eine AMD Karte, die habe ich nach einem Jahr getauscht weil Treiber absolut kaputt waren (Abstürze waren da noch das geringere Übel, Spielqualität hat gelitten), Grafikfehler verursacht hatte bei diversen AA Settings und dann hatte Nvidia mit physx auch noch gelockt bei Batman.
Vor meiner 8800gt hatte ich auch noch eine AMD (oder war das noch ATI?) drin die sind gegen Nvidia ziemlich abgestunken,
Dann hätte ich wohl einfach Glück und die richtigen Generationen erwischt xD

Von der RX200er Serie hörte man allerdings auch viel Gutes, das Design hat AMD ja letztlich bis zur RX580er gemolken :D

Was die aktuellen Karten angeht, die 6000er Serie schlägt sich recht gut, sofern man auf Raytracing verzichten kann. Also für die paar Leute die welche haben.

Mit einer 2080Ti wurde ich mir aber auch noch keine Sorgen um ein Upgrade machen. War zwar ne Sündhaftteure Karte aber wenn man sich die letzten 2 Jahre so ansieht eigentlich eine der besten die man haben konnte mit noch immer genug Leistung für 4K.

Ich rechne damit endlich Q2/3 2022 meine Grafikkarte aufzurüsten, für 4k ist die 1070Ti abseits weniger fordernder Titel wie FFXIV oder Trails of Cold Steel IV einfach nicht mehr brauchbar(also nur mit 30fps was in der Regel ein Graus ist).

Angeblich sollen die nächsten Nvidia Karten aber auch die RDNA 3 Karten nochmal ordentlich eins auf die 3080/RX6800 draufgehen, die Leute munkeln von 60-80% Mehrleistung, das würde mir wahrscheinlich die nächsten 10 Jahre genügen :ugly:
 
Kann die Problemchen auch nur bestätigen.
An sich ist mir die Marke schon immer bummsegal, Probleme hatte ich aber bisher immer nur mit AMD bzw. ATI Karten.
Zuletzt die 5700xt, mit dem guten Stück hatte ich in so wahnsinnig vielen Spielen Probleme, neue als auch alte. (Z.b Spellforce 3 lief ne Zeit bei allen 5700-ern gar nicht, das uralte Spellforce 1 hingegen hatte unspielbare Anzeigefehler)
Dazu Freezes, massivste Probleme bei mehreren Monitoren etc. pp

Keines der Probleme hatte ich davor mit meiner 1070 noch danach mit meiner 3080er Tuf im selben System.
 
Vor meiner 8800gt hatte ich auch noch eine AMD (oder war das noch ATI?) drin die sind gegen Nvidia ziemlich abgestunken,
Ja die 3000er und 2000er Serien waren nicht so der Bringer, mit der HD4000er(Crysis auf high mit 30fps locken :twewy:) und bis zur HD7000er Serie(und danach RX280er) hat AMD ordentlich Contra geliefert, war mal die eine mal die andere Marke vorne.
 
Zurück
Top Bottom