PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Du hast jetzt noch bis zum 10.12. Zeit mit deiner 3080, Cyberpunk wurde gerade erneut verschoben.
Ernsthaft? Die verarschen uns doch. Naja, mir soll es eigentlich ganz recht sein; ich bin tief in Anno versunken, hab Mario Galaxy 1 und am Freitag kommt ja Pikmin raus.

Aber das ist schon echt seltsam. Aber dann hab ich jetzt erst einmal keinen Druck, die Karte zu bekommen. Wird dann über die Weihnachtsfeiertage daheim gezockt.
 
Ich hoffe das Morgen Nvidia so richtig richtig auseinander genommen wird. Ich liebe zwar Nvidia aber die Monopolstellung hat NV nicht gut getan aus Ingenieur Sicht. Das ist Historisch mMn was Morgen abgehen wird. Ich kaufe nur Nvidia freue mich aber aufrichtig für Lisa. Und eine 7900XT mit 24/32 GB wäre dann eine Kaufoption. Bei der 6900XT vermute ich die Natürlichen Kinderkrankheiten. Die ja durch die Bank alle haben, selbst Apple.

Außerdem muss Nvidia nun für alle RTX Karten optimieren.

EDIT:

EDIT II:
Nun denkt doch mal bitte mit eurem freien Gehirn nach:

Nvidia kann bis 2Ghz minimal etwas drüber. Was passiert den nun mit der 3080, wenn man da OC betreibt? Man kommt ans allgemeine NV Limit.
Zum zweiten mal Überhaupt kann man kaum OC betreiben bei NV. Zuletzt war das bei den Fermi so GTX470/480 also 1741.


Was soll dann NV anbieten? Sie müssen die GHz einteilen um verkaufen zu können, diese meine Aussage ist nicht ungeheuerlich unmöglich. Im gegenteil.
 
Zuletzt bearbeitet:
performancebkjac.png[

Unglaublich schon jetzt. Kannst du dich erinnern gerade mal paar Seiten her wo man mich belächelte für die Aussagen mit dem Vram. Leute, mit Marketing Wissen habt ihr gar kein Wissen. Im Gegenteil ihr werdet in die Irre geführt.
Naja abseits von DOOM Eternal mit den Nightmare Ultra Texturen die man von der Stufe auf Ultra stellen kann, habe ich kein Spiel gesehen wo in 4K der Speicher wirklich knapp wird. Wo die 2080Ti schneller ist, hat es wohl mehr mit der Bandbreite zu tun: 448 GBps bandwidth hat die 3070 nur und die 2080Ti hat eben 616 GBps.(Genauso wie bei der 3090 zur 3080, die nichts vom Mehrspeicher hat aber durch die etwas größere Bandbreite bei manchen Games bis zu 15% schneller war) Den Speicher um 1000MHz zu übertakten scheint da einiges zu bringen bei der 3070 aber frag mich nicht wieviel Bandbreite sie dadurch gewinnt :ugly:

Ich hab die Unterschiede mal farblich markiert und den VRAM usage lt. HW Unboxed dazugeschrieben:

vramkfjfq.png


Und DOOM Eternal ist das bisher einzige Spiel, wo der 8GB VRAM wirklich überfüllt werden, sind 15% Einbußen für die 3070. Selbst ohne das Tweaking sind 120FPS in 4K für eine Karte die Nvidia mit 1440p Benchmarks beworben hat beeindruckend. Du bist hier am Limit... Ich mit meiner 3440x1440 Auflösung kann die Ultra Nightmare Texturen ohne Probleme mit dazuschalten, komme natürlich mit meiner 1070Ti bei Weitem nicht auf diese Framerates(stabile 60 sind aber immer da).

Die Ganze Vram Diskussion ist in meinen Augen Meckern auf hohem Niveau, sicher wären 16GB besser und zukunftssicherer, wir haben es hier dennoch mit einer verdammt schnellen Grafikkarte zu tun, die sich mit dem Flagschiff der letzten Generation duellieren kann und das zu einem Preis von hoffentlich 500 Euro.
 
Zuletzt bearbeitet:
Mich Jucken die 8GB PS/XONE Gen Games überhaupt nicht.
Ich kaufe immer für die Zukunft, niemals, wirklich niemals für die Gegenwart (ausser man Rechnet meinen PS5 kauf mit dazu^^).

Der Redakteur Sv3n schreibt:

Sehr effiziente und in Full HD und WQHD auch sehr schnelle Grafikkarte, die mir gut gefällt.

In 4K mal eben 100 Watt weniger als eine 3080 FE sind schon ein Wort und verglichen mit ihren Vorgängerinnen, der 2070 und 2070 Super ein weitaus besserer Deal.

Mir wären 8 GB zu wenig, denn alles ab dem Kaliber einer 3070 würde ich 2 bis 2,5 Jahre nutzen wollen.

Quelle: Computerbase.
 
Noch was interessantes, Metro Exodus und Tomb Raider laufen mit der 3070 besser als mit der 2080Ti auch in 4K mit intel CPU: Processor Core i9 9900K (8c/16t) @ defaults
vernnftigecpuoljct.jpg

 
Zuletzt bearbeitet:
performancebkjac.png[


Naja abseits von DOOM Eternal mit den Nightmare Ultra Texturen die man von der Stufe auf Ultra stellen kann, habe ich kein Spiel gesehen wo in 4K der Speicher wirklich knapp wird. Wo die 2080Ti schneller ist, hat es wohl mehr mit der Bandbreite zu tun: 448 GBps bandwidth hat die 3070 nur und die 2080Ti hat eben 616 GBps.(Genauso wie bei der 3090 zur 3080, die nichts vom Mehrspeicher hat aber durch die etwas größere Bandbreite bei manchen Games bis zu 15% schneller war) Den Speicher um 1000MHz zu übertakten scheint da einiges zu bringen bei der 3070 aber frag mich nicht wieviel Bandbreite sie dadurch gewinnt :ugly:

Ich hab die Unterschiede mal farblich markiert und den VRAM usage lt. HW Unboxed dazugeschrieben:

vramkfjfq.png


Und DOOM Eternal ist das bisher einzige Spiel, wo der 8GB VRAM wirklich überfüllt werden, sind 15% Einbußen für die 3070. Selbst ohne das Tweaking sind 120FPS in 4K für eine Karte die Nvidia mit 1440p Benchmarks beworben hat beeindruckend. Du bist hier am Limit... Ich mit meiner 3440x1440 Auflösung kann die Ultra Nightmare Texturen ohne Probleme mit dazuschalten, komme natürlich mit meiner 1070Ti bei Weitem nicht auf diese Framerates(stabile 60 sind aber immer da).

Die Ganze Vram Diskussion ist in meinen Augen Meckern auf hohem Niveau, sicher wären 16GB besser und zukunftssicherer, wir haben es hier dennoch mit einer verdammt schnellen Grafikkarte zu tun, die sich mit dem Flagschiff der letzten Generation duellieren kann und das zu einem Preis von hoffentlich 500 Euro.
Nochmals, die Cold War Beta zeigte jetzt schon 8,2GB Ram bei "nur" WQHD Auflösung (und zwar wirklich den genutzten, nicht den reservierten der war nämlich bei 10,2GB) und Cold War ist erst der Anfang der Next Gen.
Ich rate wirklich davon ab für Next Gen eine 8GB RAM Karte zu kaufen, damit macht man sich bloß völlig abhängig in Zukunft auf diese IO Lösung zu bangen was vermutlich von Spiel zu Spiel erst 'mal unterstützt werden muss.
Man kauft sich ja nicht eine Next Gen Karte um dann von Anfang an die Texturqualität reduzieren zu müssen.
 
Nochmals, die Cold War Beta zeigte jetzt schon 8,2GB Ram bei "nur" WQHD Auflösung (und zwar wirklich den genutzten, nicht den reservierten der war nämlich bei 10,2GB) und Cold War ist erst der Anfang der Next Gen.
Ich rate wirklich davon ab für Next Gen eine 8GB RAM Karte zu kaufen, damit macht man sich bloß völlig abhängig in Zukunft auf diese IO Lösung zu bangen was vermutlich von Spiel zu Spiel erst 'mal unterstützt werden muss.
Man kauft sich ja nicht eine Next Gen Karte um dann von Anfang an die Texturqualität reduzieren zu müssen.
Ja und ich rate davon ab in jedem Spiel alles auf die höchsten Settings zu stellen, wird sicher Cold War benchmarks geben, sobald das spiel erscheint und da wird auch die 3070 dabei sein.

Hier noch was von Tech Power Up, haben mit nem 9900K @5GHz getestet, ob 1440p oder 4k spielt kaum nen Unterschied, 2080Ti Niveau durchschnittlich:

average-fps_3840-2160.png
average-fps_2560_1440.png
 
Nochmals, die Cold War Beta zeigte jetzt schon 8,2GB Ram bei "nur" WQHD Auflösung (und zwar wirklich den genutzten, nicht den reservierten der war nämlich bei 10,2GB) und Cold War ist erst der Anfang der Next Gen.
Ich rate wirklich davon ab für Next Gen eine 8GB RAM Karte zu kaufen, damit macht man sich bloß völlig abhängig in Zukunft auf diese IO Lösung zu bangen was vermutlich von Spiel zu Spiel erst 'mal unterstützt werden muss.
Man kauft sich ja nicht eine Next Gen Karte um dann von Anfang an die Texturqualität reduzieren zu müssen.
Godfall verlangt 8GB für FullHD.
Und ohne High/Ultra Settings kann ich gleich zur Konsole Only gehen.

Und vorallem darauf achten was Igor sagt zum 3090 24GB Test.
 
Der große Mehrwert von mehr VRAM ist aktuell noch nicht gänzlich präsent, weil praktisch alle Spiele für PS4One entwickelt werden. Die haben insgesamt nur 5,5/6 GiB zur Verfügung, wobei vielleicht 3GiB als VRAM allokiert werden. Der Bedarf wird zwangsläufig steigen, wenn die neuen Konsolen kommen.

2013 waren 2GiB VRAM auch noch der heiße Scheiß....
 
Godfall verlangt 8GB für FullHD.
Und ohne High/Ultra Settings kann ich gleich zur Konsole Only gehen.
Erstmal abwarten welchen Impact das auf die Performance wirklich haben wird, wir werden am 12. November ein paar PC Benchmarks sehen, bin darauf auch gespannt, speziell wie sich die 1080Ti schlagen wird. Man kann ja auch bis dahin mit dem Kauf einer neuen Grafikkarte warten(kriegt wahrscheinlich eh keine :ugly:). Aber ganz ehrlich: Wenn es nach dem geht, wird man mit ner 3080 mit 10GB auch bald im Regen stehen.

Ich persönlich hab jetzt eh alle Zeit der Welt, ohne Cyberpunk lohnt sich ne neue Grafikkarte derzeit eh nicht, mal sehen was im November so los sein wird :D
 
Wurde nicht mehrmals erklärt, das dass Spiel nur so viel verlangt aber niemals so viel eigentlich nimmt? Eine Art Reservierung? :ugly:
Sehr gut möglich, ich glaube es gibt auch irgendein Game, das ernsthaft 19GB der 24GB der 3090 belegt aber trotzdem nur 10% schneller läuft als bei der 3080 mit ihren 10GB, die natürlich vollständig "belegt" waren :ugly:
 
Wurde nicht mehrmals erklärt, das dass Spiel nur so viel verlangt aber niemals so viel eigentlich nimmt? Eine Art Reservierung? :ugly:
Cold War hat ein feines Feature welches den tatsächlichen RAM Bedarf in Echtzeit anzeigt während Afterburner die Reservierung zeigt. Cold War war in Echtzeit stehts über 8,2GB und das nur in WQHD, die Reservierung war bei 10,2GB.
 
Und in 4K dann 20GB oder was? :ugly:
Habe ich nicht getestet und der Betazugriff ist leider schon zu Ende aber dass es in WQHD schon mehr als 8GB benötigt sagt ja schon alles.
Was die Current Gen Games für High/Ultra Settings benötigen ist doch Wuppe, wichtig sind die 2021/2022+ Releases.
 
Habe ich nicht getestet und der Betazugriff ist leider schon zu Ende aber dass es in WQHD schon mehr als 8GB benötigt sagt ja schon alles.
Was die Current Gen Games benötigen ist doch Wuppe, wichtig sind die 2021/2022+ Releases.
Klingt höchst verschwenderisch, so toll sieht es auch nicht aus, dass das irgendwie 10GB bei 1440p rechtfertigen würde. Nehme an das erscheint auch zum Nextgen Launch oder?
 
Klingt höchst verschwenderisch, so toll sieht es auch nicht aus, dass das irgendwie 10GB bei 1440p rechtfertigen würde. Nehme an das erscheint auch zum Nextgen Launch oder?
Mit Nvidia Sharpening sah es schon heftig gut aus, Nvidia Sharpening war aber jedoch ein Muss da deren Anti-Aliasing Implementierung das Bild viel zu sehr weichzeichnete.
Release ist Mitte November.
 
Nvidia Sharpening :pokethink: Ist das was neues? Bisher hatte ja nur AMD sowas oder täusche ich mich da, kam das mit nem Patch oder ist das für das game exklusiv?
 
Erstmal abwarten welchen Impact das auf die Performance wirklich haben wird, wir werden am 12. November ein paar PC Benchmarks sehen, bin darauf auch gespannt, speziell wie sich die 1080Ti schlagen wird. Man kann ja auch bis dahin mit dem Kauf einer neuen Grafikkarte warten(kriegt wahrscheinlich eh keine :ugly:). Aber ganz ehrlich: Wenn es nach dem geht, wird man mit ner 3080 mit 10GB auch bald im Regen stehen.

Ich persönlich hab jetzt eh alle Zeit der Welt, ohne Cyberpunk lohnt sich ne neue Grafikkarte derzeit eh nicht, mal sehen was im November so los sein wird :D
Da gibt es nichts abzuwarten, sei net bös aber nur Laien warten da und denken es geht gut.

COD hat auch RT auf Konsolen,das hatten die anderen nicht außer auf dem PC.
 
Nvidia Sharpening :pokethink: Ist das was neues? Bisher hatte ja nur AMD sowas oder täusche ich mich da, kam das mit nem Patch oder ist das für das game exklusiv?
Gibt's gefühlt seit einigen Monaten, harmoniert perfekt mit zu weichgezeichneter TAA Implementierung. Ist eine Treibereinstellung, funktioniert theoretisch also mit allen Spielen und schärft das TAA ohne Treppenartefakte.
Bei Horizon Zero Dawn zB. habe ich's nur ganz leicht auf +0.10 gestellt und das war in WQHD schon eine Aufwertung. Die RE 2 / 3 Remakes profitieren sehr davon, da hatte ich's auf +0.25 gestellt.
 
Zurück
Top Bottom