PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Also ich hab vor paar Monaten mal drauf gehört, das man auch gut den Unterschied von 4K zu 1440p sieht auch wenn man nur wenig Platz für nen großen Monitor hat (hat der neue DF Typ mal gepostet) und kann das nur bestätigen nachdem ich vom 24" 1440p auf 27" 4K umgestiegen bin. Die details bei der PPI sind deutlich feiner, erst recht wenn man wie ich 50cm davor sitze.
Sollte man ruhig mal testen ;)
 
Also ich hab vor paar Monaten mal drauf gehört, das man auch gut den Unterschied von 4K zu 1440p sieht auch wenn man nur wenig Platz für nen großen Monitor hat (hat der neue DF Typ mal gepostet) und kann das nur bestätigen nachdem ich vom 24" 1440p auf 27" 4K umgestiegen bin. Die details bei der PPI sind deutlich feiner, erst recht wenn man wie ich 50cm davor sitze.
Sollte man ruhig mal testen ;)
Habs nie getestet, find 4k immer noch völlig überflüssig für PC xD

Aber ich glaubs gern, denn wie gesagt... auf meinem 27 Zoller seh ich schon nen klaren Unterschied zwischen Spielen in Full HD und WQHD.

*edit*

Ich schreib ständig 26... es ist ein 27 Zoller ^^
 
Zuletzt bearbeitet:
Mir ging es auf den Sack, wenn ich erst am TV gezockt habe und dann weil meine Frau Netflix schauen wollte zum PC Moni gewechselt hab, dann nur noch 1440p hatte ;)
Dann musste halt doch ein 4K Monitor her.
 
Habs nie getestet, find 4k immer noch völlig überflüssig für PC xD

Aber ich glaubs gern, denn wie gesagt... auf meinem 27 Zoller seh ich schon nen klaren Unterschied zwischen Spielen in Full HD und WQHD.

*edit*

Ich schreib ständig 26... es ist ein 27 Zoller ^^
4K ist schon geil, aber momentan macht es mehr sind auf WHQD zu setzen und die 144hz mitzunehmen, hat man im Endeffekt mehr von, als 4k 60hz Monitore.
Und doch 32 Zoll gehen grad noch, aber ist halt schon wirklich groß.
 
Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080
https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2080-performance-benchmark/

2-1260.2194043024.jpg


1-1260.349587223.jpg


Sie hat weniger Shader als die 1080 und soll 50% (mit DLSS bis 100%) schneller sein?
Dann muss die 2080Ti mit 21% Mehr Shader als die 1080Ti ja mega ab gehen gegen die alte.

Das will ich erst sehen ;) Denn als ob die Lederjacke das nicht sofort 100x auf der Bühne wiederholt hätte.
 
Zuletzt bearbeitet:
Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080
https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2080-performance-benchmark/


Sie hat weniger Shader als die 1080 und soll 50% (mit DLSS bis 100%) schneller sein?
Dann muss die 2080Ti mit 21% Mehr Shader als die 1080Ti ja mega ab gehen gegen die alte.

Das will ich erst sehen ;) Denn als ob die Lederjacke das nicht sofort 100x auf der Bühne wiederholt hätte.
Macht vor allem der DDR6 speicher auch aus.
 
Hat der bei der 2080 nicht sogar etwas weniger bandwidth? Oder gleich? Hab's jetzt nicht im Kopf.
Glaub erst bei der Ti wird er richtig rauf geprügelt.

Edit:
Ah ne ist von 352 auf 448GB/s hoch sorry ;) wird natürlich dann gut ne Rolle spielen in 4K @ hohen settings
 
puh, wenn das stimmt.
Also 2080 ist dann bei mir schonmal ein Lock wenn ich 4k und 60fps spielen kann, wenn die 2080ti aber dann wirklich abgeht, dann werde ich da, trotz Preis, vermutlich doch schwach

und ich glaube dann hole ich mir wohl auhc eine der Founder Editions, vor allem wenn die Custom Karten eh erstmal teurer sind, diesmal haben due Founder ja auhc richtig gute Lüfter drauf
 
Wenn das auch nur annähernd stimmt durchaus einen Blick wert und obendrauf hat man noch Raytracing. Ist halt doch ne neue Architektur in 12nm und dazu besserer Speicher. Man stelle sich vor die hätten die ganze Die mit Touringkernen vollgepflastert anstatt Tensor- und Raytracing Cores :v: Hätte mich aber auch gewundert, wenn man sich nur auf Raytracing verlassen würde und die restliche Leistung völlig vernachlässigt.
 
Leadbetter hat ja im DF Video auch gemeint das er dachte die kastrieren die TK für mehr Shader, so wie ich es auch erst dachte.
Stellt euch den 754mm Chip fast voll mit Shader Einheiten vor :banderas:
Das wäre was.
Aber dann hätten sie ihn nicht so groß gemacht ohne T und RT Cores.
 
Ist der Chip echt so groß? Wahnsinn...Ich frage mich, ob RT wirklich ein so großer Gewinn für die Grafikqualität darstellt, da man sicherlich ähnlich gute Reflexionen / Spiegelungen kostengünstig faken kann. Wäre mal interessant ein Vergleichsvideo zu sehen (nicht die von NVidia), inwiefern man RT durch diverse lightmaps simulieren kann. Bin noch skeptisch ob das so ne gute Idee ist, jetzt das RT Zeitalter einzuläuten. Man muss ja immer damit vergleichen, wie der belegte Die- Platz anderweitig genutzt hätte werden können.
 
Ist der Chip echt so groß? Wahnsinn...Ich frage mich, ob RT wirklich ein so großer Gewinn für die Grafikqualität darstellt, da man sicherlich ähnlich gute Reflexionen / Spiegelungen kostengünstig faken kann. Wäre mal interessant ein Vergleichsvideo zu sehen (nicht die von NVidia), inwiefern man RT durch diverse lightmaps simulieren kann. Bin noch skeptisch ob das so ne gute Idee ist, jetzt das RT Zeitalter einzuläuten. Man muss ja immer damit vergleichen, wie der belegte Die- Platz anderweitig genutzt hätte werden können.
Ich freue mich über RT, ist mal wieder ein richtiger Grafiksprung, im Gegensatz zu immer nur mehr Pixel, mehr fps.
 
Ist der Chip echt so groß? Wahnsinn...Ich frage mich, ob RT wirklich ein so großer Gewinn für die Grafikqualität darstellt, da man sicherlich ähnlich gute Reflexionen / Spiegelungen kostengünstig faken kann. Wäre mal interessant ein Vergleichsvideo zu sehen (nicht die von NVidia), inwiefern man RT durch diverse lightmaps simulieren kann. Bin noch skeptisch ob das so ne gute Idee ist, jetzt das RT Zeitalter einzuläuten. Man muss ja immer damit vergleichen, wie der belegte Die- Platz anderweitig genutzt hätte werden können.

Klar kann man Spiegelungen ect. faken macht man ja auch zur Zeit aber ist halt oft begrenzt und dadurch im Grunde unrealistisch.
In wie weit es ein Mehrwert ist? Nun ich denke es trägt halt dazu bei, dass das Gesamtbild korrekter und daruch eben realistischer rüber kommen kann. .

Nicht alles wird dadurch auch gleich Spielerelevant sein und solche Dinge wie zb. die korrekte Spiegelungen im Auge des Gegenspielers bei einem Ego-Shooter, sind im Prinzip total unbrauchbar.. wenn es denn auch wirklich so umgestzt wird. Im Großen und Ganzen trägt RT aber dazu bei, die Spielewelt realistischer wirken zu lassen. Ist schon OK gerade wenn dedizierte Hardware dafür Sorge trägt... muss halt auch nur Unterstützt werden.
 
Und später weird es Entwicklern ne Menge Zeit sparen, da eben reflektionen Lighting, Schatten und AO alles über RT erledigt wird, wo Devs sonst Stunden lang, jeden Abschnitt anpassen und Fehler korrigieren müssen.
Aber klar wird noch 10 Jahre dauern denke ich bis es so weit ist, aber irgend wann muss mal der Anfang gemacht werden :) ob man jetzt bis 7nm hätte warten sollen und dän so nen mega Chip bringen (der aber noch teuerer wäre) darüber kann man streiten.
 
Puh, ich habe mit meinen PC im letzten Jahr im Oktober/November für 2000€ zusammengestellt und hatte eigentlich schon vor, zumindest zu versuchen, ihn aktuellzuhalten.

Aber 1400€ ist schon regelrecht absurd. Mein kompletter PC hat ja schon „nur“ 2000€ gekostet im Vergleich. Selbst wenn ich für meine GTX 1080 Ti im absolut besten Fall noch 600€ bekäme, wären das dennoch satte 800€ nur für das Graphikkartenupdate :s

Und das sprengt dann doch jedes vernünftige Maß.
 
Puh, ich habe mit meinen PC im letzten Jahr im Oktober/November für 2000€ zusammengestellt und hatte eigentlich schon vor, zumindest zu versuchen, ihn aktuellzuhalten.

Aber 1400€ ist schon regelrecht absurd. Mein kompletter PC hat ja schon „nur“ 2000€ gekostet im Vergleich. Selbst wenn ich für meine GTX 1080 Ti im absolut besten Fall noch 600€ bekäme, wären das dennoch satte 800€ nur für das Graphikkartenupdate :s

Und das sprengt dann doch jedes vernünftige Maß.
wer sagt denn, dass du eine 2080ti brauchst? Die brauchst du noch lange nicht bzw kannst du auch problemlos überspringen, vor allem wenn du eine 1080ti hast.
 
Wenn ich daran denke das ich mit der AMD 6850 ca 8 Jahre ausgekommen bin ,gut an die Einstellungen musste man bei den Spielen schon ran. Und man hat zum Schluss das alter gemertkt CPU ( Phenom II 955) und GPU aber wenn ich aus meinem jetzigen System auch nur einen Bruchteil der Zeit heraus quetschen kann wäre ich auch froh. Hab in der Zeit auch keinen Full HD Monitor sondern 1650x1050 Monitor gehabt.
Der Sprung zur 1700 CPU und GTX 1080 (leider ist mir die AMD Vega Karte zuspät suf den Markt gekommen. Hätte gerne wieder einen PC gehabt mit nur AMD Komponenten.) mit einem 1440p Monitor war dann schon super.

Was bei den neuen GPUs wieder blöd ist, das es wieder NVIDIAs eigener Ratraycing Mist ist. Und somit AMD wieder nachsehen haben wird. Ist wohl der ewige Kreislauf.
 
Was bei den neuen GPUs wieder blöd ist, das es wieder NVIDIAs eigener Ratraycing Mist ist. Und somit AMD wieder nachsehen haben wird. Ist wohl der ewige Kreislauf.
Raytracing ist nicht Nvidia exklusiv, die sind bisher nur die einzigen die dafür passende Hardwarelösungen für haben


AMD ist halt für Low bis mid Budget, wenn man zu AMD greif tmuss mans chon im klaren sein,d ass gewisse Features erst später kommen
 
Zurück
Top Bottom