PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Es ist nun mal fakt das ser pc das3- 5 fache an Leistung benötigt um sich von den Konsolen deutlich abzuheben, wie man schön bei der ps4 und den aktuellen pcs sehen kann (Tlou2 hust).

Was wiederum Blödsinn ist, da zu Anfang der Gen die Games auf den Konsolen die Konsole nicht mal ausreizen werden.



Dein geliebtes schnarch Simulator xD

Der lebt auch eher von der CPU als von der Grafikkarte. :hammertime:

Die CPU dürfte die Grafikkarte beim Simulator weiterhin limitieren.
 
Wenn du ein PC hättest, wüsstest du, dass man Bewegungsunschärfe abstellen kann.
Ja kann man abstellen, was andert es an der Tatsache das es weiterhin unscharf ist, wenn man sich um 180 grad dreht?

Habe zwar nur ne 1080 karte, aber bei keinem Spiel, ob neu oder alt bleibt das bild scharf, wenn man sich sehr schnell bewegt :nix:
 
Je weniger die fps im Game, desto geruckelter wirkt die Bewegung.

Spielst du in 60 fps?
Ja 60 fps bei shootern und rennspielen bzw allgemein in schnelle Spielen.
Ja die locke ich auf maximal 60 fps, da ich das fps geschauckle bei einigen Spielen nicht ausstehen kann.
 
Zuletzt bearbeitet:
Diese Spiele würden mich jetzt aber interessieren :lol:

Gibt anscheinend Ausnahmen und da hält sie selbst mit einer 3090 mit: :awesome:

Zitat aus dem CB Forum (Laphonso):

Die illusorischen Szenarien, dass die 2080Ti in allen Belangen um locker 50% von Nvidia selbst zerschmettert wird, haben den Realitätscheck nicht bestanden.
Dass hier im Forum eine extrem (und nicht typisch) übertaktete 2080Ti (mit 79 fps) sogar die 3090 fps in Shadow of the Tomb Raider (77 fps) stellt auf 4K Ultra, zeigt die Delle der maximal ausgereizten Fertigungstechnik:




Da sie jetzt länger halten muss, hab ich meine wieder mit dem Standard BIOS geflasht und lass auf 2Ghz Takten (Automatisch).
 
Ist motion blur euer liebslingswort jetzt? :lol:
Ich habe selber einen pc und bewegungsunschärfe entsteht wenn man sich schnell bewegt, gan egal wie viel Leistung ein pc hat
Ein bisschen mehr Kompetenz wäre doch nicht zu viel verlangt, wieso verwechselst du Display Motion Blur mit InGame Camera Motion Blur?
Ersteres kann man sehrwohl beim PC Gaming dank ULMB (benötigt einen Display Port Anschluss, haben Konsolen nicht) ziemlich gut eliminieren, zweiteres am PC komplett abschalten.
Auf Konsolen geht weder das eine noch (meist) das andere.
Außerdem hast du keinen PC, du hast einen Laptop der sämtliche High-End PC Gaming Features wie High Refresh Rate, ULMB oder Ultra-Widescreen nicht bietet. Du weißt nichts über High-End PC Gaming, genauso wenig wie über gute Grafik. :nyahehe:
 
Zuletzt bearbeitet:
Der lebt auch eher von der CPU als von der Grafikkarte. :hammertime:
Korrekt, ist ein cpu heavy game und leider noch auf Direct X11, war an die 10 Jahre in Entwicklung.

Mit potenter CPU(also keinem Gammelryzen wie in dem video oben) bekommt man aber auch hier ordentliche Unterschiede: 20-30% schneller in 4k:
yvjym.jpg


Sobald das Game auf DX 12 upgegraded wurde läuft es dann auch über Städten mit 60FPS(außer in einer Boeing).
 
Zuletzt bearbeitet:
Hilft da nicht auch noch die Cloud mit, was ja die CPU entlasten soll (?), aber vielleicht deshalb auf Kosten der GPU geht, da diese ja dann von der Cloud angewiesen ist?

Immerhin wird in Echtzeit ne Welt simuliert.
 
Gibt anscheinend Ausnahmen und da hält sie selbst mit einer 3090 mit
Dass die 3080 weniger OC Potential hat als die 2080Ti habe ich ja bereits vor Tagen geschrieben, da reduziert sich der Vorsprung auch in 4k auf 15 bis 20% je nach game. Und wenn du eine wassergekühlte 2080Ti hast(die dich dann 1600 Euro gekostet hat) kann es schon sein, dass der Vorsprung weiter sinkt und manche games eventuell sogar langsamer laufen. Die 3080 kostet dennoch, wenn irgendwann verfügbar, nur etwas mehr als die Hälfte einer 2080Ti und liefert ab Werk deutlich bessere Performance.

Und bei den RDR2 Ergebnissen hilft auch kein OC der Welt der 2080Ti auf die Sprünge:
40% schneller in 4k max:
screenshot_20200928-0nvkyq.jpg
 
Zuletzt bearbeitet:
Lol die neuen Nvidia karten sind ein witz
Da sind bei manchen spiele nicht mal 5 fps zwischen der 2080 ti und der 3080, tja von wegen 30 teraflops :lol:

Die ps5 wird wohl für die nächsten jahre wohl weiterhin die Grafik Krone behalten :nix:

ich zietiere mal

Eine 2080Ti liefert rund 15 TFlops FP32.
Eine RTX3080 rund das doppelte. Trotzdem ist eine 3080 bei weitem nicht doppelt so schnell wie ne 2080Ti, weil "einfach" die Integer-Einheiten bei Ampere wahlweise auch FP32-Befehle ausführen können, aber eben nur wahlweise, NICHT gleichzeitig. Die werbewirksamen 30 TFlops der RTX3080 können also nur dann abgerufen werden, wenn gar keine Integerberechnungen ausgeführt werden müssen was in der Praxis (eben außer beim Mining...) niemals vorkommt. Natürlich ist das insgesamt günstiger wenn Einheiten flexibler eingesetzt werden können und der Chip besonders schnell ist wenn tatsächlich mal viel FP ankommt aber die 30 TFlops einer RTX3080 sind im Spielealltag viel schwieriger "auf die Straße zu bringen" als die 15 TFlops einer 2080Ti.
eine 3080 hat so zu sagen 15TF FP32 +15 TF FP32/INT32
dazu noch ne grafik von nvidia selbst die zeigt das game nihct nur FP32 ausführen sonder beides
Concurrent-Execution.jpg
 
Hilft da nicht auch noch die Cloud mit, was ja die CPU entlasten soll (?), aber vielleicht deshalb auf Kosten der GPU geht, da diese ja dann von der Cloud angewiesen ist?
Das ist eben eine Simulation, im Hintergrund wird jede Kleinigkeit und die Auswirkung auf das Flugzeug berechnet, je größer das Flugzeug desto mehr Arbeit für die CPU. Da das alles aber nur unter Direct X11 läuft ist die CPU Auslastung sehr dürftig bei 10-20% je nachdem wie viele Kerne du hast. 1 Kern(und der ist der Grund für die niedrigen fps) wird zu 100% ausgelastet die restlichen so gut wie gar nicht.
 
Zum Thema Tflop der Ampere Karten, hat das der gute Igor übrigens ganz gut erklärt:

Ampere wäre eigentlich die ideale Konsolen GPU, nicht auszudenken, was maßgeschneiderte Engines aus diesen rausholen würden, dazu DLSS2.0 und wahrscheinlich würde ne 200W 3070 ausreichen um so ziemlich alles auf 4k@60 mit RTX/DLSS zu spielen. (Nicht nur aktuelle nicht auf Ampere maßgeschneiderte games)

Manche Spiele profitieren aber jetzt schon von der neuen CudaCore Verteilung, RDR2 schafft ja rund 40% Steigerung unter 4k. Bin besonders gespannt wie sich im November dann Cyberpunk schlagen wird.
 
Lol die neuen Nvidia karten sind ein witz
Da sind bei manchen spiele nicht mal 5 fps zwischen der 2080 ti und der 3080, tja von wegen 30 teraflops :lol:

Die ps5 wird wohl für die nächsten jahre wohl weiterhin die Grafik Krone behalten :nix:
Kann man den Kerl nicht mal komplett aus diesem Thread verbannen? Er nervt einfach nur. Immer dieses Gestichel in Richtung PC. Geh doch einfach PlayStation spielen und Nerv hier nicht rum!
 
Kann man den Kerl nicht mal komplett aus diesem Thread verbannen? Er nervt einfach nur. Immer dieses Gestichel in Richtung PC. Geh doch einfach PlayStation spielen und Nerv hier nicht rum!
Das Problem sind auch Behauptungen ohne Kontext, und dann wird da ein Video gepostet in dem die GPUs verglichen werden sollen und dann werden die Grafikkarten mit ner Flaschenhals CPU gepaart, die bekannt dafür ist in manchen Games(speziell denen ohne ausreichende Multicore Unterstützung) die Ergebnisse stark zu verfälschen.
 
Lol die neuen Nvidia karten sind ein witz
Da sind bei manchen spiele nicht mal 5 fps zwischen der 2080 ti und der 3080, tja von wegen 30 teraflops :lol:

Die ps5 wird wohl für die nächsten jahre wohl weiterhin die Grafik Krone behalten :nix:

Sowohl die 30 quda tf als auch die 100% leistung gegenüber einer 2080ti entsprechen zu 100% der Wahrheit. Man benötigt halt die notwendige Sachkenntnis, um diese Werte richtig einordnen zu können.

Im Durchschnitt hat sie 30% mehr fps als eine 2080ti zum nominell halben Preis.
 
Kann man den Kerl nicht mal komplett aus diesem Thread verbannen? Er nervt einfach nur. Immer dieses Gestichel in Richtung PC. Geh doch einfach PlayStation spielen und Nerv hier nicht rum!
Lol wir sind noch immer im War und beschweren kannst du dich bei deinen Kollegen die keine Gelegenheit auslassen um gegen die Playstation zu Bashen :nix:

Noch nerviger sind die frickler/Pikas/xbobs die gegen Spiele wettern, die sie nie gespielt haben (hust tlou2).


Ausserdem, was ist an meiner Aussage den so falsch?

Nach den ganzen youtube vergleichen ist die rtx 3080 einfach nur minimal besser als die 2080ti (preislich natürlich um Welten besser als die 2080ti) und das reicht noch lange nicht um gegen die Sony top Studios zu bestehen.

Bei flight simulator kann man ja noch die CPU ausrede gelten lassen.
Aber bei Assassins creed odyssey sind da zum Teil l auch nur 5 fps Unterschied.
 
Gibt anscheinend Ausnahmen und da hält sie selbst mit einer 3090 mit: :awesome:

Zitat aus dem CB Forum (Laphonso):

Die illusorischen Szenarien, dass die 2080Ti in allen Belangen um locker 50% von Nvidia selbst zerschmettert wird, haben den Realitätscheck nicht bestanden.
Dass hier im Forum eine extrem (und nicht typisch) übertaktete 2080Ti (mit 79 fps) sogar die 3090 fps in Shadow of the Tomb Raider (77 fps) stellt auf 4K Ultra, zeigt die Delle der maximal ausgereizten Fertigungstechnik:




Da sie jetzt länger halten muss, hab ich meine wieder mit dem Standard BIOS geflasht und lass auf 2Ghz Takten (Automatisch).

Ist die Verzweiflung schon so groß, das Forums Beiträge als Quelle genannt werden?

Aber du kannst mir gerne mal NVidea zitieren, wo sie sagen das die 3080 IN ALLEN BELANGEN locker die 2080ti um 50% schlägt.
 
Zurück
Top Bottom