PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Mal sehen was da an OC noch geht bei der Watt Zahl. Die 3070 ist geil mit nur 220watt weniger als meine TI und etwas schneller. Die perfekte GPU wird wohl die 3080Ti/3070Ti/3080S.
 
Ich hab den Samsung Odyssey G9. Der hat 240 Hz und ist G-Sync-kompatibel.
Gsync funzt unter 60FPS nicht so gut wie darüber, unter 40 wirds kritisch, sicher, dass du über 60FPS gespielt hast? Dein Monitor hat eine Auflösung von fast 4K mit 5120x1440, da schafft deine 1080Ti wohl selbst auf Medium bei den meistne games nur 60FPS oder eben weniger.
Mal sehen was da an OC noch geht bei der Watt Zahl. Die 3070 ist geil mit nur 220watt weniger als meine TI und etwas schneller. Die perfekte GPU wird wohl die 3080Ti/3070Ti/3080S.
Ich glaube ich hol mir die 3080 Founders, auch wenn die nach Österreich 719 Euro kostet, ich befürchte nämlich, dass die Board Partner ordentlich beim Preis aufschlagen werden, was man so von den UK Preisen gesehen hat 100 Euro und mehr.
 
Gsync funzt unter 60FPS nicht so gut wie darüber, unter 40 wirds kritisch, sicher, dass du über 60FPS gespielt hast? Dein Monitor hat eine Auflösung von fast 4K mit 5120x1440, da schafft deine 1080Ti wohl selbst auf Medium bei den meistne games nur 60FPS oder eben weniger.

Ich glaube ich hol mir die 3080 Founders, auch wenn die nach Österreich 719 Euro kostet, ich befürchte nämlich, dass die Board Partner ordentlich beim Preis aufschlagen werden, was man so von den UK Preisen gesehen hat 100 Euro und mehr.

Ich stell es immer so ein, dass es bei knapp 60 Bildern rauskommt. Ich benutze zum Optimieren immer GeforceExperience. Bei der Auto-Optimierung kamen bei RDR so knappe 50 Bilder raus, die es eigentlich auch konstant hält.
 
Ich stell es immer so ein, dass es bei knapp 60 Bildern rauskommt. Ich benutze zum Optimieren immer GeforceExperience. Bei der Auto-Optimierung kamen bei RDR so knappe 50 Bilder raus, die es eigentlich auch konstant hält.
Ja, da hast halt das Problem, solltest es einstellen, dass du über 60 bleibst, nicht darunter, selbst wenn das sync perfekt funktioniert, kann man drops von 60 auf 50 leicht wahrnehmen(sind immerhin 20%), einfach weil das nicht so hoch ist, speziell wenn du mal 100+FPS erfahren hast. Aber macht eh nichts, mit ner 3080 oder gar 3090 wirst du wohl sowieso in allem egal wie du es einstellst über 80, 90 FPS liegen :goodwork:
 
Ja, da hast halt das Problem, solltest es einstellen, dass du über 60 bleibst, nicht darunter, selbst wenn das sync perfekt funktioniert, kann man drops von 60 auf 50 leicht wahrnehmen(sind immerhin 20%), einfach weil das nicht so hoch ist, speziell wenn du mal 100+FPS erfahren hast. Aber macht eh nichts, mit ner 3080 oder gar 3090 wirst du wohl sowieso in allem egal wie du es einstellst über 80, 90 FPS liegen :goodwork:

Na dann wird es Zeit, dass die neuen Grafikkarten auf den Markt kommen
 
Mal eine Frage an die Spezis: Bei dem Doom Eternal Vergleich läuft die 2080ti im Schnitt mit 100FPS. Wenn ich mir auf Youtuber anschaue die das Game in 4k auf Nightmare Ultra zocken, erreicht jeder im Schnitt 120-130FPS, eher sogar mehr. Wie kommt der Unterschied zu Stande?
 
Mal eine Frage an die Spezis: Bei dem Doom Eternal Vergleich läuft die 2080ti im Schnitt mit 100FPS. Wenn ich mir auf Youtuber anschaue die das Game in 4k auf Nightmare Ultra zocken, erreicht jeder im Schnitt 120-130FPS, eher sogar mehr. Wie kommt der Unterschied zu Stande?

Nvidia tested mit Standardtaktraten, die Youtuber drehen natürlich auf.
 
Mal eine Frage an die Spezis: Bei dem Doom Eternal Vergleich läuft die 2080ti im Schnitt mit 100FPS. Wenn ich mir auf Youtuber anschaue die das Game in 4k auf Nightmare Ultra zocken, erreicht jeder im Schnitt 120-130FPS, eher sogar mehr. Wie kommt der Unterschied zu Stande?

Die Testen eine Standard 250watt Ti vs 320watt von Werk aus bei der 3080. Das ist billiger als das PS4 Spiderman mit 60fps auf PS5 abfeiern.

Bei der Watt Zahl und 8nm ist das mehr an fps eher mager. Nvidia kann Marketing wie Sony.
Die kommen immer Cool weg, bei AMD würde man ganz Groß den Stromverbrauch kritisieren in fast jeden Online Test.

Von Werk aus 320Watt, das war schon immer PClern ein Graus.
 
Zuletzt bearbeitet:
Bei der Watt Zahl und 8nm ist das mehr an fps eher mager. Nvidia kann Marketing wie Sony.
8nm Samsung ist eigentlich ein 10nm node, die Ersparnis zum alten 14nm von TSMC solltest du nicht überschätzen, AMD hat hier einen Riesenvorteil mit ihrer 7nm+ Fertigung bei TSMC, preislich dürfte aber Samsung günstiger sein und das hat uns Nvidia auch deutlich gezeigt. Du zahlst halt mit der höheren Stromaufnahme... -Ich finde ein Fairer Kompromiss, du bekommst halt wirklich den GA102 Chip, quasi den Vollausbau in Sachen Gaming mit ein paar deaktivierten Cores um 699 Euro, die 3080 ist die neue Ti und die 3090 die neue Titan. Wahrscheinlich wird aber noch eine 1000 Euro 20GB 3080Ti nachgeschoben werden, wie man Nvidia kennt in ca. nem halben Jahr.
 
7nm, da hat AMD beim ersten Versuch nix draus gemacht: https://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/Tests/Benchmark-Review-1274185/

Im Grunde ist das Voll die ÜberNextGen GPU aber leider lahm und Laut und frisst bei 7nm sau viel Strom.
Dafür wurde sie vernichtet in den Tests.


Mal wie Laut wie 3090er werden.

Aber mal sehen, wenn NV so hoch gehen muss beim Stromschlucken, mal sehen was AMD liefert.
Aber es ist so leise um AMD gerade. Fast schlimmer als bei Sony und MS.

Sony, MS und AMD halten ausgewöhnlich lange die Füsse still, obwohl alle 3 was zum launchen haben.
Strom hin oder her. Preis kam raus, Release Datum kam raus, die Karten haben einen sehr guten RTX Speed.
Geliefert hat nur Nvidia bis jetzt. Und an diese Lieferung ran zu kommen ist es fast Unmöglich.
 
Zuletzt bearbeitet:
m Grunde ist das Voll die ÜberNextGen GPU aber leider lahm und Laut und frisst bei 7nm sau viel Strom.
naja Radeon VII hat aber nix mit Navi zu tun, das war der letzte Versuch mit Vega, kann man nich mit Navi vergleichen(da zieht der alte RDNA1.0 5700XT Chip der ca. halb so groß ist ja schon davon in vielen games).
 


Ohne Raytracing höchst Wahrscheinlich.

Systemanforderungen für Crysis Remastered (2020)
MinimalEmpfohlen
ProzessorAMD Ryzen 3
Intel Core i5-3450
AMD Ryzen 5
Intel Core i5-7600k
Arbeitsspeicher8 GB RAM12 GB RAM
GrafikkarteAMD Radeon 470
Nvidia GeForce GTX 1050 Ti
AMD Radeon RX Vega 56
Nvidia GeForce GTX 1660 Ti
Videospeicher4 GB (1080p)8 GB (2140p)
Speicherplatz20 GB
SoftwareMicrosoft Windows 7 (64-bit)Microsoft Windows 10 (64-bit)

Systemanforderungen für Crysis (2007)
MinimalEmpfohlen
Prozessor2,8 GHz (Windows XP)
3,2 GHz (Windows Vista)
AMD Athlon X2 4400+
Intel Core 2 Duo 2,2 GHz
Arbeitsspeicher1 GB RAM (Windows XP)
1,5 GB RAM (Windows Vista)
2 GB RAM
GrafikkarteGPU mit 256 MB VRAMNvidia GeForce 8800 GTS (640 MB)
Speicherplatz12 GB
SoftwareMicrosoft Windows XP oder Vista



"The PC version will additionally support NVIDIA® DLSS technology and hardware-based ray tracing using NVIDIA’s VKRay Vulkan extension, for NVIDIA® GeForce® RTX GPU."

 
Es geht nicht um Navi geht um die 7 nm im Vergleich zur Vega64.
Ist egal, Vega ist ein totes Pferd und wurde ursprünglich nicht für 7nm entwickelt. Außerdem ist TSMCs neuer 7nm Peozess effizienter mittlerweile.

So wie es aussieht wird AMDs Big Navi ca. 3080 Rasterize Performance haben und wohl ähnlich viel Power ziehen(Falls AMD das will, eventuell werden sie einfach ne 250W Big Navi bauen und auf deren Bessere Effizient aufbauen im Marketing) aber ohne die Tensor Cores und was los ist wenn man RT anschaltet wird sich auch zeigen müssen. Für mich ist die Sache recht klar, für Witcher 3 und Cyberpunk wird die RTX3080 geholt DLSS+RTX sind hier zu großer Mehrwert, und die Vergangenheit zeigte, dass Nvidia seine Ninjas überall hin aussenden, damit die games auf ihren Karten am besten laufen.
 
Gibt ja noch Wunder, wenn zb eine 6070 XT der 3080 nahe kommen würde und es gäbe da noch die 6080XT und 6090XT^^
:coolface:

Für 4K wirste mehr als 10GB brauchen. Ich hatte die 11 schon vor 2 Jahren, auch wenn dich das nicht juckt.
Wobei von der 1070Ti zu der 3080 wird schon Brutal, da würde ich vieleicht auch nicht mehr warten wollen.
 
Deshalb :coolface: wäre krass wenn schon die 6700XT abgehen würde.
Die 6700XT wird in Sachen Rohleistung 2080Ti Performance liefern müssen, sonst braucht AMD die gar nicht releasen. Für mich ist dank Cyberpunk AMD aber leider gestorben, hoffe dennoch, dass sie genug Kunden finden werden, wenn nicht diese Generation dann die nächste, RDNA scheint eine sehr gute Zukunft vor sich zu haben, die nächsten 4 Jahre wird ordentlich was weitergehen, das wird die Konsolen übrigens um so älter aussehen lassen, ich denke in 3-4 Jahren wird man eine Pro Konsole nachreichen müssen um nicht völlig im Abseits zu sein.
 
Die Leute die ne gebrauchte 2080Ti für 800-900 im August gekauft haben und die, die ne neue für 1100-1300 gekauft haben, sind in meinen Augen vollkommen selbst Schuld, wer so dämlich ist, der soll leiden. Wenn man ne 2080Ti zum Launch geholt hat, mein Gott, dann hatte man 2 Jahre die schnellste Gaming Karte und was für sein Geld bekommen(Bei manchen neueren Games tatsächlich bis zu 50% Mehrleistung zur 1080Ti, auch wenns lang gedauert hat).

Aber Besitzer die keine 2 Monate vorm 3080 und 3070 Launch zugeschlagen haben, für die habe ich keinerlei Mitleid, für soviel Dummheit sollen sie zahlen, ganz einfach. Der Gebrauchtmarkt ist sowieso total bescheuert wenn es um Grafikkarten gibt, weiß auch noch wie ich damals für meine 970 280 Euro bekommen habe, die ich 2 Jahre zuvor für 350 gekauft hatte und dann für 100 Euro Aufpreis die 1070Ti besorgt die ca. doppelt so schnell war...

Mal sehen was ich für meine 1070Ti noch bekommen kann, wird diesmal wohl schwieriger die loszuwerden, aber 200 kriegt man wohl immer, offenbar kaufen die Leute auch noch immer 2080Ti für 600 Euro, welch Narren...
 
Zurück
Top Bottom