PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Sind eigentlich die Ampere-TFlops nicht mehr so gut, wie die von Turing? Oder wie kann eine 200% Steigerung (2080 10 TF vs 3080 30 TF) nur eine 80% Leistungssteigerung in Spielen bewirken? Dabei sind die CUs, die Tensor- und die RT-Cores bei Ampere moderner und sind gegenüber Turing verbessert.
Ampere nutzt die Cuda Cores anders, bzw kann diese vielfältiger nutzen. Du könntest sagen, dass die Tflops jetzt "weniger wert" sind aber das ist auch nicht ganz richtig. Mit Tflops Karten vergleichen ist eh immer so ne Sache, wenn das verschiedene Generationen sind, sehr schwer. Die 20TF 3070 ist zB. laut Nvidia ca. gleich schnell wie die 14,2Tflop 2080Ti, wenn man sich deren Grafik in der Präsi ansieht.

Wirklich vergleichen werden wir erst können, wenn die ersten Benchmarks draußen sind, ich habe gehört die kommen ab 9.9. dann fällt die NDA.
 
Ampere nutzt die Cuda Cores anders, bzw kann diese vielfältiger nutzen. Du könntest sagen, dass die Tflops jetzt "weniger wert" sind aber das ist auch nicht ganz richtig. Mit Tflops Karten vergleichen ist eh immer so ne Sache, wenn das verschiedene Generationen sind, sehr schwer. Die 20TF 3070 ist zB. laut Nvidia ca. gleich schnell wie die 14,2Tflop 2080Ti, wenn man sich deren Grafik in der Präsi ansieht.

Wirklich vergleichen werden wir erst können, wenn die ersten Benchmarks draußen sind, ich habe gehört die kommen ab 9.9. dann fällt die NDA.

Jup, man sollte die Benchmarks abwarten. Ich denke, dass die 3070 nur bei RT ON schneller als 2080Ti sein wird. Bei normalen Spielen werden die 20,31 Ampere-TF wohl langsamer als 13,45 Turing-TF sein.
 
Zuletzt bearbeitet:
Jup, man sollte die Benchmarks abwarten. Ich denke, dass die 3070 nur bei RT ON schneller als 2080Ti sein wird. Bei normalen Spielen werden die 20,31 Ampere-TF wohl langsamer als 13,45 Turing-TF sein.
Ich glaube gleich schnell sogar und mit Raytracing und DLSS 10-20% schneller. -aber genau kann das keiner Sagen, Lederjacke hat uns ja nur eine Grafik mit ein paar grünen und grauen Punkten zu dem Thema gegeben. Man könnte das aber sicher ausrechnen, ich glaube das hat sogar Jemand getan und kam zum Fazit, dass die 3070 ohne DLSS und RT ca. gleich schnell ist, anhand der Tflop zur 3080 und dem Digital Foundry Vergleich der Karte zur 2080, die ja ohne RT/DLSS ca. 70% schneller als die 2080 war.

Edit, hier ist die Rechnung ohne RT oder DLSS:
relativeoaj49.png

Am ende ists schwer zu sagen was besser wäre, ne 3070 oder 2080Ti, letztere hat immerhin 11GB Speicher, erstere soll aber mit dem Speicher besser umgehen können und besseres RT und DLSS und in Zukunft wohl auch die bessere Optimierung bekommen.
 
Zuletzt bearbeitet:
Warum sollten es weniger Bandbreite sein? Wenn 3070 16 anstatt 8 GB oder 3080 20 GB anstatt 10 GB bekommen, dann ist das nur eine Verdopplung der Chipgröße am gleichen Bus. Es werden halt anstatt 1 GB-Chips die 2 GB-Chips verwendet.
Merkst was, 20GB und 15GB würden über den selben Bus gehen bei der 3080, aber 16GB nicht außer man nimmt nen kleineren Bus mit weniger Bandbreite oder 512bit, was keinen Sinn macht. Also warum fragst du dann xD

Edit:

 
Hab ja auch gesagt, sollte ich ewig keine 3080 bekommen, hol ich auf jeden Fall die 3090 und da die dann eh besser als ne Ti seien müsste, bleibt die bis zu den 4000 Karten.
Im November hab ich Urlaub und spätestens da brauch ich wieder ne GPU für C2077.
 
Hab ja auch gesagt, sollte ich ewig keine 3080 bekommen, hol ich auf jeden Fall die 3090 und da die dann eh besser als ne Ti seien müsste, bleibt die bis zu den 4000 Karten.
Im November hab ich Urlaub und spätestens da brauch ich wieder ne GPU für C2077.
ich glaube wenn man eine 3090 hat, dann kann man vermutlich gut auf die 4000er Reihe verzichten ^^
 
Wenn man rechtzeitig verkauft, dann macht man doch kaum Verlust, im Fall der RTX2080ti konnte man sogar mit Gewinn auf die 3080 upgraden.
stellt sich nur die Frage, ob man das Upgrade von der 30er zur 40er dann überhaupt braucht, dank Konsolen wird es bei den Spielen zu dem Zeitpunkt wohl keinen großen Sprung geben
 
Ja, aber wahrscheinlich keine Spiele wofür sich ein Upgrade lohnt :coolface:
genau das meine ich :ugly:

Gut, für 8k Gaming dann ^^

muss man sich mal vorstellen, PC ist dann mit 8k unterwegs und konsolen krebsen noch bei 1080p mit checkerboard rum oder mit Glück ab und zu in 4k und dann sub 30/20fps :coolface:
 
Sabrent kenne ich als SSD Hersteller nicht so wirklich, haben die die gleiche Qualität wie Samsung was langlebigkeit etc angeht?


Ansonsten merkt man so langsam, dass die Next Gen anfängt (am PC allerdings :coolface: )
 
Ja, aber wahrscheinlich keine Spiele wofür sich ein Upgrade lohnt :coolface:
Wie viele GPUs kammen jede Konsolen Gens raus? Und wie viele würden dank neuen Effekten und Techniken jedes mal von einem game in die Knie gezwungen? Genau alle ;)
Und jetzt gibt's RT was immer besser werden wird und deshalb immer wieder stärkere GPUs brauch wenn man oben mit spielen will ohne Kompromisse:D Und 120fps wird zu standart am PC langsam.
Ost ja auch OK wenn nicht mit hohen Settings zocken wollen und fps das wichtigste ist.
 
Wie viele GPUs kammen jede Konsolen Gens raus? Und wie viele würden dank neuen Effekten und Techniken jedes mal von einem game in die Knie gezwungen? Genau alle

Von einem Game, ja, aber das muss auch erst mal kommen. Innerhalb so kurzer Zeit kommen keine 2 GTA Teile raus, die Entwicklungszeit ist mit den neuen Konsolen auch nicht unbedingt kürzer und gefühlt ist die 2080 ti auch erst "vor kurzem" erschienen und die wird auch die aktuelle Gen überstehen. Eine 3080 wird wahrscheinlich nicht mal annähernd ausgelastet werden, außer die Titel sind schlecht optimiert.

Was kommen kann ist halt DSSL 4.0 und haste nicht gesehen..aber wird man das brauchen? Ok, 8k und 200 fps oder so. Bei Auflösung geht es steil nach oben, aber ich habe auch nicht vor in den nächsten 7 Jahren ein 8K Monitor zu kaufen, außer die sind dann extrem günstig oder mein aktueller Monitor geht kaputt. Aber einen "echten" Grund wird es wahrscheinlich mit PS5 und der neuen Box nicht geben.
 
Zurück
Top Bottom