• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

PC-Gaming-Hardware | Was gibt es neues auf dem Markt?

AMD wird keine Gaming Karten 2018 in 7nm bringen, denn erst werden sie Karten für den Profi Bereichen mit die viel HBM2 anbieten wollen und planen das noch bis ende des Jahres zu schaffen.
Rechne also erst mal im 1H mit der 7nm gaming Karte und sollte diese versuchen die 2080 Serie an zu greifen, kannst du davon aus gehen, das NV was raus ballert.
wo wir dann wieder bei dem Thema sind, das NV die 2080 Karten nur als schnellen zwischen Schritt bringt ;)
 
wie gesagt, die 2080 ist ja schneller als die 1080ti von daher kann ich problemlos sagen dass der Sprung für mich eher lohnt als bei ner 1080ti :ugly:
Die 2080 ist aber nicht schon seit Ewigkeiten erhältlich.
Von Full HD @60Hz/FPS Ultra (970) zu WQHD @144Hz/FPS Ultra (1080 Ti) war das damals schon ein beachtlicher Unterschied der sich objektiv für competitive play gelohnt hat. Die 1080 Ti schafft sogar 90-100 FPS(!) bei Quake Champions auf 4k Ultra(!).
Klar, heute würde ich an deiner Stelle auch auf die neuen Karten warten aber zu der Zeit als die 1080 Ti erschien hat sie sich absolut schon gelohnt.
 
Die 2080 ist aber nicht schon seit Ewigkeiten erhältlich.
Von Full HD @60Hz/FPS Ultra (970) zu WQHD @144Hz/FPS Ultra (1080 Ti) war das damals schon ein beachtlicher Unterschied der sich objektiv für competitive play gelohnt hat. Die 1080 Ti schafft sogar 90-100 FPS(!) bei Quake Champions auf 4k Ultra(!).
Klar, heute würde ich an deiner Stelle auch auf die neuen Karten warten aber zu der Zeit als die 1080 Ti erschien hat sie sich absolut schon gelohnt.
habe ich behauptet dass sie sich nicht gelohnt hat?
 
Hoffen wir mal, denn wccftech ist ja dafür bekannt ihre Berichte zu editieren wenn sie mal wieder BS schreiben.
35% war eigentlich immer das Mindeste bei neuen Karten und jetzt zahlt man aber 70% mehr wegen RT was man wohl nicht nutzen wird.
 
ja bin gespannt, 4k@144hz benötige ich ja erstmal nicht, für 3440x1440@120hz könnte die normale 2080 bei ultra ja ausreichen, aber dann haben wir ja wieder die Sache mit den RAM, hätte lieber 11GB RAM :ugly:
 
2080ti um 35% schneller als eine 1080ti im 3DMark TimeSpy Benchmark
980ti vs 1080ti waren noch 79% im selben Bnechmark :neutral:
Trotzdem natürlich krass nochmal 35% auf die eh schon heftige Leistung einer 1080ti zu packen

https://wccftech.com/nvidia-rtx-208...080-ti/?utm_source=dlvr.it&utm_medium=twitter

Wenn das stimmt, dann ist das schon arg lächerlich.

31.05.2015 - 980 ti - 699$

28.02.2017 - 1080 ti - 699$

21 Monate später, selber Preis und 80% mehr Leistung,

28.02.2017 - 1080 ti - 699$

20.08.2018 - 2080 ti - 1199$

19 Monate später, 500$ teurer und nur 35% mehr Leistung.

:ugly:
 
So lief das Spiel auch auf einer GeForce RTX 2080 Ti, dem Flaggschiff, nicht mit mehr als 60 Bildern in der Sekunde – in einer Auflösung von 1.920 × 1.080 Bildpunkten wohlgemerkt.
Das klingt einfach immer so, als würde niemand kapieren, wie viel anders RT funktioniert und welche Ressourcen dafür nötig sind xD Ich bleib bei meiner Hoffnung, dass dieser unnötige Leistungsfresser wieder absterben wird.
 
Ich bleib bei meiner Hoffnung, dass dieser unnötige Leistungsfresser wieder absterben wird.

Noch! Aber irgendwann muss ein Anfang gemacht werden, klar das die ersten Karten diesbezüglich noch nicht sonderlich gut Performen. Jetzt ist es derzeit noch eher wie ein Gadget, das "keiner wirklich gebraucht" aber sich Etabieren wird.
 
Noch! Aber irgendwann muss ein Anfang gemacht werden, klar das die ersten Karten diesbezüglich noch nicht sonderlich gut Performen. Jetzt ist es derzeit noch eher wie ein Gadget, das "keiner wirklich gebraucht" aber sich Etabieren wird.
RT wird nicht irgendwann weniger Ressourcen verschwenden :v: Das hier ist ja bereits die schonendste Art von Echtzeit-RT, die man sich vorstellen kann.

Es geht mir nicht um die aktuelle Performance, sondern um die Leistungsverschwendung.
 
Leistung wird durch RT nicht verschwendet (kannst es ja abschalten), max. Transistoren.
Ich meine damit eher, dass man mit den Ressourcen, die schon diese schwache Variante von RT braucht, sehr viel besseres anstellen könnte und Qualität und Leistung in keinem Verhältnis stehen. Könnte man wenigstens schon in absehbarer Zeit Games ausschließlich mit dieser Technik bringen, wäre es ja wenigstens für die Entwickler gut. Aber so... :nix:
 
Ich meine damit eher, dass man mit den Ressourcen, die schon diese schwache Variante von RT braucht, sehr viel besseres anstellen könnte und Qualität und Leistung in keinem Verhältnis stehen. Könnte man wenigstens schon in absehbarer Zeit Games ausschließlich mit dieser Technik bringen, wäre es ja wenigstens für die Entwickler gut. Aber so... :nix:
Gerade für Entwickler sind diese neuen Karten gut, haben sie doch dadurch jetzt schnell Vergleichsbilder zwischen RT und normaler Rasterisierung und können auch schneller korrektere shadow und reflection maps erstellen.
Bei den bisherigen Ergebnissen musst du auch bedenken, dass die Entwickler die finale Hardware erst ein paar Wochen in den Händen haben. Genau so wird es interessant, was sich mit den Tensor Cores anstellen lassen wird und wie weit das die Cuda Cores entlasten kann.
Und ob Qualität und Leistung in einem Verhältnis stehen ist ja nun nichts wirklich Neues. Die Unterschiede und der Aufwand zwischen High und Ultra bei Schatten, Reflektionen etc. standen bisher auch nicht unbedingt ganz weit oben beim Preis-Leistungs-Verhältnis.
 
Sehe auch eher so, das ein erster schritt in eine neue Richtung wird. Wie Nullpointer es sagt max. Transistoren, was auch wiederum natürlich die herkömmliche Art bremst und dessen Platz wegnimmt. Aber in Zukunft könnten oder werden Entwickler, mehr und mehr gebrauch davon machen.

Das an gegenüber dem RT aus könnte/sollte dann, ein immer größeres Optisches lekerlie sein.
 
Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX
https://www.computerbase.de/2018-09/battlefield-v-weniger-raytracing/

Fängt ja gut an :dizzy:
wird allerdings von beiden Seiten gut begründet.


wenn man bedenkt, dass Dice und alle anderen Raytracing "mal ebend auf die Schnelle" und um kurz vor 12 implementiert hat, ist das gar nicht mal so schlecht. Interessant wird es, wenn Spiele von Grund auf für diese Technik entwickelt werden
 
Lederjacke meinte das sie schon lange mit DICE für Touring zusammen arbeiten ;)
Where it so easy
https://www.eurogamer.net/articles/...-battlefield-5s-stunning-rtx-ray-tracing-tech
Nvidia seeded developers with Titan V hardware earlier this year - but this lacks specific ray tracing acceleration. Cards can be used in parallel to offer up something close to actual RTX performance but the bottom line is this: DICE had just two weeks with final hardware, which was dubbed simply as an 'Nvidia Graphics Device' in the device manager. In short, the developer wasn't even sure which RTX device they were working with.
Eine Titan und eine RTX verhalten sich beim Raytracing komplett anders.
 
Zurück
Top Bottom