PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Spiderman ist kein gutes RT benchmark, da nur RT Spiegelungen genutzt werden und auch noch in ner verspiegelten City, was selbst "best case" für Software RT ist wie uns Crytec gezeigt hat und die Karten schon bei den 3xxx alle ins CPU limit gelaufen sind so wie es implementiert wurde.
Ich hab kein bock das Video von Dictator raus zu suchen, glaub war in einem RTX 3xxx Karten Test, aber Quake 2 RTX war (und ist es heute noch )wie er gezeigt hat ein gutes RT benchmark wegen dem path traced GI Lighting und auch sonst allen RT Features und da war die 3080 iirc ~100% schneller.
Beim PCGH Test den doch damals einer hier auch gepostet hatte, waren es ebenso fast ~100% zur 6800XT.

Ich glaub Minecraft RTX waren auch über 80% oder so.
 
Hmm stimmt, Spiderman RT auf hohen Stufen scheint besonders die CPU stark zu fordern, da wird wohl viel auf diese ausgelagert weils auf der PS5 auch so gehandhabt werden musste.

Quake RTX ist ein gutes Beispiel, wie auch Minecraft die setzen ja voll und ganz darauf(path tracing) und da kommt dann wirklich bis zu 100% Mehrleistung für Nvidia bei rum:


Die Frage ist halt wie zukünftige Games das handhaben werden, path-tracer wirds wohl so bald nicht bei modernen AAA-Games geben, das würde auch die Nvidiakarten in die Knie zwingen und auf AMD Konsolen gäbe es nur noch Standbilder. Wenn auf Konsolen RT laufen soll wird man wohl mehr Spiele wie eben Spiderman sehen(vermute bei Ratchet and Clank wurde es ähnlich implementiert)...

Andererseits: Cyberpunk Raytracing Patch auf den Konsolen war ja gar nur RT Schatten oder? :ugly:

Ja richtig erinnert:
Eurogamer schrieb:
ray-traced shadows are where the upgrades in ray-tracing settings end on console. Ray traced reflections look phenomenal in the PC version of the game, though sadly they're not present on PS5 or Series X, while their ambient occlusion method similarly remains the same. All told then, placing PS5 and Series X in RT mode alongside Series S's standard non-RT presentation, all are offering a 1440p30 outlook and all look very similar, with RT only manifesting in an impactful way in select indoor areas. Elsewhere, the upgrade is less apparent on Night City's streets.
Bitter auch die Erkenntnis, dass man zur Series S Version in 1440p ohne RT kaum Unterschiede merkt aber so ist das halt mit RT Schatten. Ist wohl der geringste Benefit den RT bieten kann, kostet entsprechend auch am wenigsten Leistung, kann mich auch noch an Tomb Raider erinnern, das Nvidia als RT Showcase nutzte damals mit den ersten RTX Karten. Das hat dem Ruf von RT wohl am meisten geschadet, weil kaum Jemand nen unterschied sah, bis auf die deutlich niedrigeren FPS. Seitdem glauben viele, dass RT nichts bringen würde :fp:

Kontext fehlt:

Leistung einer 4090 im normalen Graka Gehäuse für 999,- Ja klar wäre ich dabei gewesen. Aber 999,- für 4070/4080 Leistung, bedeutet Gute Nacht AMD.
Ja, CB hat die Karten etwas zu sehr gehyped, war auch ein wenig im Forum unterwegs da haben einige herumgeträumt, dass die XTX bis auf wenige Prozentpunkte an die 4090 rankommt :lol: -Sehe die 7900XTX aber noch immer im Kampf mit der 4080, ähnlich wie die 6800 mit der 3080 -und wenn RT eingeschaltet wird, schießt dann die 4080 davon. -Die Frage ist halt wie viel, die meisten Spiele werden weiterhin auf Konsolen optimiert werden und da steckt dann AMD Hardware drinnen und wenn man mit RT werben will, muss das entsprechend auch drauf laufen und dann wirds eher schwach ausfallen...
 
Zuletzt bearbeitet:
Wenn man das mal so grob umspannt, tun sich AMD und Nvidia insg. Nichts, was Preis/Leistung angeht.
 
Der Igor hat mal AMDs best case scenario umgerechnet:


Die XTX wäre also theoretisch 5% schneller als ne 4080-16GB. Achtung: Best Case Scenario, gerade bei CP2077 wird dann die 4080 mit Aktivieren von RT wohl mindestens 50% Vorsprung rausholen :ugly:

Und von der 4090 reden wir gar nicht erst...
 
Der Igor hat mal AMDs best case scenario umgerechnet:


Die XTX wäre also theoretisch 5% schneller als ne 4080-16GB. Achtung: Best Case Scenario, gerade bei CP2077 wird dann die 4080 mit Aktivieren von RT wohl mindestens 50% Vorsprung rausholen :ugly:

Und von der 4090 reden wir gar nicht erst...


also zur 4080 braucht ma nicht viel schätzen gibt leaks zu 4080
verbauch 320w bei 100% leistung

time spy
4080 = 28599
4090 = 35679

time spy extrem
4080 = 14174
4090 = 19220

3d mark directX raytracing test
4080 = 87
4090 = 141

 
Hab ja schon mal geschrieben, wenn AMD die selbe leistung hätte, würden sie nicht billiger sein, sieht man ja an den CPUs, nur da ist der neue Zen etwas nach hinten los gegangen xD
Die CPUs gehn ja noch aber die Mainboards sind eine Frechheit, die Preise werden natürlich von AMD gesteuert die liefern ja die Chipsets aus für die Boards(als ich mal zum spaß reingeschaut hab gabs kein Board unter 300 Euro und das warn jetzt keine Highend Boards von der Verarbeitung mit RGB und Dicken Kühlern). Das ganze floppt aber ziemlich also nicht so viel absatz wie AMD sich das vorgestellt hat, zumindest vor nem Monat gabs da recht wenig Euphorie, kann sich natürlich gebessert haben. Finde man sollte sowieso etwas abwarten bis DDR5 Preise sich etwas verbessern.
also zur 4080 braucht ma nicht viel schätzen gibt leaks zu 4080
verbauch 320w bei 100% leistung

time spy
4080 = 28599
4090 = 35679

time spy extrem
4080 = 14174
4090 = 19220

3d mark directX raytracing test
4080 = 87
4090 = 141

Gibt auch Spiele Benchmarks das ist interessanter, wenngleich auch mit voller TDP:

RTX 4090/i9-12900KF results:

RTX 4090 vs RTX 4080​

  • Forza Horizon 5: 147 FPS vs 127 FPS (+15.7%)
  • Shadow of the Tomb Raider: 179 FPS vs 129 FPS (+ 38.8%)
  • Red Dead Redemption 2: 129 FPS vs 99 FPS (+30.3)
  • Cyberpunk 2077: 111 FPS vs 83 FPS (33.7%)
  • COD MW2: 137 FPS vs 127 FPS (+7.9%)


Also ne 4090 ist 7%(klingt aber nach CPU limit, FH5 sowieso) bis 39% schneller als ne 4080. Das ist schon ein enormer Rückstand, lässt Raum für eine 16-20GB 4080 Super mit 10% Mehrleistung erscheinen und dann noch die 4080Ti die dann 5% langsamer als ne 4090 wird. Die 80er und 90er bzw. Titan waren lange nicht so weit auseinander. Man merkt: Sie wussten ganz genau was AMD für ne Performance liefern wird und werden was schnelleres als die 4080 nur releasen, sollte AMD mit einer RX7950XT ankommen. (oder 1 bis 1,5 Jahre Zeit ins Land streichen)

Wobei Nvidia in der Vergangenheit die 80Ti released hat und erst später ne Titan(was ja die 4090 prinzipiell ist), interessant wie sie die Gamer jetzt mit Productivity Grafikkarten melken. Zur 3090 hieß es noch "ja also wir haben diese Karte für 1700 Euro, ist eigentlich nicht für gamer, ist 10% schneller als die 3080 für 700 Euro aber ein Biest für Leute die damit arbeiten mit massig RAM".

Heute bekommt man ne lahme Ente mit der 4080, die soviel kostet wie letzte Generation eine 3090 und die 4090 die vernünftige Leistungssteigerungen bietet kostet realistisch 2300 Euro. Die 4080 16GB hätte eine 4070Ti sein können und die "4080"12GB eine 4070. -Mit entsprechenden Preisen.
 
Zuletzt bearbeitet:
Die 4090 hat doch 16k+ CUDA
Er meinte der Vollausbau wird 4090 Euro kosten :coolface:

Ich denke eher, dass die 4090Ti dann nach einem Jahr oder so erscheinen wird wohl eher 2500 Euro kosten. Die 4090 lässt man dann eventuell einfach auslaufen. Wobei nichts fix ist, diesmal ist Nvidia völlig ohne Konkurrenz im High-Highend. Die 4090 pulverisiert was AMD anzubieten hat(allerdings auch alles was Nvidia darunter anbieten wird). Vermute ja, dass Nvidia 4080er am Fließband produzieren wird, während die 4090er in homöopathischen Mengen ausgeliefert werden. Denn wenn man sich die größe des Chips ansieht, wird klar, dass mit der 4080er der große Reibach gemacht werden wird, wenn die UVP Preise wirklich stimmen sollten, und die Karten für 1600-1900 Euro verkauft werden...
 
Dazu weiß man schon was?
Würde halt ins Schema passen, die 3080Ti war ja auch nur minimal langsamer als eine 3090, heißt natürlich nicht, dass es passieren muss, kommt wohl auch sehr darauf an wie gut die Absätze der Grafikkarten sind und ob AMD doch noch ne Highend Karte präsentieren kann. Dass die 6900XTX sich von der 4080 absetzen kann glaube ich mittlerweile nicht aber sie lassen sich ja noch die 50 offen, also ne 6950XT kommt sicher, vielleicht auch noch ne 6950XTX und wenn die schnell genug sind wird Nvidia kontern, haben sie bisher noch immer.
 
Diese Preise will kaum jemand bezahlen. Es ist nun klar, wo die Preis Grenze fürs Gaming liegt. Ich finde aber Nvidia hat das Recht soviel zu verlangen.

Nvidia erlebt teilweise den PS3 599,- Flash.
 
Diese Preise will kaum jemand bezahlen. Es ist nun klar, wo die Preis Grenze fürs Gaming liegt. Ich finde aber Nvidia hat das Recht soviel zu verlangen.

Nvidia erlebt teilweise den PS3 599,- Flash.
Vielleicht im Moment. Vor gar nicht so langer Zeit waren auch 700€ mal ein Preis, den nur wenige für eine Grafikkarte bezahlen wollten.
Das "extreme" im Moment bei Nvidia ist die Steigerung zur Vorgeneration, die erstmal "schockt".
Nach rtx 3080 uvp. 700€ zu rtx 4080 uvp 1500 ist halt eine ziemliche Steigerung, die Otto Normal Gamer (zurecht) nicht einsieht. Der Effekt wird aber vermutlich erst dann wirklich sichtbar, wenn der Anfangshype mal vorbei ist.
 
Der 4070 Betrug spielt bestimmt auch eine Rolle.
Wenn man sich das Bild hier anschaut, dann bleibt nicht viel platz für Respekt.
hutchenspiel-thimblerig-drei-muscheln-und-eine-erbse-illegales-glucksspiel-betrug-spiel-g3a8hh.jpg
 
Nach rtx 3080 uvp. 700€ zu rtx 4080 uvp 1500 ist halt eine ziemliche Steigerung, die Otto Normal Gamer (zurecht) nicht einsieht. Der Effekt wird aber vermutlich erst dann wirklich sichtbar, wenn der Anfangshype mal vorbei ist.
Die 700 Euro waren auch nur weil der Euro damals 1,2x so viel wert war wie der Dollar, was im Prinzip unsere 20% MwSt. geschluckt hat. Der 700 Dollarpreis ist ja ohne MwSt. Diese Vergleiche sollte man also immer mit Dollar machen.

UVP:
3080 700 Dollar(bis 1000 Dollar) -> 4080 1200 Dollar(bis 1600 Dollar und man kann sich denken welche Modelle lagernd sein werden)

Gehen wir von den 1200 Dollar aus:
Preis: +71,4% - Leistung: +55%

Gehen wir von den realistischeren 1500 Dollar vs 800 Dollar aus:
Preis: +87,5% - Leistung +55%

2 Jahre Wartezeit und die Karte ist überproportional teurer zur Leistung, eine wirklich traurige Generation. Hier ist einiges im Argen, alles über 1000 Euro für eine 4080 ist inakzeptabel. Die Preise werden wir aber nicht sehen, weil die AiBs wahrscheinlich bei 1300 Euro schon kaum Gewinnmarge übrig haben, da sie von Nvidia geschröpft werden, kein Wunder, dass EVGA da einfach den Schlussstrich zog. Vielleicht wechseln sie ja zu AMD?
 
Zurück
Top Bottom