PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

@Raiden70
Die 4090 nutzt selten die 400W, man bewegt sich meist bei ~300watt rum, wo die 5090 wenn man sie auf 400W setzt wie ja Tests gezeigt haben dann auch diese meist nutzen will. Daher ist sie dann immer noch leicht schneller ;)
Und selbst voll offen ist sie häufig nur 15% schneller in vielen aktuellen games.
Und nicht vergessen, das man die 4090 auf 80% setzten kann und sogut wie keine fps verliert. Was effizienz angeht, ist die 4090 unschlagbar und DF sagte ja letztens selber in einer Direct, dass sie hoffen, die 6090 wird wieder so ein effizienz beast wie die 4090, da die 5090 mit der Brechstange läuft um die mehr Performance raus zu holen. Und dank wohl 2N wird das kein Problem sein für NV :D
Und ich komme so schon sogut wie immer an das maximum meines Monitors mit 2x FG, also bringen die 4x FG bei mir nix, erst wenn ich mit der 6090 mal nen 300+Hz Monitor hole.
In BF6 bin ich so schon mit DLSS dauernd an den 160hz in höchsten Settings, da gibt es kein Platz für FG.
Da es keine 4090 mehr gibt ist es ja ok gewesen ne 5090 zu kaufen, aber nicht schlau von ner 4090 auf zu rüsten ;)
Und ich bin schon einer der viel unnötiges Zeug kauft, aber das wäre mit dem Verbrauch und Wärme stupid gewesen.

Edit:
Und den Preis nicht vergessen für den man ne 4090 bekommen hat. Ich war ungeduldig und hab 1900€ bezahlt zu launch und paar Monate später gab's meine Karte für 1600€ :banderas:

Und Sorry, höre ich zum ersten mal, dass es ein Rückschritt wäre, wenn die 6090 wieder nur 400W bei ~60% mehr Performance hätte. Jeder wünscht sich doch das dieser Wahnsinn aufhört.
Und für 120fps braucht man kein FG, dass hast du so in 95% der games, wenn sie kein Pathtracing nutzen, wie gesagt, ich hab fast immer die 165hz jetzt dank DLSS Performance mit Transformer Model M :D

Wurde zu lang, aber musste warten bis mein Brötchen im Ofen fertig wurde xD
 
Zuletzt bearbeitet:
Die 5090 zieht 575Watt und die 4090 450Watt. Da jetzt auf einmal die 4090 zum Effizienz Monster zu küren und der 5090 zu viel Verbrauch zu unterstellen, ist übertrieben.

Die 5090 hat ~40% mehr Raytracing Performance.
Der Speicher ist 70% schneller.

Die Karte ist klar Leistungsstärker als eine 4090.

Was den Stromverbrauch angeht, kann man die 5090 auch gut runter drücken.

An meinem PC hängt ein Wattmeter. Trotz 14900K Prozessor ist mein Gesamtverbrauch fast immer unter 300Watt.
Bei grafisch Anspruchsvollen Games zeigt das Gerät auch mal 500Watt an. Die Spiele kann man aber an einer Hand abzählen…

Die 6090 wird natürlich auch wieder schneller als die 5090 werden, aber 60% mehr Rohleistung ist mit Sicherheit nicht drin. Selbst wenn es machbar wäre. NVIDIA ist ein profitiertes Unternehmen. Es wäre dumm, das zu tun, zumal sie aktuell keinerlei Konkurrenz haben.
Der Verbrauch wird aber durch den Transistor Shrink stark sinken.
 
Und Sorry, höre ich zum ersten mal, dass es ein Rückschritt wäre, wenn die 6090 wieder nur 400W bei ~60% mehr Performance hätte. Jeder wünscht sich doch das dieser Wahnsinn aufhört.
Und für 120fps braucht man kein FG, dass hast du so in 95% der games, wenn sie kein Pathtracing nutzen, wie gesagt, ich hab fast immer die 165hz jetzt dank DLSS Performance mit Transformer Model M :D

Wurde zu lang, aber musste warten bis mein Brötchen im Ofen fertig wurde xD

So siehts aus, wäre froh wenn wir den Sprung den die 4090 zur Vorgeneration gemacht hat bekommen und nicht den, den die 5090 zur 4090 gemacht hat.
Wie mies der jetzige Sprung war sieht man ja auch ganz gut an der 5080 die von der 4090 absolut rasiert wird.
Durch das verbesserte Fertigungsverfahren und natürlich verbesserte Architektur ist da auch durchaus was drin, am besten wäre wenn udna nen richtiger Knaller wird und Nvidia so richtig Konkurrenz bekommt.
 
@crxeg2

Gibt genug Tests, auch von DF damals wo die 5090 bei nicht mal 30% mehr Leistung 200W mehr verbraucht.
Und die 4090 läuft wie gesagt, fast immer bei 300W rum. Hab Ausnahme games wollen sie mal mit 400W rennt. Dann die 50% auf der nur die Lüfter laufen und die 60C°. Kein Wunder das sich das jeder wieder bei der 6090 wünscht.
Und 15-30% ist jetzt nicht gerade deutlich Leistungsfähiger.
Der Hype nach Vorstellung, war ja sofort mit den ersten Tests vorbei, nicht umsonst sollte kein er die vor Launcht Testen ;)
Wenn man aber das beste will, kommt man leider an ner 5090 nicht vorbei, da die 4090 sofort gestoppt wurde von NV und dann so teuer wurde wie ne 5090 :D
Wenn ich auf CB oder ERA lese das sich Leute haufenweise 5080 Karten zum Preis meiner 4090 kaufen und die selben früher die 4090 Käufer für verrückt gehalten haben aber jetzt Panik bekommen, dann muss ich immer den hier machen :banderas:
 
Zuletzt bearbeitet:
Denke auch dass eine 6090 insbesondere in Sachen Effizienz, RT und AI Mehrleistung ggü. der 5090 bieten wird.
Wobei ich je mehr ich darüber nachdenke auch XBox Magnus immer interessanter finde. Ist in meinen Augen die deutlich bessere Steam machine und ein spekulativer Preis von 1200-1500€ ist für ~RTX 5080 Performance sicher alles andere als schlecht.
 
Denke auch dass eine 6090 insbesondere in Sachen Effizienz, RT und AI Mehrleistung ggü. der 5090 bieten wird.
Wobei ich je mehr ich darüber nachdenke auch XBox Magnus immer interessanter finde. Ist in meinen Augen die deutlich bessere Steam machine und ein spekulativer Preis von 1200-1500€ ist für ~RTX 5080 Performance sicher alles andere als schlecht.
die wird niemals nur 1500 kosten bei der aktuellen marktsituation.
 
Da die 5090 quasi den selben Fertigungsprozess wie die 4090 durchläuft (5nm) ist sie logischerweise mindestens genauso effizient (Flops pro Watt). Auch diese Karte kann man undervolten und ein Leistungslimit setzen.

Wie schon richtig erwähnt ist die 5090 eine dickere 4090. Sie hat aber insgesamt einfach mehr von Allem und ist deshalb auch die bessere Karte. Von Multi Frame Generation mal abgesehen, denn da ist die 5090 auf einem anderen Level und das ist auch die Zukunft des Gamings; Hohe Frames mit Pathtracing.
 
Da die 5090 quasi den selben Fertigungsprozess wie die 4090 durchläuft (5nm) ist sie logischerweise mindestens genauso effizient (Flops pro Watt).
Und genau das ist ja das Problem, dass alle bemängelt haben und sie auch dadurch nicht mehr im sweet spot wie die 4090 läuft und das merkt man in jedem Bereich (Temp, Verbrauch und Praktische Performance).
 
Und genau das ist ja das Problem, dass alle bemängelt haben und sie auch dadurch nicht mehr im sweet spot wie die 4090 läuft und das merkt man in jedem Bereich (Temp, Verbrauch und Praktische Performance).
Gibt genug positive Tests zur 5090. Alle kann man damit schon mal ausschließen.

Die 50er Generation soll Multi Frame Generation pushen. Das macht sie sehr gut.
Die 5090 bietet dazu noch richtig viel Rohleistung.
Klar ist die Karte viel zu teuer und bietet für das Geld zu wenig. Das war bei der auch schon zu teuren 4090 nicht ganz so krass.

Es wird aber niemand gezwungen soviel Geld auszugeben. Eine 5070ti ist auch schon sehr anständig.
 
Klar wird ja niemand gezwungen und hätte ich keine 4090 gekauft, hätte ich mir spätestens auch ne 5090 kaufen müssen, aber hab da zum glück doch die für mich richtige Wahl getroffen.
MFG ist die Zukunft, habe ich immer gesagt und auch FG verteidigt und mache ich immer noch, nach DLSS das beste Feature. Aber da auch die Next Gen noch auf sich warten lässt, bis Path Tracing zumindest mal in 50% der Games vorkommen wird, reicht mir für die wenigen games und vorallem ohne neuen Monitor noch locker FG x2.
Seit Transformer nutze ich FG kaum noch wie ich mich erwischt habe, da ich im performance Modus nur noch die CPU als mein Flaschenhals sehe. Ist schon geil irgendwie :goodwork:
 
PT wird wenn überhaupt zu Beginn der nächsten Komsolengeneration flächendeckend ein Thema werden, evtl. aber auch erst später.
Thema FG / ML / AI: so lange man im Spiel keinen großen Unterschied zu „echten“ Frames merkt ist das doch ein tolles und legitimes Feature. Ich finds toll, da es ja zunehmend schwerer wird, große Sprünge in der Rohleistung zu verwirklichen
 
PT wird wenn überhaupt zu Beginn der nächsten Komsolengeneration flächendeckend ein Thema werden, evtl. aber auch erst später.
Thema FG / ML / AI: so lange man im Spiel keinen großen Unterschied zu „echten“ Frames merkt ist das doch ein tolles und legitimes Feature. Ich finds toll, da es ja zunehmend schwerer wird, große Sprünge in der Rohleistung zu verwirklichen

Sind schon ein paar gute Spiele dabei und die Raytracing Spiele profitieren ja auch enorm durch die AI Features.

 
Es muß eigentlich nicht ausdiskutiert werden das die RTX5090 die effizientere Karte ist, weil es ganz einfach so ist :) Bei 400 Watt hat sie nachweisbar mehr Leistung als die RTX 4090, daran gibts nichts zu rütteln. Und wenn man auf 120 fps gehen will hat man mit 3x Framegen, was bei diesen fps noch sehr gut mit wenig Inputlag klappt weit weniger Stromverbrauch als nur mit 2xFramegen.

Aber natürlich muß man nicht von einer RTX4090 zwingend auf eine RTX5090 upgraden, man muß auch nicht zwingend von einer RTX3080 auf eine RTX 5090 upgraden, das ist etwas das jeder für sich ausmachen muß. Je nach Ansprüchen und Geld. Gibt Leute die womöglich mit 1080p und 30 fps absolut zufrieden sind, denen reicht evtl. auch noch eine alte RTX2080.
 
Es muß eigentlich nicht ausdiskutiert werden das die RTX5090 die effizientere Karte ist, weil es ganz einfach so ist :) Bei 400 Watt hat sie nachweisbar mehr Leistung als die RTX 4090, daran gibts nichts zu rütteln. Und wenn man auf 120 fps gehen will hat man mit 3x Framegen, was bei diesen fps noch sehr gut mit wenig Inputlag klappt weit weniger Stromverbrauch als nur mit 2xFramegen.

Aber natürlich muß man nicht von einer RTX4090 zwingend auf eine RTX5090 upgraden, man muß auch nicht zwingend von einer RTX3080 auf eine RTX 5090 upgraden, das ist etwas das jeder für sich ausmachen muß. Je nach Ansprüchen und Geld. Gibt Leute die womöglich mit 1080p und 30 fps absolut zufrieden sind, denen reicht evtl. auch noch eine alte RTX2080.

Wobei man mit einer 2080 schon auf PS5 Niveau ist, natürlich mit viel besserem Raytracing und DLSS.
Ich würde einen PC mit einer 2080 auf jedem Fall einer Playstation 5 vorziehen.
 
Es muß eigentlich nicht ausdiskutiert werden das die RTX5090 die effizientere Karte ist, weil es ganz einfach so ist :) Bei 400 Watt hat sie nachweisbar mehr Leistung als die RTX 4090, daran gibts nichts zu rütteln.
Doch, da du es nicht ganz verstehst warum sie eben nicht so effizient ist, wenn man sie auf die selben TDP Locked wie ne 4090 und du es ja angesprochen hat, diskutieren wir es ja :D
Du hast es doch selber geschrieben das sie dann 12% schneller wäre, aber sie hat 33% mehr Cudas und auch mehr Bandreite als 12% (~80% mehr) , daher läuft sie eben nicht im sweet spot und kann die Mehrleistung nicht rausholen ohne das NV massiv den Verbrauch anheben musste. Leute wie PC Jesus wissen schon was sie da Testen ;)
Und wie in einigen der Teasts ja angesprochen wurde iirc nimmt sich die 5090 auch dann meist die Vollen Watt wo die 4090 das eben selten macht und einiges unter den 450W läuft.
Und wie eben schon gesagt wurde früher, wer kauft sich ne 5090 um dann von 30% auf nur noch rund 10% gegenüber ner 4090 zu fallen damit man aber ungefähr nur noch den verbrauch einer 4090 hat, zahlt aber 30-50% mehr :coolface:
Der 8Auer hat ja noch gesagt, bei der 4090 macht das wenigstens noch sinn, da man 2-5% verliert bei 300W lock auf ner 4090, haben wir ja hier damals bei Launch auch getestet, aber die 4090 verbraucht ja so schon wenig für die Leistung.

@crxeg2

Die frage gabs mal im ERA und Dictator meinte man wäre mit ner PS5 besser aufgehoben als mit nem PC und ner 2080, alleine schon von der Preis Leistung, also ich denke wäre kein guter Rat für nen Einsteiger ;) Zukunftssicherer wäre man wohl auch noch, so kacke wie die PC Ports häufig sind, da hast du mit ner 399€ PS5 weniger Kopfschmerzen.
 
Zuletzt bearbeitet:
Es muß eigentlich nicht ausdiskutiert werden das die RTX5090 die effizientere Karte ist, weil es ganz einfach so ist :) Bei 400 Watt hat sie nachweisbar mehr Leistung als die RTX 4090, daran gibts nichts zu rütteln. Und wenn man auf 120 fps gehen will hat man mit 3x Framegen, was bei diesen fps noch sehr gut mit wenig Inputlag klappt weit weniger Stromverbrauch als nur mit 2xFramegen.

Aber natürlich muß man nicht von einer RTX4090 zwingend auf eine RTX5090 upgraden, man muß auch nicht zwingend von einer RTX3080 auf eine RTX 5090 upgraden, das ist etwas das jeder für sich ausmachen muß. Je nach Ansprüchen und Geld. Gibt Leute die womöglich mit 1080p und 30 fps absolut zufrieden sind, denen reicht evtl. auch noch eine alte RTX2080.
Beiden Seiten haben hier recht und Consolefanatic hat nicht so unrecht wie ihr behauptet. Mich wundert es, wie hier gesprochen wird. Sollen die 4090er nun neidisch sein auf eine 5090? Ich hätte mir die 5090 kaufen können aber die knapp 600Watt sind Primitive. Und WTF ja, die 5090 ist die bessere Karte vs 4090, nur juckt das die 4090er User keinen Meter, dafür ist die 4090 einfach viel zu gut. Die 4090 wird eingereiht zur 8800GTX oder 1080TI - Diese Karte ist bereits jetzt schon eine Legende ....

So und nun schauen wir mal auf den Stromverbrauch und das Verhalten dahiner:

Auch die GeForce RTX 5090 benötigt die 575 Watt bei weitem nicht in jedem Spiel, im Durchschnitt sind es in etwa 480 Watt (RTX 4090: 380 Watt).

Allerdings verliert die Grafikkarte mit ihrer riesigen GPU mit den 450 Watt (-125 W, -22 Prozent) dann im Durchschnitt bereits mehr als doppelt so viel Performance wie die GeForce RTX 4090 mit 350 Watt (-100 Watt, –22 Prozent): 5 Prozent weniger FPS gibt es mit der GeForce RTX 5090 bei 450 Watt, in einzelnen Spielen liegt der Leistungsverlust auch bei 7 bis 14 Prozent.



:kruemel:
 
Mich wundert es, wie hier gesprochen wird. Sollen die 4090er nun neidisch sein auf eine 5090?

Wurde hier so gesprochen? Warum sollte jemand neidisch sein der zufrieden ist mit dem was er hat?

Ich hätte mir die 5090 kaufen können aber die knapp 600Watt sind Primitive.
Naja, wenn Deutschland dem Untergang geweiht ist weil ein paar wenige User mit einer High End GPU ein paar Watt mehr Strom verbrauchen dann braucht man auch keine E-Autos zu fördern wo der Stromverbrauch irgendwie egal ist. Wenn unser Strom so knapp ist das man jedes Watt zählen muß sollte man besser Fahrräder statt E-Autos fördern.

Wirkt auf mich auch nicht gerade so als hätten wir hier ein großes Problem wenn ich mir so ansehe wo überall Strom sinnlos verbraucht wird.

Wem der Stromverbrauch wichtig ist der sollte eh auf einer Switch 2 zocken, die braucht nur 30 Watt. Das wäre ein eindeutigeres Statement. Jeder der auf PS5 oder PC zockt oder einen Geschirrspüler verwendet muß damit leben das er Schuld ist am Klimawandel und dem Weltuntergang,.

Und WTF ja, die 5090 ist die bessere Karte vs 4090, nur juckt das die 4090er User keinen Meter,

Also mich als ehemaliger RTX 4090 User hat es gejuckt ;) Einfach weil die RTX5090 3x oder 4x Frame Generation hatte. Die native Mehrleistung war nicht der entscheidende Grund.

dafür ist die 4090 einfach viel zu gut. Die 4090 wird eingereiht zur 8800GTX oder 1080TI - Diese Karte ist bereits jetzt schon eine Legende ....

Der Legendenstatus muß am mir vorbeigegangen sein. Für mich wirkte sie mehr wie eine Übergangslösung. Erst die RTX5090 fühlt sich mit 3x,4x Multframegen komplett an weil man erst hier das volle Potential genutzt hat.

Fernseher verwenden schon seit 10 Jahren 4x Frame Generation um 24/30 fps auf 120 fps hochzurechnen.

So und nun schauen wir mal auf den Stromverbrauch und das Verhalten dahiner:

Auch die GeForce RTX 5090 benötigt die 575 Watt bei weitem nicht in jedem Spiel, im Durchschnitt sind es in etwa 480 Watt (RTX 4090: 380 Watt).

Den Durchschnitt kann man kaum bestimmen. Zockt man mit 120 fps oder mehr kann man problemlos 3xMfg verwenden damit ist man Stromverbrauch unter der RTX4090 mit 2xMfg und identischen Details.

Ich brauche, obwohl es mir egal wäre, durchweg wengier Strom mit der RTX5090 als früher mit der RTX4090.

Allerdings verliert die Grafikkarte mit ihrer riesigen GPU mit den 450 Watt (-125 W, -22 Prozent) dann im Durchschnitt bereits mehr als doppelt so viel Performance wie die GeForce RTX 4090 mit 350 Watt (-100 Watt, –22 Prozent): 5 Prozent weniger FPS gibt es mit der GeForce RTX 5090 bei 450 Watt, in einzelnen Spielen liegt der Leistungsverlust auch bei 7 bis 14 Prozent.
Ja, diese merkwürdige Milchmädchen Rechnung die keinerlei Sinn ergibt habe ich auch gesehen und direkt ignoriert. :)

arum sollte man beide GPUs um den prozedural gleichen Wert reduzieren wollen? Abgesehen davon, man braucht bei diesen teueren High End GPUs einfach nicht mit dem Strom verbrauch diskutieren, so wenig wie man über den Benzinverbrauch bei einem Lamborghini diskutieren muß.

Relevant ist am Ende das hier


Die RTX5090 erreicht 234 fps in Cyberpunk 2077 und die RTX4090 nur 109 fps.

So einen riesigen FPS Sprung wird es wohl nicht mehr geben
 
Zurück
Top Bottom