• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Das ist überall so, man darf gerne alles runterladen (und sei es als riesiger Day One Patch). Bald gibt es nur noch digitale Konsolen, der PC ist schon in der Zukunft :coolface:
Ich kenne die Vorteile des Downloads nur zu gut. Dank dem super schnellen PSN auf den AWS Servern, lade ich Spiele mit meiner 1Gbit Leitung schneller, als von Disk zu installieren. Steam schafft es auch manchmal dies auszulasten. Trotzdem möchte ich Disks nicht missen. Sharing (legal) is careing 🙃
 
Ich kenne die Vorteile des Downloads nur zu gut. Dank dem super schnellen PSN auf den AWS Servern, lade ich Spiele mit meiner 1Gbit Leitung schneller, als von Disk zu installieren. Steam schafft es auch manchmal dies auszulasten. Trotzdem möchte ich Disks nicht missen. Sharing (legal) is careing 🙃
Da hast du aber Glück, bei mir wurden zuletzt (zugegebenermaßen 2 Jahre her) die Downloadgeschwindigkeiten des PSN nur von der Switch unterboten
 
Ich kenne die Vorteile des Downloads nur zu gut. Dank dem super schnellen PSN auf den AWS Servern, lade ich Spiele mit meiner 1Gbit Leitung schneller, als von Disk zu installieren. Steam schafft es auch manchmal dies auszulasten. Trotzdem möchte ich Disks nicht missen. Sharing (legal) is careing 🙃

Einer der wenigen Glücklichen? :coolface:
 
Da hast du aber Glück, bei mir wurden zuletzt (zugegebenermaßen 2 Jahre her) die Downloadgeschwindigkeiten des PSN nur von der Switch unterboten
Switch geht wirklich ab, ich habe um 0:00 Uhr am Launchtag Mario Odyssey gezogen und 5 Minuten später war ich schon mitten im Spiel. -Natürlich spielte da die Dateigröße mit aber ist eh auch sowas das man mehr ankreiden sollte am PC und auch den anderen Konsolen, viel ist auf schlampige Programmierung zurückzuführen. Dass ein CoD 200GB braucht ist völlig absurd.
 
AMD hat halt einen gravierenden Architektur-Nachteil ggü. Nvidia,man muss abwarten, wie sich das über die nächsten Jahre entwickelt. Prognosen für eine Next Gen sind da natürlich schwierig. Ich gehe mal davon aus, dass die Next Gen 2027/28 kommt, die Leistungsfähigkeit wird man dann etwa 1 Jahr vor Release an der dann aktuellen 200W Karte ableiten können. Kann mir gut vorstellen, dass bei den Fertigungsprozessen in 3/4 Jahren 7900xtx (eher etwas mehr) mit 200W gut möglich sind. Aber natürlich werden Konsolen dann bei Erscheinen gegen dann aktuelle 450W Karten wieder abstinken, das ist unvermeidbar. Der Limitierende Faktor Leistungsaufnahme ist nunmal leider da, auch wenn einige meinen, dass Sony mit seinem Know-How einfach eine Super-GPU bei AMD in Auftrag geben könnte, die dann mit 200W so viel Leistet, wie eine 400 Watt Grafikkarte.
welcher nachteil wäre das denn?

hier klingt es nicht grade danach
fazit rdna3

oder hier beim RT

sind sehr detaillierte berichte
 
RDNA 2 sah wesentlich besser aus gegen nvidias 30er Serie als RDNA 3 jetzt gegen Lovelace, AMDs cutting Edge kann grade mal mit Nvidias 80er Serie gleichziehen, damals konnte man sich noch an der 90er messen und das wo Nvidia die 80er Serie auch noch drastisch beschnitten hat und ein klaffendes Loch zur 4090 besteht. Klar preislich ist AMD etwas günstiger(1100 Euro vs 1250 Euro aktuelle Tiefstpreise) bei ca. gleicher Renderperformance zur 4080er aber in Sachen Effizienz(die 4080 braucht ca. 100W weniger Strom bei gleichen Frames) und vor allem Raytracing hinkt man noch immer wie schon vor 3 Jahren eine Generation hinter Nvidia hinterher(die 7900XTX ist bis zu 40% langsamer als die 4080).

powerdrawawd8o.png


rtcyber80fjx.png
 
@TheProphet

Das sind die Watt angaben bei 90fps lock um die zu messen nicht Rt Performance. RDNA2 sah noch schlechter aus bei RT. Am besten konnte man das bei richtigen RT Games wie Quake (path tracing) messen. CP war wegen BVH berechnungen meit im CPU Limit bei viel RT wie DF und CB gezeigt hat und in so games sah RDNA2 dann näher aus. Deutlich auch bei Spider Man was stark CPU limitiert war.
 
Das sind die Watt angaben bei 90fps lock um die zu messen nicht Rt Performance.
Ja, ich weiß, deshalb hab ich oben auch dazugeschrieben, knapp 100W mehr bei gleichen Frames. Der Abstand scheint sich beim Stromverbrauch nicht stark zu ändern bzw. die 4080 braucht etwas mehr Strom liefert aber halt auch deutlich mehr FPS, die Watt/FPS Effizienz ist viel besser als bei AMD.

CP war wegen BVH berechnungen meit im CPU Limit bei viel RT wie DF und CB gezeigt hat und in so games sah RDNA2 dann näher aus. Deutlich auch bei Spider Man was stark CPU limitiert war.
Ja diese CPU limitierenden Titel sind die Rettung für die durchschnittliche Performance der 7900XTX, CB kann man leider eh nicht all zu ernst nehmen, die testen Cyberpunk in 4k ohne DLSS und RT auf Psycho aber testen dann nur Deathloop, Dying Light 2, Spider-Man und Ghostwire Tokyo mit RT und DLSS/FSR in 4K. Verrückt da CP2077 nicht zu auch mit DLSS zu benchen, weil selbst die 4090 in 4K nativ nur einen 34 FPS Schnitt schafft ohne DLSS, die 4080 24FPS und die 7900XTX 15FPS, als ob irgendjemand so spielen würde :fp:

Am besten ist hier wohl die 1440p Grafik (was ja die Basisauflösung für DLSS im Qualitymode ist), das ist richtig krank wie Nvidia da AMD überfährt:

cyberpunk1440prtkcc24.jpg

Es wirkt auch als hätte AMD nicht besonders viel Steigerungen im RT zu ihrer Lastgen rausgeholt, die 7900XTX ist mit RT 31% schneller als die 6900XT und... ohne RT ist sie 46% schneller. Das zeigt also sogar eine Verschlechterung der RT Performance auf :ugly:

 
Zuletzt bearbeitet:
RDNA 2 sah wesentlich besser aus gegen nvidias 30er Serie als RDNA 3 jetzt gegen Lovelace, AMDs cutting Edge kann grade mal mit Nvidias 80er Serie gleichziehen, damals konnte man sich noch an der 90er messen und das wo Nvidia die 80er Serie auch noch drastisch beschnitten hat und ein klaffendes Loch zur 4090 besteht. Klar preislich ist AMD etwas günstiger(1100 Euro vs 1250 Euro aktuelle Tiefstpreise) bei ca. gleicher Renderperformance zur 4080er aber in Sachen Effizienz(die 4080 braucht ca. 100W weniger Strom bei gleichen Frames) und vor allem Raytracing hinkt man noch immer wie schon vor 3 Jahren eine Generation hinter Nvidia hinterher(die 7900XTX ist bis zu 40% langsamer als die 4080).
immer schon zu sehen wenn nvidia gesposorte games als vergleich genommen werden um amd hardware zu messen
könnte man glat ein amd angepasten titel nehmen wie COD m zu zeigen wie die ada performance ist....
und mal so mal neben bei das rdna 3 mit 6/5nm läuft und ADA mit angepasten 4nm verfahren erklärt warum nvidias derzeitigen karten so energie sparsam sind die 30xx auf 8nm war es ja nicht

was den denn geringeren unterschied zu rdna 2 performance angeht könnte es daran liegen
To achieve full VOPD use, hand-optimized shaders can be used to bypass compiler. That’s pretty time consuming though. Focus will likely be on wave64 doing 64-workitems in a single cycle (2x improvement over RDNA2, which needs 2 cycles). The main consensus is that compilers simply aren’t smart enough to see dual-issue opportunities and there are some pretty hard restrictions on VOPD listed in RDNA3 ISA guide.
alles eine frage der optimierung seiten entwickel bzw amd


was rt angeht
AMD takes a more conventional approach that wouldn’t be out of place on a CPU, and uses a rigid BVH format that allows for simpler hardware. AMD’s RT accelerators don’t have to deal with variable length nodes. However, AMD BVH makes it more vulnerable to cache and memory latency, one of a GPU’s traditional weaknesses. RDNA 3 counters this by hitting the problem from all sides. Cache latency has gone down, while capacity has gone up. Raytracing specific LDS instructions help reduce latency within the shader that’s handling ray traversal. Finally, increased vector register file capacity lets each WGP hold state for more threads, letting it keep more rays in flight to hide latency. A lot of these optimizations will help a wide range of workloads beyond raytracing. It’s hard to see what wouldn’t benefit from higher occupancy and better caching.

Nvidia takes a radically different approach that plays to a GPU’s advantages. By using a very wide tree, Nvidia shifts emphasis away from cache and memory latency, and toward compute throughput. With Ada, that’s where I suspect Nvidia’s approach really starts to shine. Ampere already had a staggering SM count, with RT cores that have double the triangle test throughput compared to Turing. Ada pushes things further, with an even higher SM count and triangle test throughput doubled again. There’s a lot less divide and conquer in Nvidia’s approach, but there’s a lot more parallelism available. And Nvidia is bringing tons of dedicated hardware to plow through those intersection tests.
 
4N Prozess von TSMC gehört laut ihnen selber zur 5nm Familie, NV hat den 5nm Prozess mit TSMC angepasst (noch mal verbessert)
Und das AMD in sachen RT unterlegen ist, liegt nicht an NV gesponserten Spielen :nix:
Lass ihn doch seinen Glauben. In SEINER Welt ist es halt so, wie er es gerne hätte. Die Realität sieht ein wenig anders aus. AMD stinkt gegen Nvidia mächtig ab. Das wird auch mit der kommenden Gen so sein.
Ich verstehe eh nicht, wieso er ständig sein geliebtes AMD hier verteidigen muss. Soll er sich doch seinen Rechner damit zukleistern und gut ist. Wenn man damit zufrieden ist, ist doch alles gut. Wer das beste möchte, kauft halt nicht AMD ;)
 
immer schon zu sehen wenn nvidia gesposorte games als vergleich genommen werden um amd hardware zu messen
könnte man glat ein amd angepasten titel nehmen wie COD m zu zeigen wie die ada performance ist....
Faule und immer gleiche Ausrede, dann zeig mal ein Game mit ähnlichem Raytracing wo AMD gleichauf oder gar besser abschneidet :ugly:

Wenn du bei CP2077 nur RT Schatten aktivierst ist die 7900XT ca. gleich auf mit der 4080 übrigens, kann es etwa sein, dass sie einfach zusammenbricht je mehr RT von ihr gefordert wird? Nein kann nicht sein, das muss eine Nvidia Verschwörung sein :uglylol:

Aber dann ein Fass aufmachen wenn AMD bei Schrott RT wie in Tomb Raider oder Deathloop (nur schatten und RT AO bei letzterem) oder CPU limitiertem RT das nur Spiegelungen darstellt wie bei Spider-Man knapp an Nvidia dran ist. :ugly:

Vor allem das CDPR vorzuwerfen, die haben auch die neuesten Versionen von FSR eingebaut, es ist wohl eindeutig, dass sie darauf achten, so viele Features der Hersteller zu implementieren wie möglich, es hält auch sicher keiner AMD davon ab die eigenen Programmierer zu ihnen zu senden, wie das Nvidia auch tut, um bei der Optimierung zu helfen, die sind dort sicher willkommen.

Und noch was: Kann es sein, dass CDPR deshalb anfangs nur RT auf den Nvidia Karten unterstützt hat, weil AMD Karten schlicht gar keines konnte und nicht weil es ein gesponserter Titel ist? CP2077 ist im Dezember 2020 erschienen, die RX6000er Serie aber erst im November, deine Verschwörungstheorie wird immer absurder. Finde es wirklich unfair CDPR gegenüber ihnen vorzuwerfen AMD Karten absichtlich schlechter zu machen als sie sind, wo sie jede Technologie unterstützen, viel Zeit und Geld in die Optimierung stecken und auch FSR zeitnah updaten, sobald es neue Versionen gibt. Viele andere AMD oder gar nicht gesponserte Entwickler verzichten drauf, ihre 2-3 Jahre alten Spiele ubzudaten.

Jedenfalls braucht AMD mit der 8000er Serie einen großen Entwicklungssprung in Sachen RT, sonst werden sie weiterhin 1 wenn nicht sogar 2 Generationen hinterherhinken, Nvidia wirkt jedenfalls nicht als würden sie auf AMD warten wollen.
Ich verstehe eh nicht, wieso er ständig sein geliebtes AMD hier verteidigen muss. Soll er sich doch seinen Rechner damit zukleistern und gut ist. Wenn man damit zufrieden ist, ist doch alles gut. Wer das beste möchte, kauft halt nicht AMD ;)
Die 7900XTX ist eine gute Karte, aber viel zu teuer, für 899 Euro könnte man sie in Betracht ziehen aber die wollen ernsthaft 1099 mit Raytracing Leistung einer 3 Jahre alten 3080. Okay genaugenommen schlechterer Leistung(dem Performance-Einbruch nach), nur sackt sie mit aktiviertem RT in vielen Spielen auf dessen Niveau ab, obwohl sie eine höhere Leistungsklasse ist. Würde ich die Karte kaufen, würde ich nur ungern RT in irgendeinem Spiel aktivieren, weil da immer im Hinterkopf der Gedanke mitschwirren würde, dass ich jetzt wieder meine alte 3080 hätte und die 1099 Euro weggeworfenes Geld waren.

Die 4080 ist aber mit aktuell 1250 Euro auch zu teuer, nur warum sollte Nvidia runtergehen im Preis, wenn AMD nur 150 Euro weniger verlangt mit deutlich schlechterer RT Performance und dem schlechteren Upscaler mit FSR? -Abgesehen davon gibts noch immer games die nur das eine oder andere unterstützen und mit einer 4080 kann man beides nutzen mit der 7900XTX nur eines von beidem.
 
Zuletzt bearbeitet:
im neuen DF direct spricht DF ab Minute 42 über RT auf RDNA2 und erklärt wo RDNA2 einfach versagt und auch das Spider Man beispiel wird nochmal aufgegriffen, wo RT ja beschnitten werden musste von den Materialien (nur auf spiegelden Flächen wie Dictator damals sagte da für RT am einfachsten), damit es überhaupt auf RDNA2 HW mit RT läuft. Klar für NV user halt schlecht, da SM so noch besseres RT hätte haben können, aber geht ja nicht wenn Sony RDNA2 nutzt ;)


CP2077 nutzt Standartmässig ja 2 Bounces im Overdrive mode und das bricht RDNA2 das Genick, mehr wie 1 Bounce ist da nicht wirklich drin. Eine 4090 schafft sogar 4 bounces und 4 Rays im Performance DLSS Modus mit spielbaren fps und mit FG sowieso.
 
d auch das Spider Man beispiel wird nochmal aufgegriffen, wo RT ja beschnitten werden musste von den Materialien (nur auf spiegelden Flächen wie Dictator damals sagte da für RT am einfachsten)
Macht Sinn, vermute Ratchet and Clank wird, wenns dann mal am PC erscheint, eine Ähnliche Technik nutzen, musste ja auch RT auf AMD Hardware ermöglichen, also wieder extrem CPU intensiv wenn man die Settings hochschraubt für relativ wenig RT - dafür wird die GPU nicht so beansprucht.

Wie siehts eigentlich mit Returnal aus? (Edit: Grade nachgeschaut)


Scheint als würde hier auch AMD ganz ok abschneiden aber ist halt wieder limitiertes RT wo die 4080 als Vergleichskarte ihre Muskeln nicht spielen lassen kann.
 
Zurück
Top Bottom