• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

AMD Ryzen Z1 für mehr Handheld-Optionen :goodwork:


ryzen_z1_announce.jpg
 
Hat von euch schon wer Returnals neues DLSS 3 ausprobiert?

Das Spiel unterstützte von Anfang an DLSS 2 und Raytracing. Am 25. April erhält Returnal ein Update, das DLSS 3 hinzufügt und die Leistung vervielfacht. Auf der GeForce RTX 4090 steigen die Bildraten um den Faktor 2,2, was den Spielern über 180 FPS im Benchmark beschert.

Sony scheint wirklich committed zu sein, was PC Gaming angeht :goodwork:
AMD Ryzen Z1 für mehr Handheld-Optionen :goodwork:


ryzen_z1_announce.jpg
Puh... 8,6Tflop sind ne Ansage aber wie sieht der Stromverbrauch aus(akku leer in ner halben Stunde? Hallo GameGear?) und wie will man das kühlen? :D
 
Für den Handheld-Modus müsste man den AMD Ryzen Z1 Extreme natürlich massiv drosseln.
Selbst mit mit "nur" 25% wäre man fünf Mal schneller als die Switch.
Im TV-Modus wäre dann auch ein Zelda mit fixen 60 fps @ 1440p drin. :goodwork:

Aber selbst der "normale" AMD Ryzen Z1 wäre ein gewaltiger Schritt im Vergleich zur Switch.
 
Dann sollten sie erstmal gescheite Maussterung in Uncharted und Last of Us bringen :ugly:
Es scheint als wären die meisten Performance Probleme von TLOU PC darauf zurückzuführen, dass das game ein VRAM Monster ist und man quasi 10GB zwingend braucht. Alle User mit 8GB Grafikkarten schaun durch die (Ruckel)röhre:

Steve hat hier gerade ein nettes Video gebracht:

Auch sehenswert das ursprüngliche Video von ihm:

Bin gespannt wie lange die 10GB meiner 3080 reichen werden, will ja eigentlich bis zur 50er Serie durchhalten :angst:

Die 1080Ti und 2080Ti Besitzer lachen natürlich über diese Sorgen :vv:

Für den Handheld-Modus müsste man den Ryzen Z1 Extreme natürlich massiv drosseln.
Selbst mit mit "nur" 25% wäre man fünf Mal schneller als die Switch.
Im TV-Modus wäre dann auch ein Zelda mit fixen 60 fps @ 1440p drin. :goodwork:
Nintendo wird nicht auf AMD setzen, die bauen in die Switch 2 einen super effizienten ARM ein mit leistungsstarker Nvidia GPU. Würde mich nicht wundern, wenn die Switch 2 deutlich mehr Performance als das Steam Deck liefern wird. (zumindest von der GPU Seite her)

 
Faule und immer gleiche Ausrede, dann zeig mal ein Game mit ähnlichem Raytracing wo AMD gleichauf oder gar besser abschneidet :ugly:

Wenn du bei CP2077 nur RT Schatten aktivierst ist die 7900XT ca. gleich auf mit der 4080 übrigens, kann es etwa sein, dass sie einfach zusammenbricht je mehr RT von ihr gefordert wird? Nein kann nicht sein, das muss eine Nvidia Verschwörung sein :uglylol:

Aber dann ein Fass aufmachen wenn AMD bei Schrott RT wie in Tomb Raider oder Deathloop (nur schatten und RT AO bei letzterem) oder CPU limitiertem RT das nur Spiegelungen darstellt wie bei Spider-Man knapp an Nvidia dran ist. :ugly:

Vor allem das CDPR vorzuwerfen, die haben auch die neuesten Versionen von FSR eingebaut, es ist wohl eindeutig, dass sie darauf achten, so viele Features der Hersteller zu implementieren wie möglich, es hält auch sicher keiner AMD davon ab die eigenen Programmierer zu ihnen zu senden, wie das Nvidia auch tut, um bei der Optimierung zu helfen, die sind dort sicher willkommen.

Und noch was: Kann es sein, dass CDPR deshalb anfangs nur RT auf den Nvidia Karten unterstützt hat, weil AMD Karten schlicht gar keines konnte und nicht weil es ein gesponserter Titel ist? CP2077 ist im Dezember 2020 erschienen, die RX6000er Serie aber erst im November, deine Verschwörungstheorie wird immer absurder. Finde es wirklich unfair CDPR gegenüber ihnen vorzuwerfen AMD Karten absichtlich schlechter zu machen als sie sind, wo sie jede Technologie unterstützen, viel Zeit und Geld in die Optimierung stecken und auch FSR zeitnah updaten, sobald es neue Versionen gibt. Viele andere AMD oder gar nicht gesponserte Entwickler verzichten drauf, ihre 2-3 Jahre alten Spiele ubzudaten.

Jedenfalls braucht AMD mit der 8000er Serie einen großen Entwicklungssprung in Sachen RT, sonst werden sie weiterhin 1 wenn nicht sogar 2 Generationen hinterherhinken, Nvidia wirkt jedenfalls nicht als würden sie auf AMD warten wollen.

Die 7900XTX ist eine gute Karte, aber viel zu teuer, für 899 Euro könnte man sie in Betracht ziehen aber die wollen ernsthaft 1099 mit Raytracing Leistung einer 3 Jahre alten 3080. Okay genaugenommen schlechterer Leistung(dem Performance-Einbruch nach), nur sackt sie mit aktiviertem RT in vielen Spielen auf dessen Niveau ab, obwohl sie eine höhere Leistungsklasse ist. Würde ich die Karte kaufen, würde ich nur ungern RT in irgendeinem Spiel aktivieren, weil da immer im Hinterkopf der Gedanke mitschwirren würde, dass ich jetzt wieder meine alte 3080 hätte und die 1099 Euro weggeworfenes Geld waren.

Die 4080 ist aber mit aktuell 1250 Euro auch zu teuer, nur warum sollte Nvidia runtergehen im Preis, wenn AMD nur 150 Euro weniger verlangt mit deutlich schlechterer RT Performance und dem schlechteren Upscaler mit FSR? -Abgesehen davon gibts noch immer games die nur das eine oder andere unterstützen und mit einer 4080 kann man beides nutzen mit der 7900XTX nur eines von beidem.
aha
scheinbr die cdpr wiedermal die heilegekuh die keiner anfassen darf
das game cp der heileige gral der im halbfertigen schrott zustannd rausgebracht wurde
du willst wissen warum cdpr immer noch am game schrauben weil sie es müssen um die ip zu retten, das game ist in solch eine zustand rausgebraucht worden das es tonnenweiße klagen gab ( was war den mit der xbo und ps4 versionschon vergessen)

dann noch die witcher 3 sage seinerzeit mit hairworks und 64x tessellation gleiche geschichte wie seiner zeit crysis 2 mit tessellation um amd karten auszubremsen in 64x modus am laufen hast in treiber aber tessellation auf 32x gestellt hat es keine visuellen unterschied bei weit bessere leistung gegeben
das bei es bei dcpr derzeit auch schlechter läuft kann man auch gut an witcher3 remasterd version sehen wo das game selbst ohne rt einstellungen extrem scheisse läut im vergleich zu original version
und wow neueste version von FSR ins game eingebaut welche leistung das es nur paar stunden dauert ist ja egal support ist da toll

außerdem hat es hat nichts mit verschwörungs theorien zu tun wenn zitat
We only see convincing dual issue behavior with FP32 adds, where the compiler emitted v_dual_add_f32 instructions. The mixed INT32 and FP32 addition test saw some benefit because the FP32 adds were dual issued, but could not generate VOPD instructions for INT32 due to a lack of VOPD instructions for INT32 operations. Fused multiply add, which is used to calculate a GPU’s headline TFLOPs number, saw very few dual issue instructions emitted. Both architectures can execute 16-bit operations at double rate, though that’s unrelated to RDNA 3’s new dual issue capability. Rather, 16-bit instructions benefit from a single operation issued in packed-math mode.
klar alles verschwörungs theorien aber returnal, spider, man tomb raider, ratchet and clank usw... alles keine verschwörungen und so weil ......:uglygw:
warzone2 zeigt ganz gut wie ein game auf rdna3 läufen kann denn man das game an die architektur mal etwas anpast


im neuen DF direct spricht DF ab Minute 42 über RT auf RDNA2 und erklärt wo RDNA2 einfach versagt und auch das Spider Man beispiel wird nochmal aufgegriffen, wo RT ja beschnitten werden musste von den Materialien (nur auf spiegelden Flächen wie Dictator damals sagte da für RT am einfachsten), damit es überhaupt auf RDNA2 HW mit RT läuft. Klar für NV user halt schlecht, da SM so noch besseres RT hätte haben können, aber geht ja nicht wenn Sony RDNA2 nutzt ;)


CP2077 nutzt Standartmässig ja 2 Bounces im Overdrive mode und das bricht RDNA2 das Genick, mehr wie 1 Bounce ist da nicht wirklich drin. Eine 4090 schafft sogar 4 bounces und 4 Rays im Performance DLSS Modus mit spielbaren fps und mit FG sowieso.

hab da wohl ab 42min irgend wie verpast warum es nicht so läuft außer fsp leistung mit rt gleich wie xyz ???
man sagt nicht ob es an den register größe der oder L1/L2 cache liegt, es wird im grund nix gesagt außer rdna2 langsam in rt
sry hab euch eine link geschickt mit genaue diese beantwort warum Indirect Raytracing bei amd schlechter läuft, wo genau der grund liegt
sogar anhand einer rdna2 gpu aber hey besser auf pixel zähler auf youtube hören

aber hier wird ja immer getan als ob nvidias rt leistung 100x mal besser ware realität ist eher das
46545321424hfcmy.png

aber scheinbarar muss die rt leistung bei AMD genau so scheisse sein wie bei nvidias letzter generation total unspielbar, totaler mist grad mal auf 3090 nivau was müssen das erst die 4070ti oder 4070 master race dazu sagen

zu nintendo:
welche aktuelle apu hat den nvidai für eine handheld zu hand
 
aber hier wird ja immer getan als ob nvidias rt leistung 100x mal besser ware realität ist eher das
Ja was denn nun, CDPR hat also doch gut auf die AMD Hardware optimiert? 44% sind sind 1-2 Leistungsklassen, da wird im RT aus der 1099 Euro 7900XTX eine 649 Euro 4070.
klar alles verschwörungs theorien aber returnal, spider, man tomb raider, ratchet and clank usw... alles keine verschwörungen und so weil
Tomb Raider hat mit only Schatten das wohl langweiligste RT überhaupt. Die anderen genannten Spiele sind halt auf die schwache Konsolenhardware optimiert,und müssen im RT überall Abstriche machen, genauso wie Cyberpunk auf Konsole einfach nicht mehr als Schatten mit RT schaffte, hier gibts auch keinen Grund die Engine schlechter zu machen, weil die Leute die Konsolen eh nicht mit AMD in Verbindung bringen, trotzdem gibts nicht einmal RT Spiegelungen. R&C gibts noch nicht am PC aber hier wird auch wieder RT nur für Spiegelungen eingesetzt, ähnlich wie bei Spider-Man auch.

Wenn Nintendo nicht Nvidia nimmt und auf DLSS setzt, dann wären sie verrückt. Gerade was mit FG gehen würde :nix:
Frame Generation ist einfach die zukunft und auch die kommenden konsolen werden es alle nutzen.
DLSS 3 wäre toll ja, aber ob das in so einem Mini Chip auch klappt? Jedenfalls wäre das endlich das ende der 30FPS in allen games. Wobei ich vermute, dass Nintendo lieber 60FPS bei fast allen spielen ohne DLSS 3 anviseren wird, der Inputlag von 30FPS ist schon störend aber gut ein neues Zelda ginge mit 60FPS interpoliert wohl klar, dann sind auch mehr Ressourcen frei für bessere Grafik :ol:
 
Zuletzt bearbeitet:
aber hier wird ja immer getan als ob nvidias rt leistung 100x mal besser ware realität ist eher das
Fast gleiche Leistung bei ähnlicher Leistungsaufnahme und deutlich besserem Fertigungsprozess als die 3090,zwei Jahre später. Das ist halt eher ein Argument gegen AMD.
Klar, ohne RT sieht es viel besser aus, aber das kann ja nicht der Anspruch auf PC sein.
 
Ja was denn nun, CDPR hat also doch gut auf die AMD Hardware optimiert? 44% sind sind 1-2 Leistungsklassen, da wird im RT aus der 1099 Euro 7900XTX eine 649 Euro 4070.

Tomb Raider hat mit only Schatten das wohl langweiligste RT überhaupt. Die anderen genannten Spiele sind halt auf die schwache Konsolenhardware optimiert,und müssen im RT überall Abstriche machen, genauso wie Cyberpunk auf Konsole einfach nicht mehr als Schatten mit RT schaffte, hier gibts auch keinen Grund die Engine schlechter zu machen, weil die Leute die Konsolen eh nicht mit AMD in Verbindung bringen, trotzdem gibts nicht einmal RT Spiegelungen. R&C gibts noch nicht am PC aber hier wird auch wieder RT nur für Spiegelungen eingesetzt, ähnlich wie bei Spider-Man auch.


DLSS 3 wäre toll ja, aber ob das in so einem Mini Chip auch klappt? Jedenfalls wäre das endlich das ende der 30FPS in allen games. Wobei ich vermute, dass Nintendo lieber 60FPS bei fast allen spielen ohne DLSS 3 anviseren wird, der Inputlag von 30FPS ist schon störend aber gut ein neues Zelda ginge mit 60FPS interpoliert wohl klar, dann sind auch mehr Ressourcen frei für bessere Grafik :ol:
also ne 7900xtx bekommst heute schon für 999€ und ne 4070 kommt nicht an die leistung ran nicht mal im ansatz ran, selbst einen 4070ti kann sich da bei einigen titeln schwer tun auch im rt
oder hier rt cp
wenn was verglewichen willst mch liegen 7900xt vs 4070 die schneiden in etwa gleich ab

welche abstricher im rt höhre immer nur abstriche im rt in welchen bereich? kannst genauer sein als nur schatten? nur spiegelung? weche flächen? weitsicht? mini map? usw.. alles spielt da eine rolle
Both Hogwarts Legacy and Cyberpunk 2077 feature similar TLAS sizes, but Hogwarts has a much smaller memory footprint when you consider the BLAS-es.
Just as with Cyberpunk 2077, the TLAS covers a massive amount of area. In Hogwarts Legacy, it appears to include Hogwarts Castle as well as the surrounding grounds, and some far-off mountains.

Cyberpunk 2077 uses inline raytracing, via DispatchRays<Unified> calls. Hogwarts Legacy, much like Unreal Engine 5’s city demo, uses indirect raytracing via ExecuteIndirect<Rays><Indirect> calls.
cp2077_vs_hogwarts_bvh.png



ne gute 4080 bekommst jetzt schon für 1199€ hatten letzte tage auch die 4090 für glaub 1599€ ist aber schon weg
billigere modele sollten schon für weniger zu finden sein
 
Der Timestamp den du verlinkt hast hast ist natürlich ein Täuschungsmanöver, er sagt "in raytracing low" ist die 6950XT schneller, toll, Raytracing Low interessiert aber keinen(das sind wieder nur die Schatten, wie auf Konsole auch), dann kann mans auch gleich aus lassen. Etwas später kommt Raytracing Ultra(Spiegelungen+Lighting+Schatten+AO) und da kackt die ehemals Highend Karte 6950XT mit ihren 305W gegen die komplett abgespeckte RTX4700 mit 190W Verbrauch mit 35% weniger FPS ab.

-Und wie ich bereits sagte, die 7900XTX zieht dann ca. gleich mit der RTX4070, passt auch gut, da sie mit RT ca. 30-40% schneller als die 6950XT ist, je nach game :ol:
also ne 7900xtx bekommst heute schon für 999€
Grade bei geizhals gesehen, das hat 1 Händler, mindfactory und davon noch 5 Stück, alle anderen Karten sind aber weiterhin 1099 Euro. Dann greif mal schnell zu :ol:

Der Preisunterschied bleibt aber ähnlich, denn mindfactory wirft auch eine 4080 für 1189 Euro raus :kruemel:

Sollen schön weiter runter gehen, wenn sie 999 kostet oder eine 4080Ti für 1199 erscheint schlage ich eventuell zu.

Die 4090 ist aktuell auch auf 1648 runter(Palit), na mal sehen was da noch geht für 1299 würde ich da wohl auch zuschlagen, auch aufs risiko hin, dass die 50er Serie absurd wird.
 
Zuletzt bearbeitet:
Da gibt es gar nix zu Diskutieren das AMD in Sachen RT einiges zurück liegt :uglylol: Und da kann man zu DF noch so oft wie man will sagen die Pixel Zähler haben keine Ahnung :banderas:
AMD wirbt ja sogar mit medium RT auf ihrer besten Karte in CP2077 :coolface: Da haben sich dieLeute im Reddit und ERA vorTagen ja gefragt ob das nicht eher negatives Marketing ist, weil NV schon letzte Gen mit Psycho RT geworben hat ;)
 
Zuletzt bearbeitet:
Da gibt es gar nix zu Diskutieren das AMD in Sachen RT einiges zurück liegt :uglylol: Und da kann man zu DF noch so oft wie man will sagen die Pixel Zähler haben keine Ahnung :banderas:
Ich weiß auch nicht was es zu diskutieren gibt, auch wenn Nvidia hier schuld daran sein sollte, macht das die Sache ja nicht besser, dann sind die halt die Schuldigen :ugly:

Bringt halt nichts wenn Nvidia die meisten Games sponsert und die dann deutlich besser auf ähnlich starker Nvidia Hardware laufen :ol:

Eigentlich braucht man sich eh nur die Frage stellen ob einem Raytracing was wert ist und wenn die Antwort ja ist, sollte man sich ne aktuelle Nvidia Karte schnappen. Denn es wird auch in Zukunft games geben die mit RT deutlich besser auf diesen laufen werden...
 
NV hat halt überall einen Vorsprung, sie haben fast 10 Jahre intern dran gearbeitet bis die erste RTX Karte kam und bei FG 6 Jahre damit es so läuft wie es jetzt ist und das schon im ersten Jahr und in einigen spielen sogar bessere latenz hat als natives 4K wie CB letztens mal gezeigt hat.
 
Alter, das neue Jedi soll am PC noch schlechter optimiert sein als TLOU xD was da los mit den Studios xD
Falls es dich tröstet: PS5 Port ist anscheinend auch nicht viel besser. :ugly:

Aber die haben nichtmal eine Maussterung in den Menüs, muss nachgepatcht werden. Das Spiel wurde viel zu früh veröffentlicht und ansonsten scheint es viele Probleme in Sachen CPU zu geben, die die GPUs dann bremsen. Spiel hat Angeblich CPU Limit
 
Zurück
Top Bottom