Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
Puh... 8,6Tflop sind ne Ansage aber wie sieht der Stromverbrauch aus(akku leer in ner halben Stunde? Hallo GameGear?) und wie will man das kühlen?AMD Ryzen Z1 für mehr Handheld-Optionen
AMD announces Ryzen Z1 and Z1 Extreme chips for handheld gaming PCs
Ryzen Z for handheld PC.www.theverge.com
Dann sollten sie erstmal gescheite Maussterung in Uncharted und Last of Us bringenSony scheint wirklich committed zu sein, was PC Gaming angeht
Es scheint als wären die meisten Performance Probleme von TLOU PC darauf zurückzuführen, dass das game ein VRAM Monster ist und man quasi 10GB zwingend braucht. Alle User mit 8GB Grafikkarten schaun durch die (Ruckel)röhre:Dann sollten sie erstmal gescheite Maussterung in Uncharted und Last of Us bringen
Nintendo wird nicht auf AMD setzen, die bauen in die Switch 2 einen super effizienten ARM ein mit leistungsstarker Nvidia GPU. Würde mich nicht wundern, wenn die Switch 2 deutlich mehr Performance als das Steam Deck liefern wird. (zumindest von der GPU Seite her)Für den Handheld-Modus müsste man den Ryzen Z1 Extreme natürlich massiv drosseln.
Selbst mit mit "nur" 25% wäre man fünf Mal schneller als die Switch.
Im TV-Modus wäre dann auch ein Zelda mit fixen 60 fps @ 1440p drin.
ahaFaule und immer gleiche Ausrede, dann zeig mal ein Game mit ähnlichem Raytracing wo AMD gleichauf oder gar besser abschneidet
Wenn du bei CP2077 nur RT Schatten aktivierst ist die 7900XT ca. gleich auf mit der 4080 übrigens, kann es etwa sein, dass sie einfach zusammenbricht je mehr RT von ihr gefordert wird? Nein kann nicht sein, das muss eine Nvidia Verschwörung sein
Aber dann ein Fass aufmachen wenn AMD bei Schrott RT wie in Tomb Raider oder Deathloop (nur schatten und RT AO bei letzterem) oder CPU limitiertem RT das nur Spiegelungen darstellt wie bei Spider-Man knapp an Nvidia dran ist.
Vor allem das CDPR vorzuwerfen, die haben auch die neuesten Versionen von FSR eingebaut, es ist wohl eindeutig, dass sie darauf achten, so viele Features der Hersteller zu implementieren wie möglich, es hält auch sicher keiner AMD davon ab die eigenen Programmierer zu ihnen zu senden, wie das Nvidia auch tut, um bei der Optimierung zu helfen, die sind dort sicher willkommen.
Und noch was: Kann es sein, dass CDPR deshalb anfangs nur RT auf den Nvidia Karten unterstützt hat, weil AMD Karten schlicht gar keines konnte und nicht weil es ein gesponserter Titel ist? CP2077 ist im Dezember 2020 erschienen, die RX6000er Serie aber erst im November, deine Verschwörungstheorie wird immer absurder. Finde es wirklich unfair CDPR gegenüber ihnen vorzuwerfen AMD Karten absichtlich schlechter zu machen als sie sind, wo sie jede Technologie unterstützen, viel Zeit und Geld in die Optimierung stecken und auch FSR zeitnah updaten, sobald es neue Versionen gibt. Viele andere AMD oder gar nicht gesponserte Entwickler verzichten drauf, ihre 2-3 Jahre alten Spiele ubzudaten.
Jedenfalls braucht AMD mit der 8000er Serie einen großen Entwicklungssprung in Sachen RT, sonst werden sie weiterhin 1 wenn nicht sogar 2 Generationen hinterherhinken, Nvidia wirkt jedenfalls nicht als würden sie auf AMD warten wollen.
Die 7900XTX ist eine gute Karte, aber viel zu teuer, für 899 Euro könnte man sie in Betracht ziehen aber die wollen ernsthaft 1099 mit Raytracing Leistung einer 3 Jahre alten 3080. Okay genaugenommen schlechterer Leistung(dem Performance-Einbruch nach), nur sackt sie mit aktiviertem RT in vielen Spielen auf dessen Niveau ab, obwohl sie eine höhere Leistungsklasse ist. Würde ich die Karte kaufen, würde ich nur ungern RT in irgendeinem Spiel aktivieren, weil da immer im Hinterkopf der Gedanke mitschwirren würde, dass ich jetzt wieder meine alte 3080 hätte und die 1099 Euro weggeworfenes Geld waren.
Die 4080 ist aber mit aktuell 1250 Euro auch zu teuer, nur warum sollte Nvidia runtergehen im Preis, wenn AMD nur 150 Euro weniger verlangt mit deutlich schlechterer RT Performance und dem schlechteren Upscaler mit FSR? -Abgesehen davon gibts noch immer games die nur das eine oder andere unterstützen und mit einer 4080 kann man beides nutzen mit der 7900XTX nur eines von beidem.
klar alles verschwörungs theorien aber returnal, spider, man tomb raider, ratchet and clank usw... alles keine verschwörungen und so weil ......We only see convincing dual issue behavior with FP32 adds, where the compiler emitted v_dual_add_f32 instructions. The mixed INT32 and FP32 addition test saw some benefit because the FP32 adds were dual issued, but could not generate VOPD instructions for INT32 due to a lack of VOPD instructions for INT32 operations. Fused multiply add, which is used to calculate a GPU’s headline TFLOPs number, saw very few dual issue instructions emitted. Both architectures can execute 16-bit operations at double rate, though that’s unrelated to RDNA 3’s new dual issue capability. Rather, 16-bit instructions benefit from a single operation issued in packed-math mode.
im neuen DF direct spricht DF ab Minute 42 über RT auf RDNA2 und erklärt wo RDNA2 einfach versagt und auch das Spider Man beispiel wird nochmal aufgegriffen, wo RT ja beschnitten werden musste von den Materialien (nur auf spiegelden Flächen wie Dictator damals sagte da für RT am einfachsten), damit es überhaupt auf RDNA2 HW mit RT läuft. Klar für NV user halt schlecht, da SM so noch besseres RT hätte haben können, aber geht ja nicht wenn Sony RDNA2 nutzt
CP2077 nutzt Standartmässig ja 2 Bounces im Overdrive mode und das bricht RDNA2 das Genick, mehr wie 1 Bounce ist da nicht wirklich drin. Eine 4090 schafft sogar 4 bounces und 4 Rays im Performance DLSS Modus mit spielbaren fps und mit FG sowieso.
Ja was denn nun, CDPR hat also doch gut auf die AMD Hardware optimiert? 44% sind sind 1-2 Leistungsklassen, da wird im RT aus der 1099 Euro 7900XTX eine 649 Euro 4070.aber hier wird ja immer getan als ob nvidias rt leistung 100x mal besser ware realität ist eher das
Tomb Raider hat mit only Schatten das wohl langweiligste RT überhaupt. Die anderen genannten Spiele sind halt auf die schwache Konsolenhardware optimiert,und müssen im RT überall Abstriche machen, genauso wie Cyberpunk auf Konsole einfach nicht mehr als Schatten mit RT schaffte, hier gibts auch keinen Grund die Engine schlechter zu machen, weil die Leute die Konsolen eh nicht mit AMD in Verbindung bringen, trotzdem gibts nicht einmal RT Spiegelungen. R&C gibts noch nicht am PC aber hier wird auch wieder RT nur für Spiegelungen eingesetzt, ähnlich wie bei Spider-Man auch.klar alles verschwörungs theorien aber returnal, spider, man tomb raider, ratchet and clank usw... alles keine verschwörungen und so weil
DLSS 3 wäre toll ja, aber ob das in so einem Mini Chip auch klappt? Jedenfalls wäre das endlich das ende der 30FPS in allen games. Wobei ich vermute, dass Nintendo lieber 60FPS bei fast allen spielen ohne DLSS 3 anviseren wird, der Inputlag von 30FPS ist schon störend aber gut ein neues Zelda ginge mit 60FPS interpoliert wohl klar, dann sind auch mehr Ressourcen frei für bessere GrafikWenn Nintendo nicht Nvidia nimmt und auf DLSS setzt, dann wären sie verrückt. Gerade was mit FG gehen würde
Frame Generation ist einfach die zukunft und auch die kommenden konsolen werden es alle nutzen.
Fast gleiche Leistung bei ähnlicher Leistungsaufnahme und deutlich besserem Fertigungsprozess als die 3090,zwei Jahre später. Das ist halt eher ein Argument gegen AMD.aber hier wird ja immer getan als ob nvidias rt leistung 100x mal besser ware realität ist eher das
also ne 7900xtx bekommst heute schon für 999€ und ne 4070 kommt nicht an die leistung ran nicht mal im ansatz ran, selbst einen 4070ti kann sich da bei einigen titeln schwer tun auch im rtJa was denn nun, CDPR hat also doch gut auf die AMD Hardware optimiert? 44% sind sind 1-2 Leistungsklassen, da wird im RT aus der 1099 Euro 7900XTX eine 649 Euro 4070.
Tomb Raider hat mit only Schatten das wohl langweiligste RT überhaupt. Die anderen genannten Spiele sind halt auf die schwache Konsolenhardware optimiert,und müssen im RT überall Abstriche machen, genauso wie Cyberpunk auf Konsole einfach nicht mehr als Schatten mit RT schaffte, hier gibts auch keinen Grund die Engine schlechter zu machen, weil die Leute die Konsolen eh nicht mit AMD in Verbindung bringen, trotzdem gibts nicht einmal RT Spiegelungen. R&C gibts noch nicht am PC aber hier wird auch wieder RT nur für Spiegelungen eingesetzt, ähnlich wie bei Spider-Man auch.
DLSS 3 wäre toll ja, aber ob das in so einem Mini Chip auch klappt? Jedenfalls wäre das endlich das ende der 30FPS in allen games. Wobei ich vermute, dass Nintendo lieber 60FPS bei fast allen spielen ohne DLSS 3 anviseren wird, der Inputlag von 30FPS ist schon störend aber gut ein neues Zelda ginge mit 60FPS interpoliert wohl klar, dann sind auch mehr Ressourcen frei für bessere Grafik
Both Hogwarts Legacy and Cyberpunk 2077 feature similar TLAS sizes, but Hogwarts has a much smaller memory footprint when you consider the BLAS-es.
Just as with Cyberpunk 2077, the TLAS covers a massive amount of area. In Hogwarts Legacy, it appears to include Hogwarts Castle as well as the surrounding grounds, and some far-off mountains.
Cyberpunk 2077 uses inline raytracing, via DispatchRays<Unified> calls. Hogwarts Legacy, much like Unreal Engine 5’s city demo, uses indirect raytracing via ExecuteIndirect<Rays><Indirect> calls.
Der Timestamp den du verlinkt hast hast ist natürlich ein Täuschungsmanöver, er sagt "in raytracing low" ist die 6950XT schneller, toll, Raytracing Low interessiert aber keinen(das sind wieder nur die Schatten, wie auf Konsole auch), dann kann mans auch gleich aus lassen. Etwas später kommt Raytracing Ultra(Spiegelungen+Lighting+Schatten+AO) und da kackt die ehemals Highend Karte 6950XT mit ihren 305W gegen die komplett abgespeckte RTX4700 mit 190W Verbrauch mit 35% weniger FPS ab.oder hier rt cp
Grade bei geizhals gesehen, das hat 1 Händler, mindfactory und davon noch 5 Stück, alle anderen Karten sind aber weiterhin 1099 Euro. Dann greif mal schnell zualso ne 7900xtx bekommst heute schon für 999€
Ich weiß auch nicht was es zu diskutieren gibt, auch wenn Nvidia hier schuld daran sein sollte, macht das die Sache ja nicht besser, dann sind die halt die SchuldigenDa gibt es gar nix zu Diskutieren das AMD in Sachen RT einiges zurück liegt Und da kann man zu DF noch so oft wie man will sagen die Pixel Zähler haben keine Ahnung
40-45 Fps mit ner 4090....in Qhd!Alter, das neue Jedi soll am PC noch schlechter optimiert sein als TLOU was da los mit den Studios
Falls es dich tröstet: PS5 Port ist anscheinend auch nicht viel besser.Alter, das neue Jedi soll am PC noch schlechter optimiert sein als TLOU was da los mit den Studios