• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

jetzt wieder alles was nicht 40xx leistung bei rt hat nutzlos dabei ist der unterschied der drei rt karten der selben xx60reihe in eine rt game RE4 nicht groß
Der Quatsch, den Du hier schreibst, trifft nicht nur auf RT zu, sondern auch auf zum Beispiel auf fps und Auflösung.
"Alles, was schlechter Performt, als das aktuelle" ist quasi die Essenz einer jeden Grafikkarten-Diskussion.

Außerdem: Was interessiert es mich, ob ein Spiel DLSS nativ unterstützt? Das eine Prozent, was es nicht kriegt, kriegt Mods. Habe für Re4R drei Dateien kopiert und hatte nahezu perfektes DLSS3 und im Quality Mode mehr als 30% fps plus.
 
Der Quatsch, den Du hier schreibst, trifft nicht nur auf RT zu, sondern auch auf zum Beispiel auf fps und Auflösung.
"Alles, was schlechter Performt, als das aktuelle" ist quasi die Essenz einer jeden Grafikkarten-Diskussion.

Außerdem: Was interessiert es mich, ob ein Spiel DLSS nativ unterstützt? Das eine Prozent, was es nicht kriegt, kriegt Mods. Habe für Re4R drei Dateien kopiert und hatte nahezu perfektes DLSS3 und im Quality Mode mehr als 30% fps plus.
welcher quatsch nvidia zeigt selbst in ihren eignene benchmarks das das die 4060 nicht viel schneller ist als die 3060 und grat mal 30-35% mehr leistung schaft als eine 2060 mit mehr RT leistung
klar das muss man sofot verteidigen den ist ja nvidia oder noch besser aus andere ufer zeigen weil es ja da auch nicht für gut befunden wird, wenn die leistung nicht stimmt
die essends dieser diskusion hier ist "die anderen machen das auch(8gb)" obwohl es dort genau so bemängelt wird wenndie leistung nicht stimmt im fall von amd wohl auch weit mehr weil ist eben nicht golden kuh namens nvidia ist

und mods klar wenn games die fsr nutzt kannst es ummodder gleiches gilt für fsr hat nen game dlss änderst 4 datein hast fsr weil im grunde der selbe schiess ist mit andere lable ist ein gimik ist es trotzdem.....
und wenn hersteller jetzt benchmarks mit gimks als base leistung darstellen wollen im grunde aber die karten künstlich kastrieren mit mageren memory bus und minimalen speicher großen sollte man mal über den schatten springen und es auch mal kritisieren
aber nö hier wird stiefel geleckt aller hat ja dlss und fake frames die uns von 40 fps zu 100 machen
toll nvidia/amd /intel kastriert die karten nur weiten 128bit memory bus ist super hat bei den voodoo1 von 98 auch gut gefuntzt
 
welcher quatsch nvidia zeigt selbst in ihren eignene benchmarks das das die 4060 nicht viel schneller ist als die 3060 und grat mal 30-35% mehr leistung schaft als eine 2060 mit mehr RT leistung
klar das muss man sofot verteidigen den ist ja nvidia oder noch besser aus andere ufer zeigen weil es ja da auch nicht für gut befunden wird, wenn die leistung nicht stimmt
die essends dieser diskusion hier ist "die anderen machen das auch(8gb)" obwohl es dort genau so bemängelt wird wenndie leistung nicht stimmt im fall von amd wohl auch weit mehr weil ist eben nicht golden kuh namens nvidia ist

und mods klar wenn games die fsr nutzt kannst es ummodder gleiches gilt für fsr hat nen game dlss änderst 4 datein hast fsr weil im grunde der selbe schiess ist mit andere lable ist ein gimik ist es trotzdem.....
und wenn hersteller jetzt benchmarks mit gimks als base leistung darstellen wollen im grunde aber die karten künstlich kastrieren mit mageren memory bus und minimalen speicher großen sollte man mal über den schatten springen und es auch mal kritisieren
aber nö hier wird stiefel geleckt aller hat ja dlss und fake frames die uns von 40 fps zu 100 machen
toll nvidia/amd /intel kastriert die karten nur weiten 128bit memory bus ist super hat bei den voodoo1 von 98 auch gut gefuntzt
Ich stöber gerade durch die Threads....und alter....ich hab nicht ein Wort von deinem Beitrag verstanden.
 
Gollum wird wohl der nächste Horror PC Port

Technischer Ersteindruck von HDR: Gollum auf dem PC

ComputerBase arbeitet gerade an einem Technik-Test zu Herr der Ringe: Gollum, will und muss aber direkt zum Fall des Embargos und damit für viele Interessenten hoffentlich noch rechtzeitig warnen: Die PC-Version hat in der Tat und wie zuletzt schon beinahe üblich mit massiven technischen Problemen zu kämpfen.


Eines ist Shader-Compile-Ruckeln (es scheint sich darum und nicht um Traversal-Stottern zu handeln, wenngleich die Analysen noch laufen), das extrem ausfällt – nicht unbedingt in Bezug auf die Häufigkeit, aber auf die Intensität der Haker. So passiert es auf einem System mit GeForce RTX 4090 und Ryzen 9 7950X3D immer wieder, dass das Bild mitten beim Steuern der Figur stehen bleibt und die Kamera nach der kurzen Pause dann um 180 Grad gedreht den Spieler quasi orientierungslos zurück ins Spiel wirft.

Auch die Performance an sich ist niedrig und in Anbetracht der Grafikqualität schlicht und ergreifend schlecht. Herr der Ringe: Gollum ist kein schönes Spiel, doch selbst die GeForce RTX 4090 schafft es in Ultra HD mit maximaler Grafik nicht, durchweg die 60 FPS zu halten – mit DLSS Quality wohlgemerkt und damit der Renderauflösung WQHD! Auffällig ist dabei, dass die Framerate extrem variiert. In einer Szene lieferte das Testsystem kaum mehr als 50 FPS, ein paar Meter weiter sind es 150 FPS.
 
Gollum wird wohl der nächste Horror PC Port

Technischer Ersteindruck von HDR: Gollum auf dem PC

ComputerBase arbeitet gerade an einem Technik-Test zu Herr der Ringe: Gollum, will und muss aber direkt zum Fall des Embargos und damit für viele Interessenten hoffentlich noch rechtzeitig warnen: Die PC-Version hat in der Tat und wie zuletzt schon beinahe üblich mit massiven technischen Problemen zu kämpfen.


Eines ist Shader-Compile-Ruckeln (es scheint sich darum und nicht um Traversal-Stottern zu handeln, wenngleich die Analysen noch laufen), das extrem ausfällt – nicht unbedingt in Bezug auf die Häufigkeit, aber auf die Intensität der Haker. So passiert es auf einem System mit GeForce RTX 4090 und Ryzen 9 7950X3D immer wieder, dass das Bild mitten beim Steuern der Figur stehen bleibt und die Kamera nach der kurzen Pause dann um 180 Grad gedreht den Spieler quasi orientierungslos zurück ins Spiel wirft.

Auch die Performance an sich ist niedrig und in Anbetracht der Grafikqualität schlicht und ergreifend schlecht. Herr der Ringe: Gollum ist kein schönes Spiel, doch selbst die GeForce RTX 4090 schafft es in Ultra HD mit maximaler Grafik nicht, durchweg die 60 FPS zu halten – mit DLSS Quality wohlgemerkt und damit der Renderauflösung WQHD! Auffällig ist dabei, dass die Framerate extrem variiert. In einer Szene lieferte das Testsystem kaum mehr als 50 FPS, ein paar Meter weiter sind es 150 FPS.
Konsolenversion läuft auch nicht besser und die Tester mussten x mal die PS5 neu starten, weil LEvel nicht geladen haben oder es Plotstopper gab, performance sowieso :ugly:
 
Konsolenversion läuft auch nicht besser und die Tester mussten x mal die PS5 neu starten, weil LEvel nicht geladen haben oder es Plotstopper gab, performance sowieso :ugly:
Ist das wieder ein UE4 Game? Die sollen diese kaputte Engine einfach einstampfen, sie hat ihre Pflicht getan :x
 
Ist das wieder ein UE4 Game? Die sollen diese kaputte Engine einfach einstampfen, sie hat ihre Pflicht getan :mad:
ka, aber daedalic sollte bei point & click bleiben :ugly:

von gamespot:

"In my roughly 11 hours of playtime on "Performance" mode on a PlayStation 5, the game crashed over 120 times (yes, I counted; masochist, remember?), averaging about one crash every five minutes. After my 20th-or-so crash, I got the dreaded "save data corrupted" message, only to realize I'd lost half a day's progress upon reloading. In multiple other instances, game-breaking bugs--such as a companion I was charged with protecting instantly dying over and over again for no discernible reason--forced me to restart entire levels, losing significant progress. Finally, during an especially tedious and time-consuming puzzle, the crashes became too frequent to possibly make it to the next checkpoint in time. Determined though I was to get through to the end and make these setbacks feel worthwhile, I threw in the towel at 40% completion, defeated."

:ugly:
 
das ist nimmer feierlich, sind denn alle Entwickler inkompetent geworden in so kurzer Zeit? 2023 ist wirklich das Jahr der bugfeste.
 
Zum Glück ist es nur Gollum, der hat mich eh noch nie interessiert. Stellt euch mal vor, wenn diese Katastrophe ein "echtes" HdR Spiel geworden wäre :coolface:
 
ich poste es einfach mal hier :coolface:

Katastrophale Nachrichten für Gamer, denn diese irren Einnahmen kommen primär vom Enterprise Segment und dem Verkauf von GPUs für Server. Sie produzieren auch kaum noch Grafikkarten, weil die Gamer eh nicht mehr zuschlagen abseits der 4090 verkauft sich kaum noch was, dadurch dass sie wenig produzieren müssen sie auch beim Preis nicht runter und das was sie produzieren geht dann eben in die Server, da können sie völlig losgelöst extrem abcashen.

Hoffe AMD kommt endlich mal aus dem Tiefschlaf aber die machen ja auch nichts besser, die produzieren lieber CPUs als Grafikkarten wie wir schon länger wissen. Alles in Allem sehr schlechte Nachrichten, abseits des absoluten High Ends wird Nvidia die Gamer wohl gar nicht mehr mit vernünftiger Preis/Leistung beliefern.
 
Katastrophale Nachrichten für Gamer, denn diese irren Einnahmen kommen primär vom Enterprise Segment und dem Verkauf von GPUs für Server. Sie produzieren auch kaum noch Grafikkarten, weil die Gamer eh nicht mehr zuschlagen abseits der 4090 verkauft sich kaum noch was, dadurch dass sie wenig produzieren müssen sie auch beim Preis nicht runter und das was sie produzieren geht dann eben in die Server, da können sie völlig losgelöst extrem abcashen.

Hoffe AMD kommt endlich mal aus dem Tiefschlaf aber die machen ja auch nichts besser, die produzieren lieber CPUs als Grafikkarten wie wir schon länger wissen. Alles in Allem sehr schlechte Nachrichten, abseits des absoluten High Ends wird Nvidia die Gamer wohl gar nicht mehr mit vernünftiger Preis/Leistung beliefern.
Jo. Und hier träumen einige davon, dass die nächste Gen günstiger wird.
 
Jo. Und hier träumen einige davon, dass die nächste Gen günstiger wird.
Nächste Gen werde ich mir einfach die 5090 holen und gut ist, bis dahin tuts die 3080(hoffe der VRAM reicht :ugly:). Nvidia ist mittlerweile alles egal, die 4060Ti ist teilweise schlechter als die 3060Ti, das muss man auch mal zusammenbringen, so sehr haben sie die Karte beschnitten und die 8GB VRAM machen ja heute schon probleme bei 1080p. Nvidia hat hier die Midrange seit der 1070er Serie nicht mit mehr Speicher ausgestattet, das ist absolut fahrlässig, wir sprechen hier von bald 6+ Jahren Stillstand auf dem Gebiet.

 
FxCyax5WAAERhOf


Denke mal Ghost of Tsushima, aber mal schauen.
 
FxCyax5WAAERhOf


Denke mal Ghost of Tsushima, aber mal schauen.
Ich denke nach der letzten Direct oder Whatever von Sony, wo man nix Neues sah, außer der PC Ankündigung eines ihrer games(glaube Returnal?) wollten sie nicht, dass es wieder nur um den PC geht, deshalb wohl nicht angekündigt. Ghost of Ushibushi wie ein Sony User es hier taufte, können sie aber gerne releasen, ist sicher ein netter 20-30 Stunden Quickie für Zwischendurch.
 
Tom Hendersen ist hier die Quelle, er meint Sony hat einige Trailer nicht gezeigt die er gesehen hat und denkt Sony zeigt dieses Jahr nochmal einiges.


Er hat damals auch den BF2042 Treiler schon wochen vorher gesehen.
 
Tm hat die ganzen ankündigungen was die neue HW (Streaming Ding und neue Kopfhörer) und einige Trailer richtig gehabt (was die Pro wohl auch sicher macht) und daher ist sicher er dieQuelle. Und im ERA heißt es bei Snitch doch immer er weiß nix usw. zumindest vor dem Showcase ;)
 
Tm hat die ganzen ankündigungen was die neue HW (Streaming Ding und neue Kopfhörer) und einige Trailer richtig gehabt (was die Pro wohl auch sicher macht) und daher ist sicher er dieQuelle.

Timestamp Snitch > Tom

Und im ERA heißt es bei Snitch doch immer er weiß nix usw. zumindest vor dem Showcase ;)

ERA. :coolface:
Auch wenn die es nicht glauben wollen, Snitch hat ne 100% Trefferquote. Diejenigen die ihm was anderes unterstellen, verstehen seine Aussagen nur falsch. Z.B. bei der letzten SoP.
 
Zuletzt bearbeitet:
Zurück
Top Bottom