PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Einzelne HW Speccs zu sherrypicken um damit Leistungsvergleiche zwischen PC und PS5 Spielenabzuleiten ist in etwa so "sinnvoll" wie das Verteidigungsbudged der EU mit dem Russlands zu vergleichen

:nix:
Sherrypicken? Du weißt wie schwach die Upscale Konsole ist?

Und ich war schon so fair und habe die schwächste Nvidia Grafikkarte zum Vergleich genommen ;)
 
FSR4 ist ja echt nice, aber vs DLSS 4 ist es noch Schockierend schlecht.
Screenshot-2025-03-05-201712.jpg



Achtet mal auf die Hand. :surpika:
 
Oder die verwaschene Armbinde, bzw. Bild :coolface:
Also weiterhin Switch HH Mode Zustände auch auf der PS6.

Immerhin schafft die 5070 bei Indy, 13 fps
Das sind 13 fps mehr als ich gedacht hätte. xD
Ja aber auf der PS5 (Pro) wären das minus 80 fps. Also nur ein schwarzes Bild.
 
FSR4 ist ja echt nice, aber vs DLSS 4 ist es noch Schockierend schlecht.
Screenshot-2025-03-05-201712.jpg



Achtet mal auf die Hand. :surpika:
generell sind upscaler meh, aber ja, DLSS4 ist klar der Sieger.

Immerhin schafft die 5070 bei Indy, 13 fps
Das sind 13 fps mehr als ich gedacht hätte. xD
schafft sogar 4k, obwohl das keine 4K Karte ist.
Welche Auflösung die PS5 wohl bei Indy schaffen wird? Kommt sie wohl an die 720p ran?
 
Achtet mal auf die Hand. :surpika:
Naja, alles, die Texturen schärfer, das neue DLSS kann endlich das Blurring entfernen :goodwork:

Neues Video zur 5070 :lol:
Wer 700-800 Euro für ne 12GB Karte im Jahr 2025 ausgibt, dem ist aber auch nicht mehr zu helfen. Dann lieber die 9070 non XT für vermutlich 600 Euro mit 16GB. Schafft es sogar endlich sich von meiner 3080 im RT abzusetzen, im Raster sowieso, ordentliche Gains die AMD da liefert, hoffe das machen sie nächste Gen auch, dann haben sie Nvidia eingeholt, sofern die sich wieder so ne Pleite wie mit den 50er Karten erlauben:
 
Genau darauf hoffen doch die Leute um dann einfach wieder nur Nvidia zu kaufen statt AMD :fp:
Also hätte ich nicht eine 3080 sondern was schwächeres, sagen wir ne 2080, würde ich heute ne 9070XT für rund 700 Euro kaufen(fraglich auch hier ob es das geben wird, wir werdens bald sehen, geizhals listet die karten ab 830 Euro derzeit) und mit dem blur von FSR4 leben. -Dafür keine 1100 Euro(!) für die 5070Ti zahlen. Die 9070 ist laut techpowerup immerhin die 8. schnellste Grafikkarte am Markt, nur 10% hinter AMDs schnellster, der 7900XTX auf Platz 4, die hinter der 5080 liegt. Nvidia hat sich zu sehr ins Aus manövriert mit den Paperlaunches und den kaum vorhandenen Steigerungen mit der 50er Serie.

AMD strengt sich wenigstens an, baut die GPU um, die 9070 hat die Die-Größe einer 7800XT aber kann eine 7900XT je nach game knacken im Raytracing sogar eine 7900XTX, weil AMD da endlich ordentlich was verbessert hat. Sie hätten vermutlich sogar eine 9090 liefern können die eine 4090 übertrifft und damit die zweitschnellste Karte am Markt gewesen wäre, zumindest im Raster. Vielleicht machen sie das ja in der nächsten Generation in 2 Jahren dann. -Allerdings vermute ich, dass Nvidia mit der 6000er Serie wieder einen gewaltigen Leistungssprung liefern wird, sprich: 6090 ~70% schneller als ne 5090, einfach weil man mit Multiframegen das letzte KI Pferd im Stall vor den Wagen gespannt hat um ne PR Victory zu erreichen.
 
Sehe ich auch so, und es ist leider ein ähnlicher Betrug wie die Sony Pro Show. Alte Chips neu benannt und MF hingefügt.

ABER EGAL, DLSS4 ist einfach nur ein Traum. CP 2077 eben damit gezockt und ich konnte ernsthaft nicht meinen Augen trauen.
DLSS 4 Performance Mode kommt an DLSS 3,5 Quality Mode ran und ich zocke mit DLSS4 Quality Mode. Das einfach zu krank, NV sollte echt die Witcher macher aufkaufen, die sind voll drin in der NV Welt. Was für eine Optimierung, sowas habe ich noch nie gesehen zuvor.

Konsolen Spieler werden sowas mit ihren Enkeln Sehen an der PS9.
 
Früher waren für mich diese Upscaling Technologie nen Witz, aufgrund von Ghosting und schlechter aufgelöster Texturen, nun weiß ich das es für zukünftige Games schon garnicht mehr anders geht.

Sehe ich auch so, und es ist leider ein ähnlicher Betrug wie die Sony Pro Show. Alte Chips neu benannt und MF hingefügt.

ABER EGAL, DLSS4 ist einfach nur ein Traum. CP 2077 eben damit gezockt und ich konnte ernsthaft nicht meinen Augen trauen.
DLSS 4 Performance Mode kommt an DLSS 3,5 Quality Mode ran und ich zocke mit DLSS4 Quality Mode. Das einfach zu krank, NV sollte echt die Witcher macher aufkaufen, die sind voll drin in der NV Welt. Was für eine Optimierung, sowas habe ich noch nie gesehen zuvor.

Konsolen Spieler werden sowas mit ihren Enkeln Sehen an der PS9.

Irgendwie hat scheinbar CD-Projekt Red den Stein wirklich ins Rollen gebracht davor kannte ich so etwas garnicht wirklich. DLS, Path Tracing usw. so etwas waren kaum in Spielen vorhanden nun geht es in den meisten Fällen von AAA-Titeln schon garnicht mehr ohne.

Achja und wenn Modder auf die Spiele nochmals Hand anlegen und nochmals die Grafiken etwas tweaken und verbessern, das ist einfach nur Uff!!!...

photomode-07112024-231515.png


photomode-27122024-000347.png


photomode-27122024-001022.png


Zoomt mal näher an das Innenfutter der Nike Air Force Schuhe, selbst da sind kaum Texturendarstellung (typische hoch aufgelöste Texturtapete) erkennbar es sieht fast schon real aus. Und das noch bei HD-Auflösung, wohlgemerkt.


Und dann regen sich manche noch auf: ,,Öhhhh Indiana Jones läuft auf 13fps usw.?!?" Dann schaut mal wie CP2077 ausschaut und dann noch Open World und dann noch ohne Ladezeiten, dann kann ich nur müde lächeln und sagen: ,,Das Entwickler kein Interesse haben für PC zu optimieren." Es liegt nicht daran das die Hardware schlechter wäre, manche Herrsteller setzen ihre Prio nun mal auf die Spielekonsole.
 
@Bomberman82

Gerade das letzte Bid, WTF was geht den da ab ... :awesome:


Ich bin doch schon extrem gespannt wie gut die PS6 GPU Einheit sein wird.

Die RX9060.

Auffällig ist weiterhin, dass die kleinere Radeon RX 9060 bei noch keinem der Boardpartner in Erscheinung getreten ist, wobei diese höchstwahrscheinlich auch erst nach der Radeon RX 9070 und RX 9070 XT das Licht der Welt erblicken wird ... Computerbase.

AMD hat sich nun einen Namen gemacht mit der Serie.

Die RTX 6xxx muss schon abgehen wie Sau, mit echter Rechenleistung. MF ist klar ein Image Schaden für NV.

AMD Radeon RX 9060 XT: Zwei VRAM-Varianten – 8 GB und 16 GB geplant​

Mal sehen was Sony nehmen wird :kruemel::coolface:
 
Zuletzt bearbeitet:
@Bomberman82

Gerade das letzte Bid, WTF was geht den da ab ... :awesome:


Ich bin doch schon extrem gespannt wie gut die PS6 GPU Einheit sein wird.

Die RX9060.

Auffällig ist weiterhin, dass die kleinere Radeon RX 9060 bei noch keinem der Boardpartner in Erscheinung getreten ist, wobei diese höchstwahrscheinlich auch erst nach der Radeon RX 9070 und RX 9070 XT das Licht der Welt erblicken wird ... Computerbase.

AMD hat sich nun einen Namen gemacht mit der Serie.

Die RTX 6xxx muss schon abgehen wie Sau, mit echter Rechenleistung. MF ist klar ein Image Schaden für NV.

AMD Radeon RX 9060 XT: Zwei VRAM-Varianten – 8 GB und 16 GB geplant​

Mal sehen was Sony nehmen wird :kruemel::coolface:

Das mit AMD war so etwas von klar, das man in irgendeiner Kategorie besser da steht als Nvidia.
Nvidia hat schon eine gewisse Vormachtsstellung und wenn die jetzige Generation an Karten bei AMD nicht so gut ankämen, wäre das nochmals nen heftiger Dämpfer für AMD. Nur hätte ich auch tausend Fragen die mir ein Benchmarkbalken leider nicht erläutert.

Man ich habe schon wieder voll Schmach...

photomode-28102024-124339.png


Nightcity unsicher zu machen.
 
sieht fast schon real aus.
Das Lighting ist aber irgendwie off(das Mädel ist zu hell für die relativ dunkle Umgebung, die Schuhe auch :ol:), nicht bei dem rangezoomten bild, aber davor. Was sind deine RT settings, bzw. ist das überhaupt mit RT? -RT kann manchmal auch seltsam aussehen in dem Game.
AMD hat sich nun einen Namen gemacht mit der Serie.
RT darfst allerdings nicht einschalten(außer vielleicht Konsolen RT, das zieht kaum Leistung), dann kackt sie ziemlich ab in Alan Wake 2. Nvidia wird sich vielleicht selbst etwas ärgern, dass sie die 5080 und auch die 5070/Ti nicht etwas schneller gemacht haben und sich da quasi auf den Lorbeeren ausruhen und kaum Steigerung zu den 40er Serie Equivalenten bieten. Dadurch kann AMD jetzt mit der Budgetkarte wildern. Und mal ehrlich, wer sich ne 5070 mit nur 12GB VRAM kauft, ist selbst schuld, die wird von der 9070XT in jedem Game vorgeführt auch mit RT, speziell in 4K, weil der RAM einfach ausgeht bei der 5070er. -Und Preise dürften ähnlich ausfallen.

Leider werden die 9070XT auch schon gescalpt. Günstigste kostet 930 Euro, da hätte man sich vor nem Jahr einfach ne 7900XTX für kaufen können, mit 24GB VRAM :ugly: -Der Grafikkartenmarkt ist einfach im Eimer, ich denke in nem halben Jahr wird sich das alles etwas beruhigt haben, hoffentlich.
 
Zuletzt bearbeitet:
Sorgt das nicht eher dafür, dass die Produktionskosten sinken, wenn bei großer Nachfrage, mehr Einheiten produziert werden?
Außerdem hat AMD bestimmt einen Kampfpreis angeboten, um den PS6 Deal zu bekommen, da auch Intel im rennen war.
Ja aber nicht bei GPUs, das kann man nicht solala produzieren.
Deshalb zeigt sich auch die RX 9060 nicht. AMD kann nicht Sony und den Massenmarkt gleichzeitg bedienen.
 
Produktionskapazitäten hat TSMC, die stellen für alle Major Player die Chips her, sei das CPU oder GPU, gut CPU macht intel noch immer ihr eigenes Ding, zumindest bei Desktops und Samsung gibts noch die sich wohl rein auf die Fertigung der Switch 2 SoC beschränken werden in Zukunft.

Insofern ists nur eine Frage des Preises und der Auslastung, AMD scheint hier auf einer anderen Prozessfabrik herzustellen als Nvidia.

AMD verwendet: Process Type N4C FinFET

Und Nvidia hat: Process Type 4N FinFET

Keine Ahnung was die Unterschiede sind, aber sie dürften sich gegenseitig nicht in die Quere kommen. Apple hat sich zB. enorme Mengen der 3nm Kapazität gesichert für ihre produkte. Während AMD und Nvidia heir noch auf alter 5nm Technologie produzieren. Hat allerdings auch pragmatische Gründe, neben der teureren Herstullung: So große Chips wie für GPUs benötigt, brauchen ausgereiftere Fertigungsprozesse, nächste Generation an GPUs wird einen gewaltigen Sprung bringen, bei AMD wie Nvidia, da man von 5nm die man jetzt schon seit 4 Jahren nutzt, mit leichter verbesserung und pseudo "4nm", auf echte 3nm umsteigen wird.
 
Zurück
Top Bottom