• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

AMD fine Driverwine bewahrheitet sich anscheinend nicht und auch nicht die Behauptungen, dass Nvidia die älteren Grafikkarten verschlechtern würde:


Die 6800XT ist 8% langsamer in 4K und 6% langsamer in 1440p, die 10GB VRAM der 3080 reichen noch gerade so, ich denke da hilft auch der extrem schnelle GDDR6X, die 3070/Ti saufen mittlerweile in vielen games ab weil nur 8GB VRAM... - Wobei man wohl noch ne Weile mit den 10GB auskommen wird, wenn man hier und da ein paar Settings reduziert, auch wurde hier nur bei Raytracing mit FSR getestet, nicht aber mit DLSS, das macht von der Performance zwar wahrscheinlich keine großen Unterschiede aber auch abseits von Raytracing in games wäre DLSS auf jeden Fall ein großer Leistungssprung und ermöglicht dann auch 60FPS in 4K wo sonst nur um die 30-40 möglich waren.
 

Sieht schon ziemlich krass aus, wer schon immer mal Cop spielen wollte...
Mit der verwackelten Kamera der Bodycam und der Verpixelung der Gesichter wirkt das zumindest wie eine realitätstreue Aufnahme von einer Bodycam.
Wahnsinn, das verpixeln sollte man aber ausmachen können. Vielleicht wollen sie nur vertuschen wie schlecht die Charakter aussehen?

Aber die Umgebung... Das ist fotorealismus. Hatte nicht gedacht das wir sowas schon 2023 sehen. Ist das UE5?
 
Wahnsinn, das verpixeln sollte man aber ausmachen können. Vielleicht wollen sie nur vertuschen wie schlecht die Charakter aussehen?

Aber die Umgebung... Das ist fotorealismus. Hatte nicht gedacht das wir sowas schon 2023 sehen. Ist das UE5?

Jou ist UE5, hier noch bissl mehr zu ->

 
Photoscanning + Filter ist jetzt nicht soooo neu (Battlefront). Das gewollte low-Quality-Bild lassen es dann noch mehr wie fotorealistisch aussehen.
 

Schon erstaunlich das NV in so kurzer zeit die reine RT Leistung um das 4x erhöhen konnte

screenshot_20230422_1t4ewg.jpg
 
Bei den Konsolen müsste man sein halbes Leben abwarten um so einen Sprung zu sehen, weil die Hersteller schnellst möglich über die Hardware Geld verdienen wollen.

Man muss seine ganze Lebenszeit opfern fürs Warten.
Nicht nur daß, die Leute denken, es gäbe keine Sprünge mehr wie vom N64 zum Dreamcast zb, oder PS2 zu PS3, oder PS3 zu PS4.

MS hätte Super easy eine Maschine bringen können, die einen Mega Sprung hätte machen können und dann noch mit dem "Glück" das Sony eine 9TF Konsole bringt, also eine Konsole mit Schreibmaschinen Hardware.

Aber nein, sie bringen eine Series S Lead Konsole, die viel schwächer ist als die PS5. Sony hat sooo ein Glück mMn.
 
Bei den Konsolen müsste man sein halbes Leben abwarten um so einen Sprung zu sehen, weil die Hersteller schnellst möglich über die Hardware Geld verdienen wollen.

Man muss seine ganze Lebenszeit opfern fürs Warten.
Nicht nur daß, die Leute denken, es gäbe keine Sprünge mehr wie vom N64 zum Dreamcast zb, oder PS2 zu PS3, oder PS3 zu PS4.

MS hätte Super easy eine Maschine bringen können, die einen Mega Sprung hätte machen können und dann noch mit dem "Glück" das Sony eine 9TF Konsole bringt, also eine Konsole mit Schreibmaschinen Hardware.

Aber nein, sie bringen eine Series S Lead Konsole, die viel schwächer ist als die PS5. Sony hat sooo ein Glück mMn.
dazu müsten die consolen wieder zu seperaten gpu greifen wie zu ps360 zeit darmals noch
außerdem müste AMD endlich von den 4 box and rays per cycle per rt core mal weg kommen intel und nvidias bieten da je 12 box and rays per cycle per ct core
aber gibt ja jetzt neues gerücht über einen neuen amd apu mit 8 zen 5 kernen 40 cu rdna3+ einheiten und XDNA AI units was allein schon wegen den rdna3+ nach console klingt
 
Schon erstaunlich das NV in so kurzer zeit die reine RT Leistung um das 4x erhöhen konnte
Und Gerüchten zufolge soll Nvidia mit der 5090 erst richtig aufdrehen, der Plan ist anscheinend 2x 4090 Performance, was absoluter Wahnsinn wäre, wo ja die 4090 bereits 70-80% schneller als die 3090 ist. Irgendwie schwer vorstellbar, dass wir erneut einen so massiven Sprung erleben aber Nvidia traue ich es zu. Ich denke ich werde mit meiner 3080 einfach noch die 2 Jahre überbrücken und dann all in gehen beim PC Aufrüsten :ol:

Nicht nur daß, die Leute denken, es gäbe keine Sprünge mehr wie vom N64 zum Dreamcast zb, oder PS2 zu PS3, oder PS3 zu PS4.
Ja Konsolen geraten immer mehr ins Hintertreffen, ich meine was soll die PS6 denn bieten? Dreifache PS5 Leistung? Mit Raytracing entspricht die PS5 Technik ca. einer RTX 2060(nicht der Super). Das höchste der Gefühle wird wohl 2026/2027 die Leistung der RTX4080 im Raytracing werden, solange man an AMD festhält. Vielleicht schafft man dann endlich FSR im Qualitymode als Standard einzubauen, damit geht dann zumindest etwas mehr als was wir aktuell in Sachen Auflösung und FPS sehen.
 
Zuletzt bearbeitet:
Es ist allerdings auch ziemlich blödsinnig, Karten, der RTX40 Generation mit den Konsolen zu vergleichen, immerhin gab es bei Erscheinen der Konsolen nichtmal die RTX30 Generation. Die XSX ist in etwa so leistungsfähig, wie eine 2070S, das war immerhin nach 2080ti und 2080 die drittstärkste Nvidia Grafikkarte auf dem Markt zu der Zeit. Und die XSX braucht als Gesamtsystem deutlich weniger, als eine 2070S alleine. Ohne das Gehäuse doppelt so groß zu machen und 300W freizugeben wäre damals einfach nicht mehr drin gewesen.

Man könnte genauso fragen, warum die ursprüngliche Xbox One nicht so leistungsfähig war, wie eine One X. Hätte sie sein können, mit 500W.
 
Das ist nun pure Fantasie. Aber sollte eine Sony Konsole kommen mit 2 GPUS in Verbindung mit der Einfachheit des Sonys OS und Tools. Dann wird es schwer für PC Ports mMn.

MS müsste ein vollkommen neues OS entwerfen mMn was nichts mit Windows zutun hat.

Sony wird aber den Geier weg gehen denke ich, dank FSR 3.0 kann Sony wieder Büro Hardware nehmen und alles auf FSR 3.0 setzen. Selbst billige Büro Hardware würde dank FSR 3.0 schon einen Unterschied bringen.

Ich würde aber schon gerne wissen wie Sony den Image schaden der PlayStation ansieht. Die 30fps News Bomben haben auch die Sony Gamer nicht unberührt gelassen.

Mag sein das Callisto Protocol nicht das wahre ist aber die Grafik ist heftig.

Ich hab das Game auf dem PC gekauft und auf Steam mein Geld zurück verlangt. Ich hab aber ein großen Bereich gespielt zuvor. Ich nahm dann die PS5 Version und mir kamen ernsthaft fast die Tränen. Selbst ich hab nicht so einen Unterschied erwartet. Zum Sammeln weil es auf Bluray ist okey aber zum Zocken ist das einfach nur ekelhaft. RE4 trauen sie die Konsolen Gamer nur Fotomodus Bilder zu posten. Star Wars Fallen Order hat so heftige Unterschiede bis heute will das keiner vergleichen obwohl mir Bluenightsky das versprochen hat.
 
Du kannst so viel fantasieren, wie Du willst, aber es wird niemals Konsolen mit mehr als 200 bis max. 250W geben. Weil das neben den Kosten der limitierende Faktor ist
 
Hör doch auf mit Watt zu Argumentieren. Das lässt super leicht widerlegen.

Das macht den Stromverbrauch aus in Verbindung mit dem Herstellungsprozess.

5700XT vs PS5

Anzahl der Transistoren10,300 million10,600 million

(6700XT hat 17,200 Millionen)

Sony nahm uralt Hardware und hat diese etwas übertaktet.
So baut man keine Konsole mit dem Ziel Strom zu sparen, sondern man will massive viel Gewinn machen mit alter Hardware.

Nintendo kam damit durch bei der Wii wegen der Steuerung mit der Wii Mote. Und Sony will das nachmachen mit dem Dual Sence.

Es wird Werbung gemacht mit dem Controller nicht mit Nextgen Grafik.

Sony hätte easy eine einzig artige APU erstellen lassen können, Konsolen speziell und damit hätten man extrem viel an Watt einsparen können.

Sony hätte selbst Forschen können. Aber AMD soll alles machen und Sony möchte einfach nur abkassieren ohne eigenen Aufwand. Nicht mal das Sony DLSS kam.

Eine Spielkonsole muss subventioniert werden. Aber nein es kam Playstation Stars, es kamen 80,- Verkaufspreise und das in Verbindung mit dieser schwachen Hardware. Sony will Fett abkassieren.
 
Zuletzt bearbeitet:
Ich hab vergessen, mit wem ich diskutiere und bin drauf reingefallen.

Die 6700 xt gab es zu der Zeit auch noch nicht und jetzt rate mal, wann die Konzeption eines Konsolen SoC fertig ist und auch sein muss. Richtig geraten, nicht 4 Wochen vor Release.

So viel Blödsinn in einem Post. Sony hätte selbst forschen und eine viel bessere APU als AMD machen können. Weil das so einfach ist, scheitert Intel daran gerade auch so großartig. Aber Sony könnte. Schon klar.
 
Wenn man nicht weiter weiß wird es Persönlich, deshalb hatte ich dich auf der Ignor Liste.

Und btw was für ein Schwachsinn als ob Sony bei Amazon einkaufen geht.
Intel hatte 0,0 Erfahrung mit Gaming GPUs, willst jetzt Sonys Erfahrungen mit Intel gleichsetzen? Das ist so ekelhaft.
 
Zuletzt bearbeitet:
Oh, jetzt wird es spannend.
Was hat Sony denn für GPU Referenzen, dass die es besser können, als AMD und woher kommen die Kompetenzen?
Intel hat natürlich 0 Erfahrung, die bauen erst seit 12 Jahren oder so integrierte GPUs auf ihre CPUs.
 
Intel war nie auf Gaming GPUs fokussiert. Mit dieser Laienhaften Ansicht, hätte man auch fragen wieso macht Nvidia keine CPUs.
AMD hat ATI gekauft, also eine GPU Sparte. Muss ich das alles ernsthaft erklären? Ja, weil du nicht aufzeigen willst wie falsch du liegst und nun soll ich deinen Nebelkerzen folgen WTF. Du willst tatsächlich die Gaming GPU Erfahrungen von ATI mit Intel vergleichen?

8 Jahre IGP Erfahrungen sollen also das gleiche sein wie Gaming GPU Erfahrungen? Ja im ernst?

Und was hat Sony für GPU Referenzen? WTF die haben 5 Spielekonsolen gelauncht, PS1 und PS2 hatten Sony GPUs in zusammenarbeit mit Japanischen Unternehmen. Sony hat eine eigene custom API.
 
Zuletzt bearbeitet:
Zurück
Top Bottom