PlatformWAR Playstation PC vs. Playstation 5

Was ist besser?


  • Stimmen insgesamt
    133
Mir wurde dieser Thread hier nahegelegt, ihr solltet euch von diesem extraplatt nicht trollen lassen. Der weiß doch selbst wie schwach die PS5 ist. Uralte Technik mit 250 Watt, was will man da für Wunder erwarten?

Der Cyberpunk raytracing Modus deckt meines Wissens nur die Schatten ab. Keine beleuchtung, keine Spiegelungen und dann nur 30 Bilder die Sekunde und niedrige Auflösung. Das ist doch ein Trauerspiel.

Nicht nur ist die Playdohstation 5 uralte Technik mit absurd hohem Stromverbrauch, anscheinend kriegt die Playdohstation auch nicht einmal mehr ihren Third Support auf die Kette. Hätte Cerny mal mehr an der Solid State Processing Unit gearbeitet! :shakehead: :pcat: :nyanwins:

 
Oh der Klassiker von Extraplatt, so ne Überraschung :coolface:
Noch immer ohne Fakten unterwegs, bis jetzt nur leere Behauptungen ohne irgend einen Nachweis. Dir gilt mein besonderer Dank. :moin:

Was hat der Twitter Post mit dem Thread Thema zu tun?

Wenn es schon am richtigen Thema scheitert und der KI generierte tweet als Argument "Just 🗑️" aufführt, weißt du automatisch bescheidxD

Inhaltslos so wie argumentlosbauf auf aller höchstem Niveau.
 
Zuletzt bearbeitet:
Provokation
Na, immer noch nicht genug getrollt und redest dir alles schön? Na sowas aber auch :goodwork:
Wer are not the same. Kommt auch mal ein irgendwas nachweisbares von dir, oder geht's weiter mit leeren Floskeln? Im Gegensatz zu deinen PC-Buddys die wirklich fürs das trollen schon gesperrt wurden, bin ich noch hier.

Noch immer warte ich auf nur irgendwas von dir, dass irgend eine Art von Informationsgehalt bietet.

Red ruhig weiter leer. Meine Aussagen mit fundamentierten Quellen sind hier nachlesbar :)

Kann es sein das du auch nicht wusstest das es nur zwei RT Settings in S-M Remastered gibt? :D

Da hat selbst Drake kein Bock mehr:
3-MB-CPU-at-PS5.jpg
Schade das du nicht mehr antworten kannst?! Aber ist dir das eigentlich nicht peinlich? Wenn man sich das IGN Review dazu anschaut, dann bedeutet das einfach nur das die PC Version kein Motion Blur bietet. Was für Eigentor.

PC – or another bug most likely – is that per-object and camera blur is not enabled, leaving the PC without the motion blur effect

Wieder mal müssen/mussten die PC'ler den verbuggten scheiss zocken xD


xD

Netter Versuch aus einem 2016er PS4 Spiel irgendwie nen PC-Win zu ziehen... ihr schießt den Vogel ab. Danke :D

Btw.
The overall Ultra settings align exactly with PS5

⬆️:lol:
 
Zuletzt bearbeitet:
Wie ich dir schon einmal erklärte, aber das überschreitet offenbar deinen Horizont: Für den PC macht sich $ony keine Mühe neue Assets oder Texturen einzubauen, entsprechend einfach ist es also auch diese Spiele auf 60FPS zu spielen, ich habe dazu schon vor 1 Jahr ein ausführliches Benchmarkvideo gedreht mit meiner Einsteigergrafikkarte RTX 3080. Fazit: Es läuft mit 60FPS Lock in 4K, wo die PS5 nur einen 30FPS lock hatte (oder auf jämmerliche 1440p runtergehen musste für 60FPS im Performance Mode):

Außerdem habe ich aus reinem Interesse getestet wie der Stromverbrauch denn aussieht, wenn man sich mit 30FPS Lock durch das Spiel quält und siehe da, lediglich 160W Verbrauch, wo die PS5 230-250W schluckt:
 
Wie ich dir schon einmal erklärte, aber das überschreitet offenbar deinen Horizont: Für den PC macht sich $ony keine Mühe neue Assets oder Texturen einzubauen, entsprechend einfach ist es also auch diese Spiele auf 60FPS zu spielen, ich habe dazu schon vor 1 Jahr ein ausführliches Benchmarkvideo gedreht mit meiner Einsteigergrafikkarte RTX 3080. Fazit: Es läuft mit 60FPS Lock in 4K, wo die PS5 nur einen 30FPS lock hatte (oder auf jämmerliche 1440p runtergehen musste für 60FPS im Performance Mode):

Außerdem habe ich aus reinem Interesse getestet wie der Stromverbrauch denn aussieht, wenn man sich mit 30FPS Lock durch das Spiel quält und siehe da, lediglich 160W Verbrauch, wo die PS5 230-250W schluckt:
Ich weiß nich ob du des checkst,aber du zockst in 1440p. xD
Und du sagst selber dass du nen Stromverbrauch von 190 Watt hast. löli.
Die Playstation 5 verbraucht mit Sicherheit keine 230-250 Watt.
Das ganze Video ist einfach nur FAKE.
 
Wie ich dir schon einmal erklärte, aber das überschreitet offenbar deinen Horizont: Für den PC macht sich $ony keine Mühe neue Assets oder Texturen einzubauen, entsprechend einfach ist es also auch diese Spiele auf 60FPS zu spielen, ich habe dazu schon vor 1 Jahr ein ausführliches Benchmarkvideo gedreht mit meiner Einsteigergrafikkarte RTX 3080. Fazit: Es läuft mit 60FPS Lock in 4K, wo die PS5 nur einen 30FPS lock hatte (oder auf jämmerliche 1440p runtergehen musste für 60FPS im Performance Mode):

Außerdem habe ich aus reinem Interesse getestet wie der Stromverbrauch denn aussieht, wenn man sich mit 30FPS Lock durch das Spiel quält und siehe da, lediglich 160W Verbrauch, wo die PS5 230-250W schluckt:

Wenn man bedenkt, dass der PC mit die mit Abstand beliebtesten Games des Planeten hervorbringt, ist es wirklich kein Wunder dass $ony Schritt für Schritt auf den deutlich attraktiveren Playdohstation PC zugeht, um es auch seinen Schlümpfen angenehmer zu bereiten. :nyancool: :pcat: :nyanwins:


 
Wie ich dir schon einmal erklärte, aber das überschreitet offenbar deinen Horizont: Für den PC macht sich $ony keine Mühe neue Assets oder Texturen einzubauen, entsprechend einfach ist es also auch diese Spiele auf 60FPS zu spielen, ich habe dazu schon vor 1 Jahr ein ausführliches Benchmarkvideo gedreht mit meiner Einsteigergrafikkarte RTX 3080. Fazit: Es läuft mit 60FPS Lock in 4K, wo die PS5 nur einen 30FPS lock hatte (oder auf jämmerliche 1440p runtergehen musste für 60FPS im Performance Mode):

Außerdem habe ich aus reinem Interesse getestet wie der Stromverbrauch denn aussieht, wenn man sich mit 30FPS Lock durch das Spiel quält und siehe da, lediglich 160W Verbrauch, wo die PS5 230-250W schluckt:
Ist dein "PC'Doh - Benchmark" eig. ernst gemeint, bei dem du einfach nur die CPU und GPU Leistungsaufnahme addierst? Der Rest des Rechners ist egal und läuft dank streicheln? Das mit deinem 1440p gerenderten DLSS4K-Bild kann auch schlecht dein ernst sein, oder hast du mittlerweile das trollen durchgespielt? Den UC4 Wert, scheinst du dir auch aus dem Finger gesaugt zu haben :isaac:

Besorg dir erstmal ein Wattmeter und stecke das zwischen Netzteil und 230V Steckdose, dann vergisst du in deiner Dulli-Rechnung abseits von CPU+GPU auch nicht die restlichen PC Komponenten. Oder laufen die bei dir mit Liebe? So viel zu deiner Aussage am 29.12.23, dass ICH keinen Plan von Technik habe. Btw. in dem Screenshot bei der Aussage hat deine GPU alleine schon 329W geballert - jo Max Settings. GZ. Wie viel FPS schafft denn dein Rechner wenn du die nackte CPU so wie GraKa auf den Teppichboden legst und betest? Denn genau für zu so viele Komponenten hast du die Leistungsaufnahme "gemessen". Die Kirsche auf der Torte ist jedoch, dass du in deinem Dulli-Vergleich selbst mit "jämmerlichen" 1440p renderst. Den Rest skaliert dein DLSS-Algorithmus hoch. Wie viel Eigentore wollt ihr hier haben? PC'ler: Ja.

Nur mal so was EIN weiteres wichtiges Bauteil deines Rechners, dass dein Graph im Video nicht berücksichtigt zieht.

- Regular Motherboard 25 to 40 W
- High End Motherboard 45 to 80 W

"Your motherboard by itself, with no CPU, RAM, or GPU installed, will stay comfortably in that 25-80 Watts range, with 50+ Watts requirements restricted to high-end boards."
Eine von endlos viel Quellen. https://www.cgdirector.com/motherboard-power-consumption/

Könnte also jetzt schon eng werden mit deinem Vergleich, je nach Hardware die du verbaut hast. Kommt natürlich darauf an ob du zu deiner damaligen HighEnd CPU/GPU Hardware dann ein Lowbudget MB verbaut hast, oder doch weiter oben zugegriffen hast - was dann folgerichtlich wieder mehr Watt verbrät... und bitte nicht die Pumpe für die WaKü vergessen, oder ist da noch ein normaler CPU Lüfter verbaut der von den Mainzelmännchen(bei dir) angetrieben wird? Die Kirmesbeleuchtung die bei jedem MasterRacler nicht fehlen darf braucht übrigens auch Energie. 32GB RAM, die du eh nie brauchst sowieso.

Aber das du jetzt die Watt-Karte auspielst... ich bekomm nen Lachkrampf. Hauptsache Unsummen für überteuerte Nvidia und Intel Hardware ausgeben, aber nun mit gezinkten Watt-Zahlen und Fake-Einstellungen Posen. Kannste dir nicht ausdenken xD

Was für nen W willst du hier generieren? Das PC Spiele potentiell besser laufen und aussehen können auf dementsprechend teurerer Hardware? Nicht gerade die neuste Erkenntnis - und wurde schon oft genug erwähnt und auch von mir bestäigt. Schenk dir den Punkt trotzdem, dann ist nicht ganz so lächerlich.

Woher kommen denn eig. die PS5 Daten in UC4? Durch Hand auflegen? Das WWW, dass zum großteil übrigens richtig mit Wattmeter misst(gruß an IgorsLab), spricht von ~200 Watt bei nicht so anspruchsollem wie Returnal und ~250W bei sehr anspruchsvollem. Dullispiele eiern bei 160-170W herum Btw. haben die neueren 6nm Modelle auch auch noch eine geringere Leistungsaufnahme.

So viel zu meinem von dir genannten beschränktem Horizont. Wichtig ist, dass deine Fanboys dir den Käse den du im Video/Posting erzählst in Form von Smileys glauben. Kannst dir auf die Schultern klopfen. Prima gemacht.

PC'ler willst sein... ich glaub ich teile deine Videos mal in einem echtem PC Forum, bin auf die Reaktionen gespannt.

Frohes neues - PC'Doh'frickeln :D
 
Zuletzt bearbeitet:
Und du sagst selber dass du nen Stromverbrauch von 190 Watt hast. löli.
Die Playstation 5 verbraucht mit Sicherheit keine 230-250 Watt.
Der Gesamtverbrauch lag laut Smartplug etwas über 200W, den Großteil des Verbrauchs macht beim Gaming die GPU+CPU aus(auch außerhalb des Gamings), die restlichen Komponenten sind nicht der Rede Wert, außer man hat eine Menge klassische HDDs am Laufen, heutzutage verwendet man aber SSDs, da ich außerdem ein hochwertiges Netzteil habe, ist die Verlustleistung nicht der Rede wert.
Läuft das Spiel überhaupt mit nativ 1440p,wenn Dlss auf Quality gestellt ist?
Sollte man wissen, aber ja Quality DLSS läuft intern mit 1440p ab, greift aber durch KI auf 8K Daten(mittlerweile sogar 16K) zu, weshalb das DLSS Quality Bild in der Regel sogar besser aussieht als 4K Nativ. Nichts Neues aber etwas, das die Playdohstation halt nicht schafft. Dazu gibt's auch zu UC Vergleichsvideos hab mal das erst beste genommen:

Hier ein Screen daraus, wo ich die rechte Seite neben die Linke gestellt habe, zum einfacheren Vergleichen, man braucht sich nur die Haare und den Bart anzusehen um zu verstehen, dass DLSS hier dank der KI Unterstützung mehr Details liefert, als natives 4K:
4k-vergleich.png

Ein Extra Bonus ist das überragende DLAA als Kantenglättungslösung, das mit in DLSS eingebaut ist und der Qualität von Supersampling ähnelt.

Digital Foundry hat auch den einen oder anderen Direktvergleich zu $onys katastrophalem Checkerboard Rendering gemacht, das Ergebnis ist, selbst im Performance Mode von DLSS(1080p interne Auflösung) sieht das Bild wesentlich besser aus als was $ony mit ihrer Upscaling Lösung verbricht, die feine Linien wie in den Haaren zu sehen nicht ordentlich darstellt, was bei Bewegung zu flimmern führt:
dhl-stranding.png



Und das war noch DLSS 2.0, mittlerweile gibts 3.5 das diverse Tweaks und Verbesserungen mit sich gebracht hat, auch in Sachen Raytracing denoising.

Zum Thema DLSS vs Native habe ich schon vor vielen Monaten zu Control ein detailliertes, kurzes Video gemacht:
 
Zuletzt bearbeitet:
Wenn man bedenkt, dass der PC mit die mit Abstand beliebtesten Games des Planeten hervorbringt, ist es wirklich kein Wunder dass $ony Schritt für Schritt auf den deutlich attraktiveren Playdohstation PC zugeht, um es auch seinen Schlümpfen angenehmer zu bereiten. :nyanface: :pcat: :nyanwins:


MS hat die verkaufszahlen gekauft und nicht selber erarbeitet.
Minecraft war schon erfolgreich als die krake MS ihre schleimigen Tentakel auf ihr gerichtet hat :kruemel:

Das ist wie bei Youtube oder instagram clicks und Abonnente kaufen :lol:
 
Der Gesamtverbrauch lag laut Smartplug etwas über 200W, den Großteil des Verbrauchs macht beim Gaming die GPU+CPU aus(auch außerhalb des Gamings), die restlichen Komponenten sind nicht der Rede Wert, außer man hat eine Menge klassische HDDs am Laufen, heutzutage verwendet man aber SSDs, da ich außerdem ein hochwertiges Netzteil habe, ist die Verlustleistung nicht der Rede wert.

Sollte man wissen, aber ja Quality DLSS läuft intern mit 1440p ab, greift aber durch KI auf 8K Daten(mittlerweile sogar 16K) zu, weshalb das DLSS Quality Bild in der Regel sogar besser aussieht als 4K Nativ. Nichts Neues aber etwas, das die Playdohstation halt nicht schafft. Dazu gibt's auch zu UC Vergleichsvideos hab mal das erst beste genommen:

Hier ein Screen daraus, wo ich die rechte Seite neben die Linke gestellt habe, zum einfacheren Vergleichen, man braucht sich nur die Haare und den Bart anzusehen um zu verstehen, dass DLSS hier dank der KI Unterstützung mehr Details liefert, als natives 4K:
4k-vergleich.png

Ein Extra Bonus ist das überragende DLAA als Kantenglättungslösung, das mit in DLSS eingebaut ist und der Qualität von Supersampling ähnelt.

Digital Foundry hat auch den einen oder anderen Direktvergleich zu $onys katastrophalem Checkerboard Rendering gemacht, das Ergebnis ist, selbst im Performance Mode von DLSS(1080p interne Auflösung) sieht das Bild wesentlich besser aus als was $ony mit ihrer Upscaling Lösung verbricht, die feine Linien wie in den Haaren zu sehen nicht ordentlich darstellt, was bei Bewegung zu flimmern führt:
dhl-stranding.png



Und das war noch DLSS 2.0, mittlerweile gibts 3.5 das diverse Tweaks und Verbesserungen mit sich gebracht hat, auch in Sachen Raytracing denoising.

Zum Thema DLSS vs Native habe ich schon vor vielen Monaten zu Control ein detailliertes, kurzes Video gemacht:


Wow, was für ein gnadenloser REEEEEEKT gleich ins neue Jahr. Zeig mal bitte ein bisschen Gnade, mein werter Prophet, hat Schlumpfhausen doch für das Jahr 2024 kaum etwas vorzuweisen und verliert noch gleichzeitig den KFC DLC von Uncharted mit Robotern an den glamorösen Playdohstation PC. Der Playdohstation PC, auf dem wir Aloy dann einer plastischen Schönheits-OP unterziehen können, wenn wir wollen dank Mods. :banderas: :beam: :pcat: :nyanwins:


horizon-forbidden-west-ps5-playstation-5-2.large.jpg
 
Wow, was für ein gnadenloser REEEEEEKT gleich ins neue Jahr. Zeig mal bitte ein bisschen Gnade, mein werter Prophet, hat Schlumpfhausen doch für das Jahr 2024 kaum etwas vorzuweisen und verliert noch gleichzeitig den KFC DLC von Uncharted mit Robotern an den glamorösen Playdohstation PC. Der Playdohstation PC, auf dem wir Aloy dann einer plastischen Schönheits-OP unterziehen können, wenn wir wollen dank Mods. :banderas: :beam: :pcat: :nyanwins:


horizon-forbidden-west-ps5-playstation-5-2.large.jpg
Ja, man läuft in der Endzeit Welt immer schön gestylt mit tonnenweise Schminke rum, wer kennt es nicht :coolface:
 
Der Gesamtverbrauch lag laut Smartplug etwas über 200W, den Großteil des Verbrauchs macht beim Gaming die GPU+CPU aus(auch außerhalb des Gamings), die restlichen Komponenten sind nicht der Rede Wert, außer man hat eine Menge klassische HDDs am Laufen, heutzutage verwendet man aber SSDs, da ich außerdem ein hochwertiges Netzteil habe, ist die Verlustleistung nicht der Rede wert.
Was für ein unfassbar schwachsinniges gelaber. Auf ein mal ist es der "Smartplug"... schon klar. Im Video addierst du noch schön stümperhaft deine zwei Zahlen im Graphen. Das die restlichen Komponenten nicht der Rede wert sind, zeigt einfach nur das du keinen Plan hast.
Aber bei dir könnte ich mir sogar vorstellen, dass diese nur dank heißer Luft laufen.

Das DLSS die überlegenere Technik im Vergleich zum Checkerboard rendering ist, stellt hier auch niemand in Frage. Es geht einzig und alleine um deine schwachsinnigen Aussagen, dass du schön über 1440p rendering auf der Konsole gelacht hast, dabei aber nicht raffst, dass dein Rechner selbst mit 1440p rendert und auf 4K hoch skaliert, steht ja sogar so im UC4 Menü so. xD

Apropos restliche Komponenten.
Dein PCI Slot auf dem Mainboard, mit deiner 16PIN GraKa hat schon 75W bei 5,5A max. Dann fehlt der Rest immer noch 😂 und du glaubst ja wo selbst nicht, dass diese max 75W nicht ausgereizt werden bei einer GraKa, für die schon ein 800W Netzteil empfohlen wird.
 
Zuletzt bearbeitet:
Provokation
Der Gesamtverbrauch lag laut Smartplug etwas über 200W, den Großteil des Verbrauchs macht beim Gaming die GPU+CPU aus(auch außerhalb des Gamings), die restlichen Komponenten sind nicht der Rede Wert, außer man hat eine Menge klassische HDDs am Laufen, heutzutage verwendet man aber SSDs, da ich außerdem ein hochwertiges Netzteil habe, ist die Verlustleistung nicht der Rede wert.

Sollte man wissen, aber ja Quality DLSS läuft intern mit 1440p ab, greift aber durch KI auf 8K Daten(mittlerweile sogar 16K) zu, weshalb das DLSS Quality Bild in der Regel sogar besser aussieht als 4K Nativ. Nichts Neues aber etwas, das die Playdohstation halt nicht schafft. Dazu gibt's auch zu UC Vergleichsvideos hab mal das erst beste genommen:

Hier ein Screen daraus, wo ich die rechte Seite neben die Linke gestellt habe, zum einfacheren Vergleichen, man braucht sich nur die Haare und den Bart anzusehen um zu verstehen, dass DLSS hier dank der KI Unterstützung mehr Details liefert, als natives 4K:
4k-vergleich.png

Ein Extra Bonus ist das überragende DLAA als Kantenglättungslösung, das mit in DLSS eingebaut ist und der Qualität von Supersampling ähnelt.

Digital Foundry hat auch den einen oder anderen Direktvergleich zu $onys katastrophalem Checkerboard Rendering gemacht, das Ergebnis ist, selbst im Performance Mode von DLSS(1080p interne Auflösung) sieht das Bild wesentlich besser aus als was $ony mit ihrer Upscaling Lösung verbricht, die feine Linien wie in den Haaren zu sehen nicht ordentlich darstellt, was bei Bewegung zu flimmern führt:
dhl-stranding.png



Und das war noch DLSS 2.0, mittlerweile gibts 3.5 das diverse Tweaks und Verbesserungen mit sich gebracht hat, auch in Sachen Raytracing denoising.

Zum Thema DLSS vs Native habe ich schon vor vielen Monaten zu Control ein detailliertes, kurzes Video gemacht:
Ich hätte bei diesen DAUs hier nicht die Nerven, du hast eine wahre engelsgeduld 😇 und jetzt reißt der wieder den Mund auf und spielt sich auf, am besten einfach inlgnorieren, denen ist nicht zu helfen.

Danke für diese detaillierte Antwort mit Beispielen, zeigt wie überragend der PC ist, vor allem mit Nvidia karte. War die richtige Entscheidung das Geld für eine PS5 lieber in einen PC zu investieren. Meine PS4 Pro habe ich mittlerweile auch verkauft :goodwork:

Ist ein völlig anderes spielerlebnis am PC in 4K als auf der Konsole mit verschwommener Auflösung, das weiß der PS5 Besitzer natürlich nicht, der kennt halt nichts besseres als low res 😂
 
Zurück
Top Bottom