PlatformWAR Playstation PC vs. Playstation 5

Was ist besser?


  • Stimmen insgesamt
    122
Dein PCI Slot auf dem Mainboard, mit deiner 16PIN GraKa hat schon 75W bei 5,5A max. Dann fehlt der Rest immer noch
Wow, ich bin ja technisch nicht sonderlich begabt aber selbst ich weiß, dass da oben der Gesamtstromverbrauch der Grafikkarte gemessen und angezeigt wird. Also was die Grafikkarte über das Motherboard und direkt vom Netzteil zieht. Das sind dann eben rund 320 Watt. Warum sollen die Grafikkartrnhersteller den Stromverbrauch auch getrennt angeben? Was da beim Stromverbrauch fehlt ist halt der RAM das sind ca. 3 Watt und das motherboard + der Speicher. Wenn das von einer ssd gelaufen ist, hat er wahrscheinlich auch nur ein paar Watt obendrauf verbraucht. Vielleicht waren es 210 Watt, da müsste man ein Messgerät dranhängen. Ist auch klar, dass man für so ein Video gerne den niedrigsten wert sucht um die Leute zu baiten. Wurdest ja auch ordentlich gebaited und getriggert und bei der überragenden PC Technik bleibt dir die Spucke weg :)

Die PS5 schluckt übrigens sagenhafte 230W wenn sie gefordert wird, also wirklich nicht rühmlich, für die Schwache Leistung:

"I joined Yennifer in the search for Ciri on Hindarsfjall and through a couple of cutscenes the power stayed at around 230 watts."

Dass der PC dann bei doppelt so hoher Framerate oder Auflösung auch 400W schluckt ist doch nur fair.
 
Zuletzt bearbeitet:
Wow, ich bin ja technisch nicht sonderlich begabt aber selbst ich weiß, dass da oben der Gesamtstromverbrauch der Grafikkarte gemessen und angezeigt wird. Also was die Grafikkarte über das Motherboard und direkt vom Netzteil zieht. Das sind dann eben rund 320 Watt. Warum sollen die Grafikkartrnhersteller den Stromverbrauch auch getrennt angeben? Was da beim Stromverbrauch fehlt ist halt der RAM das sind ca. 3 Watt und das motherboard + der Speicher. Wenn das von einer ssd gelaufen ist, hat er wahrscheinlich auch nur ein paar Watt obendrauf verbraucht. Vielleicht waren es 210 Watt, da müsste man ein Messgerät dranhängen. Ist auch klar, dass man für so ein Video gerne den niedrigsten wert sucht um die Leute zu baiten. Würdest ja auch ordentlich gebaited und getriggert und bei der überragenden PC Technik bleibt dir die Spucke weg :)

Die PS5 schluckt übrigens sagenhafte 230W wenn sie gefordert wird, also wirklich nicht rühmlich, für die Schwache Leistung:

"I joined Yennifer in the search for Ciri on Hindarsfjall and through a couple of cutscenes the power stayed at around 230 watts."

Dass der PC dann bei doppelt so hoher Framerate oder Auflösung auch 400W schluckt ist doch nur fair.
Unfassbar was ihr für nen Damagecontrol betreibt um die falsche narrative eures buddy's zu verteidigen.

Mittlerweile sind wir also schon bei 320W angekommen - nur die GPU.. Joa fast richtig. Mal schauen wie ich ihr euch noch nach oben korrigieren wollt.

 
Mittlerweile sind wir also schon bei 320W angekommen - nur die GPU.. Joa fast richtig.
Nur weil du nicht richtig lesen kannst, man sieht in den Videos ja den Stromverbrauch der Grafikkarte ganz genau. Wenn sie sich auf PS5 Qualität langweilt 130W und wenn sie voll ausgelastet wird eben bis zu 320W.

Und das mit den Lastspitzen ist auch keine neue Erkenntnis. Hochwertige Netzteile können kurze Spitzen mit den Kondensatoren ausgleichen, am Stromverbrauch selbst ändern diese sekundenbruchteile aber so gut wie nichts.
 
Zuletzt bearbeitet:
Nur weil du nicht richtig lesen kannst, man sieht in den Videos ja den Stromverbrauch der Grafikkarte ganz genau. Wenn sie sich auf PS5 Qualität langweilt 130W und wenn sie voll ausgelastet wird eben bis zu 320W.
Von nicht richtig lesen Sprechen aber selbst es nicht können?! Bist ziemlich schnell auf dem Niveau von The Prophet angekommen mit seiner beschränkten Horizont Aussage. Respekt. Wenn du richtig gelesen und verstanden hättest, wüsstest du, dass die PCI-E 16pin Slots eben einfach bis max 75W vom Mainboard aus befeuert werden... kein Geheimnis, schließlich ist das die Industrie Norm, um eben jene Grafikkarten überhaupt zum laufen zu bringen. Und darum gehts ja auch, dass dein Buddy meint, diese Bauteile spielen keine Rolle und brauchen keinen Strom, ergo die max 75W auf dem PCI-E Slot + alle anderen Bauteile sind egal... Ja Dulli-Rechnung halt. Auch wenn deine 130W GPU sich langweilt, dann braucht der Rest des PC trotzdem Strom.

Das ist von Anfang an das Thema hier. Anstatt mal den Fail vom Video zu kritisieren, versuchst du nun auch mit aller gewallt irgendwelche Fantasiezahlen in den Raum zu werfen um vom Thema abzulenken und drehst die Wörter im Mund herum.

Und jetzt, liefere mir erst mal von nem Wattmeter die PS5-Watt in UC4, oder irgend jemanden der das gemessen hat. Danke.

Und das mit den Lastspitzen ist auch keine neue Erkenntnis. Hochwertige Netzteile können kurze Spitzen mit den Kondensatoren ausgleichen, am Stromverbrauch selbst ändern diese sekundenbruchteile aber so gut wie nichts.
Thema verfehlt.
 
Zuletzt bearbeitet:
dass die PCI-E 16pin Slots eben einfach bis max 75W vom Mainboard aus befeuert werden
Die Grafikkarte verbraucht angenommen 320W: ein Teil davon kommt von den 8 Pin Kabeln und bis zu 75W davon kommen aus dem PCIE Slot. Eine 3080 hat meistens 2x 8 Pin, das sind 2x150W direkt aus dem Netzteil, den Rest zieht sie aus dem PCIE Slot.

Hier ist ein reddit post zu einem ähnlich verwirrten user wie dir, der sich wundert warum seine Grafikkarte 200W zieht, obwohl ein 8 Pin nur 150W liefert:


Theoretisch maximum wären 225W bei dieser Grafikkarte und bei der 3080 375W -nur verbrauchen die das anscheinend nur mit Übertaktung und müssen auch ab Werk dafür freigeschaltet sein, die meisten sind auf 320-330W beschränkt wie es scheint. Sieht man auch als Verbrauch in den anderen Videos von @TheProphet

Und jetzt, liefere mir erst mal von nem Wattmeter die PS5-Watt in UC4
Kannst du selbst suchen oder besser noch selbst messen, habe keine PS5.

Spielt aber auch alles keine Rolle. Die Sache ist gegessen, die PS5 versagt gegen den PC in Sachen Bildqualität und auch oft bei der Framerate und die paar Cent höhere Stromrechnung kann man mit den günstigeren Spielereisen leicht kompensieren :)
 
Das eure Lügen und Widersprüche spätestens hier keinen Sinn mehr ergeben, sollte aber selbst dir auffallen.

Der Gesamtverbrauch lag laut Smartplug etwas über 200W

Wir nehmen die etwas über 200W (auf ein mal) mit "Smartplug" gemessenen Watt als Grenze. :uglygw:

Wenn sie sich auf PS5 Qualität langweilt 130W und wenn sie voll ausgelastet wird eben bis zu 320W.

Alles klar, jetzt subtrahieren wir deine von der GraKa gelangweilten 130W... :uglygw:

Es bleiben also ~70W für Mainboard, 32GB RAM, SSDs, CPU Kühler, Gehäuse Lüfter, Laufwerke, evtl. RGB-Bel; der Knaller jedoch ist die CPU, die alleine schon im Idle 46W verbrät. Und natürlich braucht man für Uncharted 4 auf dem PC keine CPU. Weil CW-Masterrace'Doh und so.
 
Was für ein unfassbar schwachsinniges gelaber.
Muss ich mir bei jedem einzelnen deiner Posts denken, du versuchst ganz logische Dinge als große Erkenntnis zu verkaufen, das klappt aber auch nur bei deinen Playdohstation Homies :goodwork:
Wir nehmen die etwas über 200W (auf ein mal) mit "Smartplug" gemessenen Watt als Grenze. :uglygw:
Dir scheint sogar das Wort "Smartplug" ein Fremdwort zu sein, da du das wiederholt hervorhebst, ich möchte auflösen: https://www.amazon.de/Energy-Monitoring-Continuous-Outlet-Certified/dp/B0BPJRWN77/

Damit kannst du am Smartphone den Verbrauch anzeigen lassen, ist genauso ungenau oder genau wie ein Strommesser mit LCD Anzeige.
der Knaller jedoch ist die CPU, die alleine schon im Idle 46W verbrät.
Wenn für dich Uncharted 4 "idle" ist dann ja :lol: - Viel mehr als max. 60W verbraucht sie übrigens im Gaming dank undervolting(und weil sie eben nicht voll ausgereizt wird) nie, Uncharted mit seiner schwachen KI ist natürlich besonders wenig fordernd :goodwork:

Kannst ja rechnen: 136W GPU +46W CPU = 182W + Mainboard mit RAM und SSD 20W = 197W + Netzteil Effizienz, bei dem Stromverbrauch liegt sie recht hoch, quasi im Sweetspot mit rund 95%, kannst also rund 5% aufschlagen, kommen wir auf rund 206W und in dem Bereich ist der Verbrauch auch gewesen, ist wirklich keine Hexerei. 75W vom PCI Slot oben drauf zu rechnen ist natürlich Unsinn, die Grafikkarte nimmt sich nur was sie braucht. Im Echten "idle"(internetsurfen) schluckt mein gesamter PC übrigens nur 78W laut dem Strommessgerät. -Ansonsten:
Spielt aber auch alles keine Rolle. Die Sache ist gegessen, die PS5 versagt gegen den PC in Sachen Bildqualität und auch oft bei der Framerate und die paar Cent höhere Stromrechnung kann man mit den günstigeren Spielereisen leicht kompensieren :)
Damit wäre alles gesagt :goodwork:
 
Also irgendwie ist das wie üblich auf CW teilweise echt abstrus.
Am besten war dann, ABBA ABBA Grafik RTX 3080.

Jo, zum Wohl.
Ne Grafikkarte die damals 2-3x teurer als ne komplette Konsole war hat mehr Grafik? Wow, der Hammer.
Wäre auch übelst peinlich wenn es anders wäre 🫣
 
Ne Grafikkarte die damals 2-3x teurer als ne komplette Konsole war hat mehr Grafik? Wow, der Hammer.
Wollen manche hier ja anscheinend nicht wahrhaben und 2-3x teurer ist Blödsinn, ich habe 600 Euro gezahlt und 350 Euro für meine alte Grafikkarte bekommen(3060Ti), für die ich auch 600 gezahlt habe, da waren die Preise noch aufgebläht. Was bekommt man denn so für ne gebrauchte PS4 ? 150 Euro? :ugly:
 
Wieder mal müssen/mussten die PC'ler den verbuggten scheiss zocken xD


xD

Netter Versuch aus einem 2016er PS4 Spiel irgendwie nen PC-Win zu ziehen... ihr schießt den Vogel ab. Danke :D

Btw.


⬆️:lol:
Das Motion Blur wird benutzt damit man die 30fps kaschiert. Und die PS5 benutzt das immer noch bei einem PS4 Spiel.

Auch als (Büro PC alias) konsolen Spieler kennt man bugs.

High Setting von Spiderman wurden klar wiederlegt und bei UC4 wirst du nicht beweisen können, das der PC bei Ultra diese PS4 Schatten hat.


lif3cov78ce81.jpg




btw

Alle warten auf FF 16 auf dem PC, weil man auf der PS5 die Rückkehr der 720p nicht sehen will.

Final Fantasy XVI @ PS5​

720p 40fps or 1080p 30fps​





 
Wollen manche hier ja anscheinend nicht wahrhaben
Ein PC war schon immer die Wahl für alle die wirklich alles an Grafik rausholen wollen, unabhängig von den Kosten.
Das war schon immer so.

Von der Preis Leistung sind die Konsolen aber ebenfalls sehr gut.
Kommt halt drauf an was man erwartet.
und 2-3x teurer ist Blödsinn, ich habe 600 Euro gezahlt und 350 Euro für meine alte Grafikkarte bekommen(3060Ti),
Ja gebraucht vermutlich?
2020 zum Release der Konsolen lag eine 3080 bei 699€ und war kaum lieferbar und ging schnell an die 1000€ teilweise, nur die Grafikkarte.

Dann fehlt noch RAM, Board, Gehäuse, Speicher, Netzteil, usw.
Ein Gesamtsystem mit 3080 wäre aber um 1000-1500 Euro damals gewesen.

für die ich auch 600 gezahlt habe, da waren die Preise noch aufgebläht. Was bekommt man denn so für ne gebrauchte PS4 ? 150 Euro? :ugly:
Weiß nicht, nie mit befasst.
 
Das Motion Blur wird benutzt damit man die 30fps kaschiert

Motion Blur oder alle anderen Verwascheffekte sind auch die ersten, die ich abschalte. Grausig. Mittlerweile gibt es aber auch einige Konsolentitel wo man immerhin Tiefenunschärfe abschalten kann. Mindestens genauso mies wie chromatische Aberration. Ich wünschte sowas könnte man auch auf Konsole immer ausschalten.
 
Zuletzt bearbeitet:
Motion Blur oder alle anderen Verwascheffekte sind auch die ersten, die ich abschalte. Grausig. Mittlerweile gibt es aber auch einige Konsolentitel wo man immerhin Tiefenunschärfe abschalten kann. Mindestens genauso mies wie chromatische Aberration. Ich wünschte sowas könnte man auch auf Konsle immer ausschalten.
Ich bekomme davon manchmal Motion Sicknes
 
Also ein weiterer thread in dem die Verbreitung von fake News toleriert wird?
Man könnte einfach mal zugeben, dass die Messung aus dem Video so ein einfach Quatsch ist. Wenn er wenigstens nativ4K@30FPS am PC hätte rendern lassen, statt 1440p@DLSSQuality - wie eben auch die von ihm im Video belächelten PS5 Settings 30FPS@4K sind... er sagt es ja selbst noch xD Dann würde zwar das restliche PC-System immer noch in der Dulli-Rechnung fehlen... aber naja...

So wird aktuell einfach nur:

PC mit 1440p@DLSS4K@30FPS und lediglich GPU+CPU Leistungsaufnahme

vs.

PS5 nativ4k@30FPS/40FPS mit erfundener Watt Zahl verglichen.


Ja, die PS5 Version von UC4 kann in nativ4K@40FPS laufen. Ist ja so eine weitere Unwahrheit, die schon vor ein paar Tagen hier bereits für einen Meltdown gesorgt hat.

@VGTech
PS5 in the 40fps fidelity mode added in patch 1.002.000 renders at a native resolution of 3840x2160.

Und jo, ne PS5 zieht im nativ4K@40FPS Modus bestimmt mehr Strom, als im nativ4k@30FPS Modus.
 
2020 zum Release der Konsolen lag eine 3080 bei 699€ und war kaum lieferbar und ging schnell an die 1000€ teilweise, nur die Grafikkarte.
Ja das war ne traurige Epoche des PC Gamings aber ist auch vorbei. Heute kriegst die 4070 für 600 Euro neu die ca gleich gut ist je nach Settings und DLSS 3 beherrscht zum noch mehr Frames herbeizaubern. Nächste Generation wird vermutlich richtig krass, auch was Preis/Leistung angeht, dürfte zugleich mit der PS5 Pro erscheinen.
 
Motion Blur oder alle anderen Verwascheffekte sind auch die ersten, die ich abschalte. Grausig. Mittlerweile gibt es aber auch einige Konsolentitel wo man immerhin Tiefenunschärfe abschalten kann. Mindestens genauso mies wie chromatische Aberration. Ich wünschte sowas könnte man auch auf Konsole immer ausschalten.
Ich auch, direkt auschalten. Ausser bei R&C auf PS5, da musste ich es an machen im "Kino Mode"

30fps ohne Motion Blur ist ein Horror.
 
Der Gesamtverbrauch lag laut Smartplug etwas über 200W, den Großteil des Verbrauchs macht beim Gaming die GPU+CPU aus(auch außerhalb des Gamings), die restlichen Komponenten sind nicht der Rede Wert, außer man hat eine Menge klassische HDDs am Laufen, heutzutage verwendet man aber SSDs, da ich außerdem ein hochwertiges Netzteil habe, ist die Verlustleistung nicht der Rede wert.

Sollte man wissen, aber ja Quality DLSS läuft intern mit 1440p ab, greift aber durch KI auf 8K Daten(mittlerweile sogar 16K) zu, weshalb das DLSS Quality Bild in der Regel sogar besser aussieht als 4K Nativ. Nichts Neues aber etwas, das die Playdohstation halt nicht schafft. Dazu gibt's auch zu UC Vergleichsvideos hab mal das erst beste genommen:

Hier ein Screen daraus, wo ich die rechte Seite neben die Linke gestellt habe, zum einfacheren Vergleichen, man braucht sich nur die Haare und den Bart anzusehen um zu verstehen, dass DLSS hier dank der KI Unterstützung mehr Details liefert, als natives 4K:
4k-vergleich.png

Ein Extra Bonus ist das überragende DLAA als Kantenglättungslösung, das mit in DLSS eingebaut ist und der Qualität von Supersampling ähnelt.

Digital Foundry hat auch den einen oder anderen Direktvergleich zu $onys katastrophalem Checkerboard Rendering gemacht, das Ergebnis ist, selbst im Performance Mode von DLSS(1080p interne Auflösung) sieht das Bild wesentlich besser aus als was $ony mit ihrer Upscaling Lösung verbricht, die feine Linien wie in den Haaren zu sehen nicht ordentlich darstellt, was bei Bewegung zu flimmern führt:
dhl-stranding.png



Und das war noch DLSS 2.0, mittlerweile gibts 3.5 das diverse Tweaks und Verbesserungen mit sich gebracht hat, auch in Sachen Raytracing denoising.

Zum Thema DLSS vs Native habe ich schon vor vielen Monaten zu Control ein detailliertes, kurzes Video gemacht:
Wahnsinn. Kein Wunder das die Sonys so traurig sind. Wie sie mindestens eine Generation dem PC hinterherhinken...

Da lobe ich mit meine Switch die hat wenigstens im Gegensatz zur Ps5 gute Exklusivspiele und die bleiben auch exklusiv :D
 
Nur weil du nicht richtig lesen kannst, man sieht in den Videos ja den Stromverbrauch der Grafikkarte ganz genau. Wenn sie sich auf PS5 Qualität langweilt 130W und wenn sie voll ausgelastet wird eben bis zu 320W.

Und das mit den Lastspitzen ist auch keine neue Erkenntnis. Hochwertige Netzteile können kurze Spitzen mit den Kondensatoren ausgleichen, am Stromverbrauch selbst ändern diese sekundenbruchteile aber so gut wie nichts.
Das ist schon Unglaublich. Überhaupt keine Ahnung will aber einen Golf 5 als über den Cyber Truck stellen.
 
Zurück
Top Bottom