PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Demnach ist die RX 6950 XT nicht nur ein kleines Upgrade gegenüber der RX 6900 XT. Im Gegenteil: Der Leistungssprung in 3DMark Time Spy ist richtig groß.

Für die PS5 Pro wäre es ja nice aber wohl teuer für Cernylein.

"Bei 3DMark Time Spy handelt es sich um einen synthetischen Benchmark. Ob wir in Spielen eine ähnliche Performance-Steigerung sehen werden, ist allerdings fraglich. Zumal die RX 6950 XT an sich nur kleinere Upgrades gegenüber der RX 6900 XT erfährt

Auch wenn die Benchmark-Ergebnisse beeindruckend sind, raten wir zu Vorsicht beim Genuss selbiger. Dass die RX 6950 XT wirklich 13 Prozent in Spielen vor der RX 6900 XT liegt, halten wir angesichts der überschaubaren Upgrades für eher unwahrscheinlich.

Denkbar ist, dass 3DMark Time Spy besonders gut auf höhere Taktraten und schnelleren VRAM anspricht und die Werte deshalb so hoch ausfallen. Letztlich können das aber nur praxisnahe Spiele-Benchmarks klären. Wir sind also gespannt!"


11% mehr Strom für theoretische 13% mehr Leistung ist doch nichts.
 
Das ist ein Standard Text und gilt für alle Grafikkarten, der indikator ist aber die 6900 und da gibt es anscheinend einen großen Sprung.
Wenn man den Strom der 6950 und 3090Ti vergleicht ist das dann doch was ganz besonderes.

btw Es gab die gleiche Standard Warnung auch beim X3D.
 
Zuletzt bearbeitet:
Das ist ein Standard Text und gilt für alle Grafikkarten, der indikator ist aber die 6900 und da gibt es anscheinend einen großen Sprung.
Wenn man den Strom der 6950 und 3090Ti vergleicht ist das dann doch was ganz besonderes.

btw Es gab die gleiche Standard Warnung auch beim X3D.

Strom war noch nie Nvidias stärke, ich weiß nicht ob das zählen sollte :coolface:
 
1080Ti und 2080Ti haben AMD vorgeführt. Jetzt ist es umgekehrt. Mein PC ähnelt dem PS5 Stromverbrauch, ich hab natürlich etwas mehr.

Ich glaube bei Nvidia war nur FERMI (GTX 480) schlecht und die 3x Serie.

Du hast selbstverständlich auch Recht man muss die Tests abwarten.

edit:
 
Zuletzt bearbeitet:
Ich sehe nicht, wo AMD Nvidia vorführt, mit einer Karte, die vermutlich mit der 1,5 Jahre alten 3090 im echten Leben gleichzieht gleichzieht und bei RT immer noch deutlich hinterherhinkt.
 
Es geht aber um den Stromverbrauch.
Der ist ja bei Nvidia auch in Ordnung, solange du nicht die top of the line Karten nutzt. Meine 3060Ti schlägt sich zB. recht gut, nahe dran an einer non OC 2080Ti aber schluckt "nur" 200W, wo die 2080Ti gerne schon Richtung 300W geht. Der Sweetspot bei Nvidias aktueller Architektur wird aber noch etwas weiter drunter sein, so eine 3050 schluckt lediglich 120W und liefert 10% weniger Performance als eine 2060 die 160W schluckt unter Last. Also 10% weniger Leistung bei 35% weniger Stromverbrauch. Das Problem ist, dass ab der 3080 nicht viel von dieser Effizienz übrig bleibt, weil Nvidia hier klar Performance über Effizienz gestellt hat und die Chips mit der Brechstange hochtaktet, das schluckt eben viel Extrastrom.

Die kommende Generation wird wahrscheinlich noch etwas effizienter aber viel davon wird man nicht merken, weil man sich weiter einen Rüstungswettlauf mit AMD liefern wird und da auf Kosten des Stromverbrauchs das letzte Frame rausquetschen wird wollen. Den Enthusiasten ist das großteils egal, die legen 2000 Euro für eine Strix hin, wenn sie dafür noch bessere Kühlung und damit noch mehr OC Potential hat.
 
Die Hardware der PS5 ist imo ausreichend. Hätten das Teil für 449 Euro anbieten sollen und nur eine Version (also nur Disc).
Außerdem ein besseres Design und bessere Spiele. Ach ja und die interne SSD leichter zum Ausbauen (wobei das geht glaube ich nicht oder?) Gibt noch einen zweiten Slot aber mehr Optionen schadet ja nicht.
Keine Ahnung, aber das Design der PS5 ist imo ein Fail. Sony sollte eine Revision rausbringen.
 
Der ist ja bei Nvidia auch in Ordnung, solange du nicht die top of the line Karten nutzt. Meine 3060Ti schlägt sich zB. recht gut, nahe dran an einer non OC 2080Ti aber schluckt "nur" 200W, wo die 2080Ti gerne schon Richtung 300W geht. Der Sweetspot bei Nvidias aktueller Architektur wird aber noch etwas weiter drunter sein, so eine 3050 schluckt lediglich 120W und liefert 10% weniger Performance als eine 2060 die 160W schluckt unter Last. Also 10% weniger Leistung bei 35% weniger Stromverbrauch. Das Problem ist, dass ab der 3080 nicht viel von dieser Effizienz übrig bleibt, weil Nvidia hier klar Performance über Effizienz gestellt hat und die Chips mit der Brechstange hochtaktet, das schluckt eben viel Extrastrom.

Die kommende Generation wird wahrscheinlich noch etwas effizienter aber viel davon wird man nicht merken, weil man sich weiter einen Rüstungswettlauf mit AMD liefern wird und da auf Kosten des Stromverbrauchs das letzte Frame rausquetschen wird wollen. Den Enthusiasten ist das großteils egal, die legen 2000 Euro für eine Strix hin, wenn sie dafür noch bessere Kühlung und damit noch mehr OC Potential hat.
Du vergleichst ein Flaggschiff mit Standard Klasse. Nimm doch mal die (Super und non super) 2060/2070 das ist fair und wie sieht es dann aus?
 
Freue mich schon auf mein 1500 Watt Netzteil, das garantiert niemals den Geist aufgibt und mir alles zerschießt.

Welche Solarzellen habt ihr eigentlich euch angeschafft? Ich wüsste nicht, wo ich die Akkumulatoren platzieren sollte, weil mein Vermieter das sicher nicht auf der Loggia sehen will. Bislang plane ich das unter unser Ehe-Hochbett zu installieren, aber die Kabel vom Dach zu uns fallen auf, wenn ich das über das Fenster handhabe. Außerdem wird es langsam wieder warm.

Irgendwelche Vorschläge?

---

Ich meine, ich habe ja nichts gegen einen hohen Stromverbrauch, aber anscheinend wird's nächste Generation echt bei 800 Watt enden. Wie wollen die das kühlen? Ich kann kaum meine 3070 manuell ansteuern, ohne dafür eigene Software zu installieren (Gigabyte). So langsam reicht mir die Scheiße mit der Bloatware.

Der Trend geht zu Micro. Ich liebe Big Tower (habe den hier: https://www.caseking.de/phanteks-enthoo-pro-2-big-tower-schwarz-geph-129.html ), aber ich bin da echt nicht der Normalfall bei den Bastlern. Normies werden das mit dem Strom erst recht in Deutschland immer kritischer sehen.

Und da ist's egal, wie stark die Leistung sich steigert. Man kriegt sogar überhaupt irgendwelche gescheiten Netzteile immer schwieriger. Dann mit 1000w aufwärts? lol
 
Ich habe schon immer auf den Stromverbrauch geachtet. Zum Beispiel kaufe ich mir keine CPU, welche mehr als 100 Watt unter Last verbraucht. Bei Grafikkarten sind 200 Watt bei mir die Grenze. Für meine Bedürfnisse reicht so ein Setup auch vollkommen.
 
Dann investiere ich in eine neue CPU und behalt meine Garaka vorerst. Bei dem Stromverbrauch und Drosselungen über die fast niemand spricht. Erst Jahre später wird man den Drossel Zwang bei hohem Stromverbrauch ansprechen, jetzt schadet es dem Marketing.

Könnte sein das eine kleinere Karte mehr abliefern kann auf Dauer.

Siehe auch zb:

Ihr müsst euren Hotspot an der Grafikkarte messen unbedingt mMn.
 
Geiles Marketing: erst 600watt Story bringen um dann zu sagen ach 450 watt reichen aus weil AMDs Next Gen zu schwach ist :coolface:

Demzufolge kommt die GeForce RTX 4090 als vorerst größte Ausbaustufe „nur“ noch mit 126 aktiven von im AD102-Chip Gerüchten zufolge 144 vorhandenen Streaming Multiprocessors daher und offensichtlich auch deshalb mit nur 450 statt der zuletzt kolportieren 600 Watt aus. Er sei „enttäuscht von RDNA 3“, so der Leaker, und wollte damit offenbar andeuten, dass Nvidia zum Start nun offensichtlich doch nicht die 600-Watt-Brechstange rausholen werde, weil es gegen AMDs neues Flaggschiff nicht notwendig sei.


 
Zurück
Top Bottom