• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Also ich warte erstmal:



Keine reinen Daten nur mit DLSS:

Ich hab es der Lederjacke angesehen, da stimmt was nicht und jeder mit einer 660watt GPU ist ein Beta Tester pinonier. Nicht mal profi Internet seiten haben da Ahnung mit.

Sollte aber dennoch alles gut laufen hol ich auch die Standard 4090, die OC Modelle fressen bestimmt um die 700 Watt allein.

A) 7950x und die 2080Ti

Oder

B) 8700k und die 4090

Das sind meine Möglichkeiten und ich müsste da wählen.
 
Zuletzt bearbeitet:
Das erste Video ist BS, da es wie ich schon gesagt habe selbst bei meinem Netzteil schon bei den PCI Steckern ne Lebensdauer gab und zu den DLSS Videos die gerade auf Youtube rum gehen, hat Dictator schon im ERA geschrieben, das sie BS sind, weil es nix vergleichbares gibt, nicht mal bei der besten AI die es im Moment gibt.
Er bringt ja bald sein Video ;)

Aber gebt denen ruhig klicks :banderas:

Edit:

We have confirmed with NVIDIA that the 30-cycle spec for the 16-pin connector is the same as it has been for the past 20+ years. The same 30-cycle spec exists for the standard PCIe/ATX 8-pin connector (aka mini-fit Molex). The same connector is used by AMD and all other GPU vendors too so all of those cards also share a 30-cycle life. So in short, nothing has changed for the RTX 40 GPU series.

Hätte ich nicht damals mal genauer die ganze Bedienungsanleitung runtergeladen und gelesen, hätte ich das auch nie gewusst xD
Sollten die Youtuber vielleicht mal machen bevor sie so BS Videos bringen.
 
Zuletzt bearbeitet:
A) 7950x und die 2080Ti

Oder

B) 8700k und die 4090

Das sind meine Möglichkeiten und ich müsste da wählen
Hä? Die Wahl zwischen einer 700€ CPU und einer 2000€ GPU?

Sind beides keine guten Konfigurationen.

Das Geld, was du von einer 4090 zu einer 4080 16GB sparst, kannst du locker in eine Top CPU stecken, die genauso gut für Spiele geeignet ist.
 
Mein AM5 Board kostet auch ein gutes Stück an Kohlen samt 64GB DDR5.

Ja ich weis nicht optimal aber später würde ich ja die GPU oder CPU ersetzen. Übergangsphase bis Dec 22.

Beim der CPU juckt halt der 7950X3D ziemlich heftig. Die 4090 könnte easy mit dem 8700k auskommen aber dennoch weit weg von perfekt optimal.

Btw

(Vorspulen zur schmelz News.)
 
die OC Modelle fressen bestimmt um die 700 Watt allein.
Lol, wie kommst du drauf und wie soll das bitte gehen? Auf grund der Adapter Kabel alleine dürfen die Karten der Partner doch nicht mal mehr als 600W ziehen. Und es gibt doch schon die Specs der OC Karten und die haben genau so 450W TDP ohne das Bios zu manipulieren.
Weniger Youtube schauen ;)
 
Also ich warte erstmal:



Keine reinen Daten nur mit DLSS:

Ich hab es der Lederjacke angesehen, da stimmt was nicht und jeder mit einer 660watt GPU ist ein Beta Tester pinonier. Nicht mal profi Internet seiten haben da Ahnung mit.

Sollte aber dennoch alles gut laufen hol ich auch die Standard 4090, die OC Modelle fressen bestimmt um die 700 Watt allein.

A) 7950x und die 2080Ti

Oder

B) 8700k und die 4090

Das sind meine Möglichkeiten und ich müsste da wählen.

Quatsch mit Soße und den 700 Watt, die bekannten Specs der OC Versionen sind Bang-On 450 Watt im Bios. Nvidia und sein Kontrollzwang erlauben gar nix anderes.
 
@PlayerOne

So begeistert wie die ganzen Leute sind und es erst der anfang seien soll, werden noch viele dazu kommen. So gut wie alle sind offen dafür laut NV und begrüßen es, was sie selber wohl nicht gedacht haben.
laut nvidia ist das hier auch die derzeitige lage der pc gamer die eine neue gpu wollen
8487464652iiir.png

wahrheit ist doch eher das gimik ist für einen sehr sehr sehr geringe nazhal an 40xx gerichtet und hätte eher ein platz in einer titan gefunden wenn es die noch gäbe
naja mal schauen hätte echt nix gehen C&C generals mit besseren texturen und grafik oder kein schimmer zocke wenig dx9 game das das meiste es als remasterd rauskommt mit dx11-12 (ehrlich wüste kein dx8-9 game das ich sonst spielen wollte)

zu der neuen 600w anschluss
dir schon klar das die dingen nicht so sehr gebogen werden dürfen und unter dauerlast schon hitze entwickeln
es ist bei test zu problemen mit der hitze entwicklung gekommen (beim addapter zumindest) das sollte man nicht leugnen und wenn hersteller schon sagen "wir geben keine garantie drauf das die stecken nicht irgend wann schmeltzen" finde ich das für eu verhältnisse ehen bedenklich
für leute die groß auf kabelmanegment setzen sind die dinger nicht gut da man die nicht so biegen sollte und 600w+ ist auch kein problem da der pci slot 75w liefern kann
 
Die sollte man noch nie viel biegen, so kenne ich das seit ewigkeiten.
im grunde ja aber kennst so muss cleam aussehen und so ... für mich eh scheiss egal wie das aussieht das mit den nur 30x mal ein aussteken klingt für mich einfach nach schlechte technik und oder geplante obsoleszenz

dann die frage was für nen duchmesser haben die kabel immrhin sollen da 55amp dauerlast + doppelte spitzen drauf laufen
computer base hat da heute das zu geschrieben

probleme schein es vorallem bei singel rail PSU zu geben mit den addaptern da sie die leistung nicht geracht über alle stecker verteilen können
ein zwei rail system wie die meisten be quit psu es haben versteit diese auf zwei stecker der dritte mittlere teilt sich da die leisteung des ersten und dritten zu 50% was sicher sein sollte

aber die bilder sprechen für sich
 
Die Empfehlung vieler Boardpartner lautet daher ähnlich wie von Amphenol auch nicht mehr als 30 Steckzyklen durchzuführen.
Und jetzt sind wir genau wieder da wo wir gestern waren :nix:

Stand sogar bei PC Jesus bei den Bildern, (CB ist da etwas spät mit dem copy&paste) dass es bei wenig zyklen keine Probleme gab in den Tests.
Gilt also wie immer, wer GPUs Benchmarks macht, sollte leiber wieder mal das Kabel tauschen nach vielen verwendeten GPUs. Einen Normalen PC Gamer der die Karte vielleicht 2-3x aussteckt um nochmal was im gehäuse zu ändern oder ein neues Board einbaut, sollte das nicht wirklich kümmern.
Und ich glaube auch kaum das sich schon 3090Ti käufer nicht ein gutes ATX 2.4 Netzteil gekauft haben mal vor 2 Jahren oder so, die sind ja eigentlich schon Standart. Und wer OC betreiben möchte, sollte auch scon bei der 3090Ti aus 1000W gehen.
 
Man muss sich nur mal die Kommentare von echten Menschen anschauen, die alle ,mit hohen Like Zahlen, genau das sagen was ich sagte.

660 Watt hier muss erstmal getestet werden und abgewartet werden.
 
Glaub nicht das die sagen das die Custom Karten 700W brauchen :banderas:

Und lol @ hohe like Zahlen von CB xD

Dann müssten wir schon auf Micro LED Monitoren Zocken und NV wäre Pleite und AMD ihre GPUs halb so teuer und doppelt so schnell, wenn man auf die was geben könnte xD :banderas:

Als nächstes nehmen wir dann hohe like Zahlen bei youtube Kommentaren :goodwork:
 
:banderas:

Muss aber standhaft bleiben und meinen 5900X weiter nutzen :D
 
:banderas:

Muss aber standhaft bleiben und meinen 5900X weiter nutzen :D
Kannst du auch, ohne Probleme. Im Gegenteil, dein Baby frisst angenehm Strom und wird bestimmt nicht oft ins Throtteln kommen.
Aber ja Amuro, nach all den Test´s, es muss X3D dabei sein. Es ist ein Musthave ohne Ausnahme mMn.

Aufgrund der extrem Preise bei AM5, check ich aber auch mal die Raptoren ab. Ein 7950 X3D wäre jedoch einfach weit oben als der König aller Mainstream CPUs, egal was die Raptoren an Strom fressen, da helfen Intel auch keine 500Watt mehr.
 

ja, krönt sich selbst, mit dem 5900X 3D und nicht mit der 7xxer Reihe, wo man sonst lieber einen aus der 12. Intel Gen nehmen sollte, verbraucht auch weniger Strom und ist günstiger. :ugly:

verstehe dein problem wieder mal nicht in fast alle synthetischen benchmarks oder anderen nicht game programen
genau schlägt er alder lake und den 5800x3d teils um längenin sachen leistung, etwas das vorallem dem alder lake immer zu gute gelegt wurde wenn der 5800x3d den 12900k/s in games deklassierte hat
klar in games wir er weniger vorteile haben da kein v cache vorhanden ist wie die 5800x3d das war aber schon vorhersehbar

verbrauch wurde auch klipp und klar gesetzt im teil last bereich schneide intel beswser aber das wars dann auch
beim direkten verbrauch beim rendern ist da nicht viel unterschied was den verbrauch angeht zwischen 12900k 8 + 8 teilkernen und dem 7950 mit 16 vollwärtigen kernen

zudem hat der auch nette sachen wie automatischen anpassen des speicher was timings und taktung des rams angeht
es dauert zwar beim ersten starten länger dadurch aber dafür hast den die perfekten settings für den ram

und die sache mit dem temp schein igor nicht mal richtig anzusprechen die 90°c erreicht er meist sogar sehr schnell weil er scheinbar dadurch den maximalen takt fpür die cpu ermittelt und da wird dann auch nicht runter getaktet der lüft dann halt bei dem takt und dem 90°c durch ohne probleme
das ist nicht so mein ding aber scheine funktioniert es ja halt

der bauer vom feld hat den auch schon geköpft und sie an 70°c waren es dann und 5.5ghz auf allen in seine fall 12 kernen
im grunde sind die kritiken bisher etwas teuer und hohe temperatur nicht er ist zu langsame oder verbraucht so viel mehr als intel
 
Was für ein Problem? AMD schlägt AMD selbst.
Intel 12er haben weniger Stromverbrauch, sind günstiger und in diversen Spielen (Spider-Man) überlegen, siehe Link.

Für den "Intel"-Killer taugen die neuen Ryzen nicht so viel, sollte man lieber auf die noch teuren 3D Versionen warten, ansonten eher zum 5900 3D greifen

Ach ja und 90 Grad warm werden die ja auch noch

btw
 
Zuletzt bearbeitet:
Zurück
Top Bottom