PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Das kann gut sein. Marketing halt. Und auch ich schau hin. Es stimmt schon ich hab meinen 2600K direkt zum Launch gekauft bis zum 8700K.


Das war eine halbe Ewigkeit. Und der 2600K läuft immer noch bei meinem Bruder.
 
Das war eine halbe Ewigkeit. Und der 2600K läuft immer noch bei meinem Bruder
Ist zwar ein 4700, aber auch der hat jetzt etliche Jahre sehr gute Dienste verrichtet. Wäre mein PC nicht defekt, würde ich ihn auch erst Ende 2021 gegen einen Intel 12th gen erst austauschen, aber im Moment landet Intel einfach keinen Stich gegen AMD, jedenfalls bei vergleichbarer Leistungsaufnahme
 
Hab jetzt auch mit Resident Evil 7 angefangen, dem GamePass sei Dank... erst mal, KRASS sieht das geil aus, fast schon fotorealistisch ?!! PC Gaming ist einfach das Beste, hab es damals auf der PS4 mal angezockt, da liegen wirklich Welten dazwischen.

Das Spiel ist das perfekte Beispiel, dass Optik nicht nur reiner Selbstzweck für Grafiknerds ist, sondern sehr der Immersion dienlich ist. Ich bin bei dem Spiel tatsächlich angespannt und es reagieren Instinkte in mir, die mir sagen bzw. das Gefühl geben, neeeein ich will nicht in diesem Haus sein und durch die Türe will ich mal so gar nicht ???
 
Und nicht alle Spiele werden von AMD optimal supported. Z.B. weiß ich das Landwirtschaft Simulator 19 bei einigen AMD Graka angeblich Grafikfehler passieren. Auch gibt es einige Grafikspielerein wie PhysiX und keine Ahnung welches Game es war zusätzliche Grafikeffekte bei NVidia einschalten lassen wie zusätlich Nivdia Partikel oder Laubdarstellung.
 
"Big Navi": Benchmarks zu unbekannter AMD-Grafikkarte dürften Nvidia nicht beängstigen


Das wusste Nvidia und hat ihrere eigne 2080Ti Platt gemacht um eine 2080Ti mit 350Watt zu zeigen.

Das heißt die beste Strom/Power Leistung liegt allgemein beim 2080Ti Speed. Alles darüber muss spürbar mehr Strom schlucken.

Nvidia hatte keine andere Wahl.
Jetzt zählt nicht mehr wie schnell die 6900XT ist sondern wieviel Strom die schluckt.

Angeblich liefert die 6900XT - 2080Ti Speed mit 180 Watt Max 200. So könnte AMD selbst eine 6900XT Pro bringen.

Nvidia und AMD haben nun den selben Speed bei ca 200 bis 250 Watt. Das wusste Nvidia und musste deren Karten auf 320/350 Watt prügeln.

Fairweise muss man sagen, das AMD bei TSMC produziert und bei 7nm hab ich mir mehr erhofft.
 
Zuletzt bearbeitet:
"Big Navi": Benchmarks zu unbekannter AMD-Grafikkarte dürften Nvidia nicht beängstigen


Das wusste Nvidia und hat ihrere eigne 2080Ti Platt gemacht um eine 2080Ti mit 350Watt zu zeigen.

Das heißt die beste Strom/Power Leistung liegt allgemein beim 2080Ti Speed. Alles darüber muss spürbar mehr Strom schlucken.

Nvidia hatte keine andere Wahl.
Jetzt zählt nicht mehr wie schnell die 6900XT ist sondern wieviel Strom die schluckt.

Angeblich liefert die 6900XT - 2080Ti Speed mit 180 Watt Max 200. So könnte AMD selbst eine 6900XT Pro bringen.

Nvidia und AMD haben nun den selben Speed bei ca 200 bis 250 Watt. Das wusste Nvidia und musste deren Karten auf 320/350 Watt prügeln.

Fairweise muss man sagen, das AMD bei TSMC produziert und bei 7nm hab ich mir mehr erhofft.

Ich finde es ja irgendwie schon leicht seltsam, dass du keine Probleme damit hast, Hunderte und Aberhunderte Euro für extrem teure Hardware aufgibst aber dann bei den paar Euro, die das im Jahr mehr an Strom kostet, so ein Fass aufmachst :hmm2:
 
LOL ?

Mehr Strom heißt Hitze und damit die Gefahr zum runtertaken damit die Temps gehalten werden können. Es geht nur um die Leistung und Wärme Entwicklung. Ihr müsst wirklich wissen das 320 Watt einfach Zuviel sind wenn sie von Werk aus kommen.
 
LOL ?

Mehr Strom heißt Hitze und damit die Gefahr zum runtertaken damit die Temps gehalten werden können. Es geht nur um die Leistung und Wärme Entwicklung. Ihr müsst wirklich wissen das 320 Watt einfach Zuviel sind wenn sie von Werk aus kommen.
Naja ich finde den Stromverbrauch der RTX3080 auch verdammt hoch und die Hitze ist im Sommer sicher unbequem ohne Klima aber wegen dem throttlen würde ich mir keine Sorgen machen, Nvidia hat die Karten schon so designed, dass die wohl schon ab Werk ordentliche Taktraten fahren werden und daran die 320W TDP festgemacht.

Die Sache ist halt, dass die Karte einfach deutlich mehr Transistoren und Cudo Cores hat(auch wenn man die nicht 1:1 vergleichen kann) natürlich steigt da der Stromverbrauch.

Wie er nicht drauf klar kommt, das man noch vor der AMPERE Präsentation locker seine 2080Ti für 900€ verkaufen konnte :banderas:

Hätte er halt auf mich gehört :nix:
Du kannst sie ja sogar jetzt noch zu dem Preis loswerden okay 900 nicht aber 600 kann man noch immer bekommen und für 99 Aufpreis hast dann ne 30-40% schnellere, neue karte.
 
Zuletzt bearbeitet:
Daran sieht man schon brutal eindeutig, das ihr 0 Plan habt.

Das Marketing ist eure Info Quelle. Dieser Stromverbrauch wird von keinem Highend PCler gutgeheißen.

Mal abgesehen davon habt ihr oder eher du gar keine Rechner, das kann einfach nicht sein.

2080 Ti brachte auch mehr mit und schluckt wie die 1080Ti.
 
Zuletzt bearbeitet:
Daran sieht man schon brutal eindeutig, das ihr 0 Plan habt.

Das Marketing ist eure Info Quelle. Dieser Stromverbrauch wird von keinem Highend PCler gutgeheißen.

Mal abgesehen davon habt ihr oder eher du gar keine Rechner, das kann einfach nicht sein.

2080 Ti brachte auch mehr mit und schluckt wie die 1080Ti.
Warte doch erstmal Tests und Benchmarks ab, bevor Du hier Deine Hasstiraden runterratterst. Alles, was Du hast, sind Behauptungen.
 
Was für Behauptungen? Das Powerlimit (für die Aufwärmphase?!) der FE 3080 liegt bei 370watt.

Das ist Enttäuschend und schockiert mich mehr als den Performance Mode der PS5. Ich will ja selbst zu schlagen aber naja mager bis jetzt. Hass auf die Lederjacke wenn überhaupt.

Letzte Rettung wäre das die nicht so extrem ziehen wie angeben.
 
Zuletzt bearbeitet:
2080 Ti brachte auch mehr mit und schluckt wie die 1080Ti.
Nvidia hat offensichtlich die Architektur komplett umgekrempelt, leider nicht unbedingt zu gunsten der Effizienz. Auch wenn sie das mit ihren Marketing Unterlagen behaupten, werden am Mittwoch die Frames per Watt Graphiken am besten zeigen.

Trotzdem muss man bedenken, dass die 2080Ti rund 30% zur 1080Ti draufgepackt hatte, gegen Ende mehr und mehr und die 3080 wird wohl wieder 30% draufpacken und wahrscheinlich im Raytracing und DLSS zusätzlich deutlich besser laufen.

AMD wird allem Anschein nach auch gut 280W oder mehr für ähnliche Rohleistung wie bei der 3080 schlucken, wir nähern uns eben langsam gewissen Limits. AMD hat den Fertigungsvorteil, samsungs 8nm node soll eher einer verfeinerte 10nm entsprechen und tsmc verwendet eine verfeinerte 7nm node...

Wenn man also mehr Leistung als in einer 2080Ti will, deutlich mehr, nicht so ne Nullnummer wie mit der 3070, wird man den Stromverbrauch und die Abwärme vorerst steigern müssen...
 
@kerv


Es könnte viele Negative Auswirkungen haben ka, aber im PC Bereich waren schon immer hohe Watt Zahlen was negatives.
AMD würde dafür fertig gemacht in jedem GPU Test, wenn sie auf über 300Watt kamen (zurecht).

Und wenn eine 1080Ti 250Watt zieht und dann eine 2080Ti mit RTX und dem ganzen Gedöns auch 250Watt zieht, dann muss man doch darüber mal Nachdenken.

"Kann gut sein", das da ein Zauberdraht Effekt, den Stromverbrauch und Kühlung perfekt regelt ...
Ich hoffe es, mir wurde die MSI 3090 schlecht geredet, jetzt schau ich mir die EVGA an.
 
Zurück
Top Bottom