PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

Mal abwarten, nvidia hat, wenn man sich den stromverbrauch ansieht, die Leistung ser 3080 und 3090 auch mit der Brechstange erkauft. Eine 350W Navi könnte wahrscheinlich auch Bäume ausreißen.

Ich bin gerade ein wenig am abwägen ob ich wirklich direkt bei der 3080 aufspringen soll oder nicht ne günstige 2070Super abstaube und mit der ein Jahr auf die Refresh warte :pokethink:

Ich denke ich mach das einfach am Stromverbrauch aus, wenn die 3080 die 320W einhalt oder darunter liegt schlag ich zu ansonsten hol ich ne 2070S, die wird mit dlss cyberpunk auch klasse abspielen.
 
Das ist auch meine "Sorge", wenn dann eine 3080 Ti mit 20GB und ca 300Watt eine 3090 alt ausehen lässt.
(Weniger Strom = weniger Wärme = Höherer Takt für längere Zeit)

Aber die Preise steigen ja wieder für die 2x, da würde ich die 3080 immer eher nehmen.
 
Was Dr, Sommerteam Comments. Krass. Das Marketing hat euch in der Tasche.


352 Bit Ti
384 Bit Titan

Vorteile von NVIDIA GeForce RTX 2080 Ti

14.3% schneller in synthetischen Tests - Weniger Stromverbrauch (250 vs 280 Watt)

Man siehe noch:

320Watt Ti und Werk aus höhere GPU Takt, da werden die OC Modelle 350Watt Richtig abgehen.
Die 3090 OC benötigt 400Watt. Und da ist das runtertakten um die Temps zu halten viel Wahrscheinlicher.
 
Zuletzt bearbeitet:
Was du immer für seiten raus suchst xD
Es geht um gaming performance :uglylol:


Die Titan war immer schneller wegen den mehr Cudas und Bandbreite aber hat sich nie gelohnt weil sie primär nicht für gaming ist.
DF hat sich ja nicht umsonst trotzdem ne Titan zum testen geholt, weil sie meinten sie wollen für die PC test die schnellste Gaming GPU
 
Du gehst von TSMC 250Watt bis 280Watt Dingern aus, das es diesmal 400Watt sind, spielt beim Dr. Sommerteam überhaupt keine Rolle.
Die 400Watt sind meine Hauptbegründung und da kannst nichts sagen.

Weniger Watt bei der Ti in etwa gleiche Leistung, wäre für mich schlimm. Da ich niemals eine Wasserkühlung einbauen werde. Und selbst die Jammert bei über 400 Watt.
 
Zuletzt bearbeitet:
Wenn du so redest... Da kann ich auch nicht mehr.
Wenn die TDP schon bei 400watt liegt, wo du es selbst sagst das es mehr sind im Reallife.
 
Du glaubst dann auch das CPUs wirklich nur die angegebenen 95W verbrauchen :banderas:
Mein i7 8700K verbraucht auch unter OC bei 100% non AVX load ziemlich genau die 95W TDP die intel angibt(gemessen am HW Monitor aber auch an der Steckdose mit Strommessgerät überprüft und rausgerechnet). Ohne OC krieg ich den sogar auf 65W runter mit ein wenig undervolting.

TDP darf man eh nicht für den Stromverbrauch heranziehen, denn das ist ja die *maximale* "Heizleistung" bzw. die Hitze-Entwicklung die es zu kühlen gilt. die 3080 und 3090 wird ja auch besonders heiß, wegen dem GDDR6x RAM(according to Igors Lab), würde mich nicht wundern, wenn der effektive Stromverbrauch halb so wild ausfallen würde und auch unter last gar nicht so weit von der RTX 2080Ti entfernt liegt.
 
Alter, der Junge glaubt auch seine GPU läuft stabil auf 2150mhz :banderas:
Und das ende vom Lied kennen wir ja.
Naja, er hat irgendein altes Tool zum Übertakten verwendet, das kann ja bald was einstellen, damals gabs glaube ich nichtmal dieses Thermal Throttling das jetzt völlig normal ist bei den Karten. Warum nicht den Afterburner verwenden, der einem wunderbar alles genau auflistet verstehe ich auch nicht.

Übrigens: Finde die Entwicklung der NextGen sehr gut. Dank der Series S mit ihren 10GB VRAM für alles(also wohl max. 6-8GB für die GPU Komponente), braucht man sich am PC mit einer 3080 und den 10GB VRAM und 16GB+ Arbeitsspeicher keine Gedanken machen, wird für die ganze NextGen und damit 6-7 Jahre völlig ausreichend sein.
 
Habe gestern mal den FS2020 auf meinem Notebook ausprobiert. Der Flug über Mallorca mit einer Boing 332 lief soweit ganz gut, am Boden war die Framerate bei ~25fps, in der Luft hat sie sich dann bei ~ 40fps eingependelt. Einstellungen auf High, für ne GTX 1060 mit i5 7300H denk ich in Ordnung. Mal kucken ob ich es auf den PC auch mal noch draufmach. Er hat auch ein G-Sync Display, habe aber da jetzt keine Unterschiede gemerkt, bei JWE war das bsp. bei ebenfalls ~40fps spürbar smoother.
 
Er hat auch ein G-Sync Display, habe aber da jetzt keine Unterschiede gemerkt
Gsync bringt auch erst wirklich was bei Frameraten über 48FPS bei freesync modellen bzw. 30FPS bei Gsync Monitoren, wobei es erst wirklich gut läuft ab 50+ FPS. Der Flusi läuft bei den meisten eher im 30FPS Bereich, speziell mit großen Maschinen, ist halt eine Simulation und leider ist die CPU auslastung noch nicht so besonders. Wird aber wohl auf Direct X 12 umgebaut werden müssen für die Xbox Versionen schon, dann wird man auch am PC von besserer CPU Auslastung profitieren und 60+FPS werden die Regel :moin:
 
Joa, ist mir nur aufgefallen. Bei JWE habe ich, wenn der Park voll ist, in der Regel auch so ~ 40fps, vielleicht bisschen mehr, da merke ich mit G-Syn schon, dass es irgendwie nochmal runder läuft, beim Flugsimulator war davon nichts zu spüren. Am WE mal von New York spaßhalber starten, wahrscheinlich explodiert dann das Notebook :D
 
Ne jetz sag bloß. Das hast jetzt nicht verstanden oder wie? C'mon xD
Alter, der Junge glaubt auch seine GPU läuft stabil auf 2150mhz :banderas:
Und das ende vom Lied kennen wir ja.

Ja genau so wie ich keine 2080Ti im Rechner hab, nach deinen Behauptungen.
Ich hab zu allem Screenshots geschickt, im gegensatz zu deinem Doppelaccount und dem Fantasie Rechner.

Du und Mr. Blonde :banderas:


Angeblich 900,- bekommen. :coolface:

Geht mal bitte weiter deine Super Slim PS3 Pflegen.
 
G-Sync sollte bei low FPS besser als FreeSync funktionieren. Man sollte nur darauf achten dass man auch im Exclusive Fullscreen Modus zockt und nicht im Borderless Fullscreen.
Ich fürchte die Windows Store Gamepass games laufen alle nur in Borderless Fullscreen, auch wenn da fullscreen steht, merkt man beim ALT+Taben wie schnell das umschaltet...
 
Zurück
Top Bottom