PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

lol selbst vor sli und corssfire konnte man mehr geld verballer konntest schon vor 20 jahren 5k für ne gpu ausgeben nur waren das eher sonder fälle
keiner der gpus war in der preisklsser jenseits der 1000
der meinung zu sein nur weil es neue hardware mit mehr leistung ist MUSS es viel viel mehr kosten ist blödsinn dem mach müste z.b ne gf 12-14 deiner meiung nach ja mindesten bei 1000€ für einstiegs model liegen weil neu und stärker als 3090
ich hoffe wirklich das amd das liefert von dem lie leute jetzt ausgehen denn das würde nvidia starker treffen als die geforce z karten seiner zeit oder die auch so tolle gf fx von denn ich auch noch eine hier hab als erinnerung nicht jeden marketing bullshit zu glauben

was dlss angeht klar mit scharfe filter drin sieht es besser aus, pack in nativ 4k nen scherfe filter drauf und du wirst nen bessere ergebniss bekommen weils kein ghosting
könnte mich täuschen aber war es nicht so das amd diese technik zur veranderen der bildschäfe nicht nnen paar monate vor nivida drausen
Lies doch mal genauer was ich schreibe, früher war High-End ein SLI Build, nix mit Sonderfälle und auch nicht 5k teuer.
Du hast für High-End GPU Power mehr hingeblättert als heute eine High End 3080 (ohne Skalper Nonsense) kostet. Das ist Fakt denn ich hab's selbst mitgespielt, ich bereue aber auch keinen einzigen Cent da ich dafür schon vor fast 9 Jahren 120Hz / FPS Gaming bei aufwendigen Games erlebt habe was nach fast einer Dekade erst jetzt dann bald Konsolero-Onlys zum ersten mal erleben dürfen.
Heute gibt's quasi kein SLI mehr, wird von der 3080 nicht unterstützt und Gamingtreiber kommen für SLI auch keine mehr.
Statt 2 high budget consumer GPUs benötigt man also nur noch eine einzelne was bedeutet dass High End GPU Setups günstiger als noch vor 9 Jahren sind da ein High End Setup jetzt nur noch 1 GPU inne hat.

DLSS hast du auch überhaupt nicht verstanden. Ich rate dir das ganze Video anzusehen, Englischkenntnisse vorrausgesetzt.
 
Du könntest ja noch zwei Wochen warten, und gucken, ob welche im Handel ankommen. Wenn nicht, hältst du die Augen bei eBay offen. Erstell Dir mal schon einen Account bei notebooksbilliger.de, solltest du noch keinen haben. Meine kommt auch von dort. Wurde am 23.10. gekauft.
Nvidia wird die Founders wohl über Notebooksbilliger.de vertreiben.
Hab mich jetzt mal angemeldet. Werde bis eine Woche vorm Start von Cyberpunk warten und hoffen, dass irgendwo eine 3080 vom Laster fällt. Danach mal schauen, was sie so bei eBay kosten. Ansonsten verschiebe ich vllt Cyberpunk auf Weihnachten.
 

Sehr hohe Varianz allerdings, normalerweise schwanken die Taktraten nicht so enorm bei Grafikkarten, wenn die mal Betriebstemperatur haben bleiben die +/- 50MHz gleich im Spielbetrieb...
 
Ja schau dir auch den Standard Takt, der liegt bei Brutalen 2,3Ghz, wenn ich das richtig verstanden hab. Ich platze vor neugierig nur noch 2 Tage. Das betrifft ja auch die SX und PS5 so ein bissel.
 
Ja schau dir auch den Standard Takt, der liegt bei Brutalen 2,3Ghz, wenn ich das richtig verstanden hab. Ich platze vor neugierig nur noch 2 Tage. Das betrifft ja auch die SX und PS5 so ein bissel.
Naja die PS5 peilt ja 2,2GHz an und die SeX dümpelt irgendwo bei 1,8GHz herum. Leute die ihre alte 5700XT unter Wasser gesetzt haben, haben auch schon 2,2GHz Taktraten erzielt habe ich gelesen...

AMD braucht auch dringend diese Taktraten um der 3080 Paroli zu bieten, erklärt auch den hohen Stromverbrauch. Aktuell sieht ne 3080 auf -15% Powertarget am attraktivsten aus.

Morgen kommen übrigens um 14 Uhr die 3070 Benchmarks, wird spannend :goodwork:
 
Hab mich jetzt mal angemeldet. Werde bis eine Woche vorm Start von Cyberpunk warten und hoffen, dass irgendwo eine 3080 vom Laster fällt. Danach mal schauen, was sie so bei eBay kosten. Ansonsten verschiebe ich vllt Cyberpunk auf Weihnachten.
Kann ich nachvollziehen. Ich möchte das Game einfach im maximalen Details zocken. Wenn Raytracing am Ende nicht auf anschlag steht, kann ich damit gut leben. Aber der Rest sollte schon auf Maximum stehen. Vielleicht hast du ja noch Glück. Drücke dir die Daumen.
 
Naja die PS5 peilt ja 2,2GHz an und die SeX dümpelt irgendwo bei 1,8GHz herum. Leute die ihre alte 5700XT unter Wasser gesetzt haben, haben auch schon 2,2GHz Taktraten erzielt habe ich gelesen...

AMD braucht auch dringend diese Taktraten um der 3080 Paroli zu bieten, erklärt auch den hohen Stromverbrauch. Aktuell sieht ne 3080 auf -15% Powertarget am attraktivsten aus.

Morgen kommen übrigens um 14 Uhr die 3070 Benchmarks, wird spannend :goodwork:

Es gab damals gute Leaks, die sprachen von 250 TDP. Jetzt ging AMD hoch, nach der Nvidia Vorstellung. Es ist ein HotRace. sowas gab es auf Konsolen, wann? Ewig lange her. So einen Showdown gab es mal zu N64 Zeiten. Oder Mega Drive vs SNES :love:


 
und woher kommt diese info das die neue cpu latenz probleme haben oder basiert die aussage auf den älteren tryzen cpu die langsamer waren in singel theard leistung als intel?
zumindest hat AMD in seinen Folien gesagt, dass das Latency Problem beim 8 Kerner verringert wurde. Zahlen wurden natürlich keine genannt. Schauen wir mal wie sich die 16 Kerner in der Praxis bei Spielen schlagen werden
 
Geht halt auch darum, dass ich mir keinen Monitor mit 240Hz und 2k inklusive HDR hol, um den Hit des Jahrzehnts dann bei 30 Bildern in Full HD zu zocken.
 
Moin alle zusammen. Es gab ja eine ziemliche Diskussion wegen der Netzteile, die man für eine 3080 verbaut haben sollte. Mir erschien das alles etwas zu überzogen.
ich wollte es daher genau wissen, und habe mir ein Wattmessgerät gekauft und mal ein wenig getestet. Noch mal eine kleine Info zum System. I7 10700k, übertaktet, 32GB RAM und die Founders 3080 @ stock. Außerdem hab ich zwei ssd‘s und eine HDD verbaut.
Angefangen habe ich mit Metro Exodus, weil einfach sehr Hardware fordernd.
Einstellung auf Extrem. Also alles was geht, auch Raytracing. Ich hab etwa eine Stunde gespielt, und bin nie über 480 Watt gekommen.
Weiter getestet habe ich mit Dishonored: Der Tod des Outsiders.
Auch hier alles auf Anschlag, auf 60 Frames gelockt. Kam ich nie über 340 Watt!
Ungelockt schafft das System die 120 Bilder, die mein Monitor wiedergeben kann zu halten. Wären vermutlich auch noch mehr drin, wenn der Monitor es darstellen könnte. Hier liegt der Verbrauch um die 440 Watt!
Ich hab ein 650 Watt/ bulk 80 Gold verbaut.
Ich denke, das sollte locker reichen für die Karte.
Ich hab vergessen zu erwähnen, dass ich in einer Auflösung von 5120x1440 spiele.
 
Zuletzt bearbeitet:
Moin alle zusammen. Es gab ja eine ziemliche Diskussion wegen der Netzteile, die man für eine 3080 verbaut haben sollte. Mir erschien das alles etwas zu überzogen.
ich wollte es daher genau wissen, und habe mir ein Wattmessgerät gekauft und mal ein wenig getestet. Noch mal eine kleine Info zum System. I7 10700k, übertaktet, 32GB RAM und die Founders 3080 @ stock. Außerdem hab ich zwei ssd‘s und eine HDD verbaut.
Angefangen habe ich mit Metro Exodus, weil einfach sehr Hardware fordernd.
Einstellung auf Extrem. Also alles was geht, auch Raytracing. Ich hab etwa eine Stunde gespielt, und bin nie über 480 Watt gekommen.
Weiter getestet habe ich mit Dishonored: Der Tod des Outsiders.
Auch hier alles auf Anschlag, auf 60 Frames gelockt. Kam ich nie über 340 Watt!
Ungelockt schafft das System die 120 Bilder, die mein Monitor wiedergeben kann zu halten. Wären vermutlich auch noch mehr drin, wenn der Monitor es darstellen könnte. Hier liegt der Verbrauch um die 440 Watt!
Ich hab ein 650 Watt/ bulk 80 Gold verbaut.
Ich denke, das sollte locker reichen für die Karte.
Ja, aber bei der RTX 3080 gibt es spikes die ziemlich hoch anfallen. Eigentlich langt ein 550W Netzteil aus aber wegen den spikes wird eine 650W empfohlen. :goodwork:
 
Ich hab ein 650 Watt/ bulk 80 Gold verbaut.
Ich denke, das sollte locker reichen für die Karte.
Ja das wird kein Problem sein. Das Problem ist die Art und Weise wie die 3080 Strom verschlingt. Igor hat das ausgelesen und sie verbraucht für Millisekunden 500W oder so(kannst dir auf Youtube das Video geben), das wirst du auf nem normalen Strommessgerat nicht sehen.

Wenn du Bedenken hast bzw. Dein Netzteil älter ist(>5 Jahre), kannst du für 4% Performance Verlust die MHZ auf 1800 beschränken und das Powerlimit um 15% senken. Sparst dann rund 80W ein...
 
igorfmk17.png


Zieht sich scheinbar durch alle games, schau noch das video :moin:

Die 3070 ist verdammt flott, dafür, dass sie 35% weniger CudaCores als die 3080 hat.
 
Zurück
Top Bottom