PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

  • Thread starter Deleted23728
  • Start date
  • 4.758
  • 149.829

Morbol

L09: Professional
Seit
10 Sep 2008
Beiträge
1.182
Mich würde ja eher wurmen, einen 144Hz Monitor nicht ordentlich auszureizen in 1440p:

oder wie oben ersichtlich im Flusi keine 60FPS im schnitt zu halten. Vor allem kannst bei intel dank OC noch 10-20FPS draufpacken(bei passenden Grafiksettings)

Ich hab nen delidded 8700k auf 5GHz, hab damit kein Problem, meine nächste CPU wird trotzdem ziemlich sicher eine von AMD, mit den 4000er Ryzen wird man auch da aufschließen, dann hat Intel gar keine Argumente mehr.
 

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.018
Ich hab nen delidded 8700k auf 5GHz, hab damit kein Problem, meine nächste CPU wird trotzdem ziemlich sicher eine von AMD, mit den 4000er Ryzen wird man auch da aufschließen, dann hat Intel gar keine Argumente mehr.
Sieht nicht danach aus, weil AMD offenbar wieder nicht an die 5GHz kommen wird und weiter bei 4,5GHz rumgurken muss. Der IPC wird aber wohl besser werden, vielleicht schließen sie ja auf unsere im Oktober 3 Jahre alten 8700Ks auf :coolface: (dann aber auch nur beim gleichen Clock)
 

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.726
Der 11900k könnte aber auch ziemlich brutal abgehen. Das wird wenn möglich ein Launch Kauf.

Tiger Lake und 3080 Ti wären dann eine traumkombo.
 

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.018
Die 3080 ist btw. noch viel stärker als was momentane Benchs vermuten lassen würden. Die CPU ist nach langer Zeit nun wieder der Bottleneck, darunter auch die stärkste Consumer Gaming CPU aka 10900k.
Ja in 1440p, in 4K nicht, da kannst die auch an nen Quadcore hängen und es tut sich nicht viel, die letzten 4 i7 Generationen @5GHz im Test:

Man sieht da wunderbar wie intel immer ein wenig IPC Verbesserungen raushaut, weil Kerne braucht offenbar kein Game mehr als 4 mit Hyperthreading.
Der 11900k könnte aber auch ziemlich brutal abgehen. Das wird wenn möglich ein Launch Kauf.

Tiger Lake und 3080 Ti wären dann eine traumkombo.
Sehe ich auch so, die Leute die sparen wollen, fahren mit AMD sicher gut, wobei deren Highend Prozessoren auch unerhört teuer sind mittlerweile. Leute die Geld fürs Gaming ausgeben wollen, sind bei intel noch immer gut beraten, spätestens wenn PCIE 4 funzt. Man darf nicht vergessen, dass die aktuellen intel CPUs diesen 2-5% Performance Bonus im Gaming noch nicht nutzen können bei der RTX3080, AMD hingegen schon.
 

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.018
Ich muss sagen, das ich den 3900x sehr mag und bewundere. Was für eine Top CPU und die ist auch schneller als unsere Legenden CPU.

Die 4900x CPU könnte mich locken.

Ich mache mit meiner CPU minimal Video Editing und Bildbearbeitung, dazu Videostreaming(wobei das mittlerweile eh die GPU macht) oder 4K Bluray Content anschauen. Mir bringt eine 8 Kern oder gar 16 Kern CPU absolut nichts, außer mehr Stromverbrauch. Und klar hast du wohl ewig ruhe mit so ner CPU, ich habe aber nicht vor meinen 8700K diese kommende Nextgen auszutauschen, der wird mich noch mindestens bis 2027 begleiten und dann hab ich den 10 Jahre eingebaut :banderas:

In 21:9 mit 100FPS/Hz, würde ich sogar nochmal kaufen für :banderas:
 

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.726
Das allgemeine Arbeiten EGAL was ist Super flashig. Mit einem 12 / 16 Kerner + SMT. Das ist wirklich so krass geil.

Aber klar der 8700K alias 10600K reicht und ist auch noch ein Brett, was aber nun veraltet. Respekt an die 8700K er. Haben Top gehalten ohne zu verbrennen. Und machen Kreise um die Nextgen CPUs.

Edit:

The firmware update indicates Sienna Cichlid (Navi 21, i.e., Big Navi) will feature 80 CUs and a 256-bit memory bus. The CU count for this GPU is interesting, indicating all that we know on Big Navi could be legit, with most signs pointing to 80 CUs (or around 80 CUs) to be the spec for Big Navi. If this is true, not to mention if the GPU runs on TSMC's latest 7nm process, we could see RTX 3080-levels of performance, but with much better efficiency.

 
Zuletzt bearbeitet:

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.018
The firmware update indicates Sienna Cichlid (Navi 21, i.e., Big Navi) will feature 80 CUs and a 256-bit memory bus. The CU count for this GPU is interesting, indicating all that we know on Big Navi could be legit, with most signs pointing to 80 CUs (or around 80 CUs) to be the spec for Big Navi. If this is true, not to mention if the GPU runs on TSMC's latest 7nm process, we could see RTX 3080-levels of performance, but with much better efficiency.

80CU mit dem Clock der Xbox Series X 1825MHz wären 55% Mehrleistung. 12,1TF wären dann 18,76TF. Die 5700XT hatte 9,4TF und war auf RTX2070 Niveau. Wir sprechen hier von einer knapp doppelt so schnellen 5700XT... Das ist ca. das was Nvidia in ihren Marketingslides zur 2080 mit der 3080 versprochen hat. Am Ende waren es 50-60% mehr. Und wer sagt, dass 1825MHz die Fahnenstange sind, Microsoft hat die SeX APU als Server APU entwickelt, auch für ihre XCloud Server, Sony prügelt die Navi auf 2,23GHz...
 

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.726


Founders Edition und weitere Custom Modelle betroffen
Neben der MSI GeForce RTX 3080 Ventus 3X OC, der EVGA GeForce RTX 3080 XC3 und der Gigabyte GeForce RTX 3080 Gaming Trio X, haben sich mittlerweile auch Besitzer der Gigabyte GeForce RTX 3080 Gaming OC sowie der Zotac GeForce RTX 3080 Trinity zu Wort gemeldet und allesamt das gleiche Verhalten beschrieben.

Ganz ohne OC oder anderes Zutun des Anwenders steigen diese Karten bei einem Takt von rund 2.010 bis 2.040 MHz aus und sorgen für ein Crash to Desktop (CTD) oder Instabilitäten in Spielen.

Auch eine GeForce RTX 3080 FE taucht im Forum von Nvidia auf und muss für einen stabilen Betrieb ebenfalls mit 50 bis 100 MHz weniger Taktfrequenz betrieben werden. Durch den Offset erreichen betroffene Karten in der Regel nicht mehr als 1.950 MHz (Boost) und laufen allem Anschein nach stabil.

I'm using a 3080 FE, at first I played multiple games no issues. But then I started getting crashes and monitor flickering/instability. Underclocked via the Nvidia Tuner a bit and it seems to be helping during all the tests/games I've tried so far. Hopefully this can be addressed in the future without having to undervolt / underclock out of the box.
 

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.018
Ganz ohne OC oder anderes Zutun des Anwenders steigen diese Karten bei einem Takt von rund 2.010 bis 2.040 MHz aus und sorgen für ein Crash to Desktop (CTD) oder Instabilitäten in Spielen.
Ganz ohne Zutun gehen diese Karten aber gar nicht auf so hohe Taktraten hoch, was ist das für ein Blödsinn :ugly:

Die kommen ohne OC oder Powerlimit Erhöhung gar nicht über 1950MHz hinweg. Dennoch natürlich traurig, dass die Karte über 2.000MHz nicht stabil läuft, könnte aber auch mit dem hitzigen GDDR6X zusammenhängen.

EDIT:

" Ein negatives Offset von mindestens 100 MHz beim GPU-Takt kann vorerst Abhilfe schaffen, auch steht das Windows-10-Feature „Hardware-beschleunigte GPU-Planung“ im Verdacht, die Probleme im aktivierten Zustand zu verstärken. Diese kann unter Windows 10 über „Einstellungen > System > Anzeige > Grafikeinstellungen“ deaktiviert werden. "

Naja gut, das kann natürlich sein, aber, dass Windows da die Taktraten der GPU überschreibt ist schon etwas überraschend :lol:
 
Zuletzt bearbeitet:

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.018
Verstehe aber, wie das für den Laien zum Problem werden kann, die meisten wissen wohl nichtmal mit welchem Takt ihre GPUs laufen und wenn nicht selbst was übertaktest hast, denkst natürlich die Karte ist defekt, komisch nur, dass keiner der bisherigen Tester davon was erwähnt hat :pokethink:
 

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.726
Kleine Tester mit Teardowns und Tests mit min FPS muss man selber suchen.


Dat ist ein Witz.

Metro Exodus packt die keine 60fps in 4K und das als OC Version. Und Atomkraft Stromverbrauch.

24 GB sind manchmal besser als 10 GB
Hatte es im Test der GeForce RTX 3080 noch danach ausgehen, dass 10 GB im Vergleich zu 8 GB im Parcours immer ausreichend sind, zeigt die GeForce RTX 3090 bei den Perzentil-FPS im Einzelfall, das dem doch nicht so ist.

Ach aufeinmal (als ob man das nicht schon vorher gewusst hat) und das jetzt schon, die Großen Tester dürfen nicht so die Wahrheit sagen, sie müssen schon das Marketing von Nvidia weitertragen.

Wartet mal ab, wenn die "NextGen" Konsolen Games auf dem PC kommen, da würden viele bestimmt gerne auf die Lederjacke Kotzen.
Meine Karte muss immer min 2 Jahre King sein ohne wenn und aber. Daher 3080 Ti - das wird dann aber ein Sofortkauf.
Zu 100% mit weniger Stromverbauch und höherem Takt, aber wohl "nur" 20GB (das reicht dicke, vorerst).
 
Zuletzt bearbeitet:

Con$olef@natic

L20: Enlightened
Seit
1 Sep 2006
Beiträge
29.257
PSN
Consolefanatic
Steam
Consolefanatic
Ghost Recon Breakpoint, wo die GeForce RTX 3090 reproduzierbar deutliche 22 Prozent vor der GeForce RTX 3080 liegt.

Das ist nicht 24GB, das ist die Bandbreite xD gerade das war damals laut Leadbetter sogar bei ihrer Titan der Bandbreiten killer :banderas:
Auch laut Dictator mehr als andere games, trotz das es nicht mal so gut aussieht.
@FatalFury
Hast du schon auf die Lederjacke gekotzt bei der Titan? xD
 

Hallow´s Victim

L14: Freak
Seit
12 Nov 2006
Beiträge
5.658
Xbox Live
REVEREND R0B
PSN
REVEREND-R0B
Steam
hippiedoomed13
Das ist nicht 24GB, das ist die Bandbreite xD gerade das war damals laut Leadbetter sogar bei ihrer Titan der Bandbreiten killer :banderas:
Auch laut Dictator mehr als andere games, trotz das es nicht mal so gut aussieht.
@FatalFury
Hast du schon auf die Lederjacke gekotzt bei der Titan? xD
Ja, Stand Jetzt sind alle Games, die mehr als 10 GB VRAM schlucken, ganz klar schlecht programmiert bzw. nicht gut optimiert... bei mir ist es tatsächlich ein wenig ein psychologischer Faktor, nach meiner 2080 Ti will ich bei der neuen GK einfach kein "Downgrade" haben.
 

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.018
24 GB sind manchmal besser als 10 GB
Hatte es im Test der GeForce RTX 3080 noch danach ausgehen, dass 10 GB im Vergleich zu 8 GB im Parcours immer ausreichend sind, zeigt die GeForce RTX 3090 bei den Perzentil-FPS im Einzelfall, das dem doch nicht so ist.

Ach aufeinmal (als ob man das nicht schon vorher gewusst hat) und das jetzt schon, die Großen Tester dürfen nicht so die Wahrheit sagen, sie müssen schon das Marketing von Nvidia weitertragen.
Computerbase testet leider immer mit völlig unrealistischen Settings mit allem auf Anschlag, wer mit ein wenig Verstand an die Settings geht wird mit 10GB kein Problem haben. Wenn es nach denen geht, kann ich mit meiner 1070Ti überhaupt kein Spiel in 4K flüssig spielen, kann dennoch vieles auf 60FPS genießen, wenn ich von Ultra auf High wechsle...

Die statistik ist ja auch geil in 4k :roflmao:



Man sollte die OC FE als baseline nehmen, denn der OC ist kostenlos, OC gegen OC also 9 bzw. bei ordentlichem Aufpreis zur MSI 11%, wer die 3090 FE nimmt 6%, genial... not. -und das 0,2 percentile sieht noch schlechter für die 3090 aus.
Ja, Stand Jetzt sind alle Games, die mehr als 10 GB VRAM schlucken, ganz klar schlecht programmiert bzw. nicht gut optimiert... bei mir ist es tatsächlich ein wenig ein psychologischer Faktor, nach meiner 2080 Ti will ich bei der neuen GK einfach kein "Downgrade" haben.
Lieber ne 3080 mit 10GB als ne 3070(Ti) mit 16GB, just my two cents :ol:

-Wobei ich wohl auch zur 3070 greifen würde, wenn die 3080 nicht für 700 zu haben sein wird, 800 oder mehr zahle ich definitiv nicht, da gehts ums Prinzip.
 
Zuletzt bearbeitet:

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.726
Ich hatte mit allem Recht. Punkt aus.

Obwohl wir nicht mit absolut maximalen Details testen, gibt es ein Spiel, das allen Grafikkarten schwer zu schaffen macht: Minecraft. Das Klötzchenspiel zeigt das volle Potenzial der Strahlenbeleuchtung, giert dafür jedoch nach Grafikspeicher. 8-GiByte-Grafikkarten haben ohne DLSS nicht nur Probleme mit den Pixeln, sondern zeigen jenseits von WQHD auch starke Nachladeruckler, welche sich bei längerer Spielzeit intensivieren. Die Geforce RTX 3080 kommt aufgrund der nur 16 dazustellenden Chunks mit einem blauen Auge davon, hier stockt's erst in Ultra HD aufgrund unzureichenden Speichers. Mit größerer Darstellungsdistanz (Chunks) tritt das Ruckeln bereits in Full HD und WQHD auf. Bei 24 Chunks in Full HD (!) bereiten weder eine RTX 3080 noch eine RTX 2080 Ti Freude aufgrund von heftigen, rein speicherbedingten Nachladerucklern. Dieses Problem hat die RTX 3090 nicht, sie stellt dem Spiel die bis zu 16 geforderten GiBytes zur Verfügung und rendert munter drauflos.



Es waren gut gemeinte und neidfreie Ratschläge und wer sie befolgt, hat es gut. So wird es bei allen NextGen Spielen, das Garantiere ich.

2020 - 8 und 10GB nogo vorallem für 4K. Und diese Babys holt man bestimmt nicht für FullHD (Ich mag die Auflösung bis heute noch, kein bash).
Und vorallem wo doch klar ist das die 16GB und 20GB kommen. 10GB mehr, dafür lohnt es sich locker zu warten.
 

Con$olef@natic

L20: Enlightened
Seit
1 Sep 2006
Beiträge
29.257
PSN
Consolefanatic
Steam
Consolefanatic
NV hat sogar Minecraft als Beispiel genommen das 10GB daher reicht statt 8GB xD und auch da gilt bei RT brauch man so viel Bandbreite wie es nur geht.
Auch hier wieder klar die Bandbreite der 3090 :banderas:


10GB mehr, dafür lohnt es sich locker zu warten.

Genau auf das hofft Lederjacke, das morgens ein dummer aufsteht und denkt er brauch für 4K 20GB und zahlt 200€ mehr xD :banderas:
 

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.726
Ja klar, deine Quelle ist das NV Marketing. Hab nichts anderes erwartet.

Und genau deshlab stehten schon die 16GB und 20GB bereit, weil ja 10GB mit Super Zauberdraht von NV noch lange halten werden.
 
Top Bottom