PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

  • Thread starter Deleted23728
  • Start date
  • 5.189
  • 162.337

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.514
Ganz ohne OC oder anderes Zutun des Anwenders steigen diese Karten bei einem Takt von rund 2.010 bis 2.040 MHz aus und sorgen für ein Crash to Desktop (CTD) oder Instabilitäten in Spielen.
Ganz ohne Zutun gehen diese Karten aber gar nicht auf so hohe Taktraten hoch, was ist das für ein Blödsinn :ugly:

Die kommen ohne OC oder Powerlimit Erhöhung gar nicht über 1950MHz hinweg. Dennoch natürlich traurig, dass die Karte über 2.000MHz nicht stabil läuft, könnte aber auch mit dem hitzigen GDDR6X zusammenhängen.

EDIT:

" Ein negatives Offset von mindestens 100 MHz beim GPU-Takt kann vorerst Abhilfe schaffen, auch steht das Windows-10-Feature „Hardware-beschleunigte GPU-Planung“ im Verdacht, die Probleme im aktivierten Zustand zu verstärken. Diese kann unter Windows 10 über „Einstellungen > System > Anzeige > Grafikeinstellungen“ deaktiviert werden. "

Naja gut, das kann natürlich sein, aber, dass Windows da die Taktraten der GPU überschreibt ist schon etwas überraschend :lol:
 
Zuletzt bearbeitet:

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.514
Verstehe aber, wie das für den Laien zum Problem werden kann, die meisten wissen wohl nichtmal mit welchem Takt ihre GPUs laufen und wenn nicht selbst was übertaktest hast, denkst natürlich die Karte ist defekt, komisch nur, dass keiner der bisherigen Tester davon was erwähnt hat :pokethink:
 

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.979
Kleine Tester mit Teardowns und Tests mit min FPS muss man selber suchen.


Dat ist ein Witz.

Metro Exodus packt die keine 60fps in 4K und das als OC Version. Und Atomkraft Stromverbrauch.

24 GB sind manchmal besser als 10 GB
Hatte es im Test der GeForce RTX 3080 noch danach ausgehen, dass 10 GB im Vergleich zu 8 GB im Parcours immer ausreichend sind, zeigt die GeForce RTX 3090 bei den Perzentil-FPS im Einzelfall, das dem doch nicht so ist.

Ach aufeinmal (als ob man das nicht schon vorher gewusst hat) und das jetzt schon, die Großen Tester dürfen nicht so die Wahrheit sagen, sie müssen schon das Marketing von Nvidia weitertragen.

Wartet mal ab, wenn die "NextGen" Konsolen Games auf dem PC kommen, da würden viele bestimmt gerne auf die Lederjacke Kotzen.
Meine Karte muss immer min 2 Jahre King sein ohne wenn und aber. Daher 3080 Ti - das wird dann aber ein Sofortkauf.
Zu 100% mit weniger Stromverbauch und höherem Takt, aber wohl "nur" 20GB (das reicht dicke, vorerst).
 
Zuletzt bearbeitet:

Con$olef@natic

L20: Enlightened
Seit
1 Sep 2006
Beiträge
29.681
PSN
Consolefanatic
Steam
Consolefanatic
Ghost Recon Breakpoint, wo die GeForce RTX 3090 reproduzierbar deutliche 22 Prozent vor der GeForce RTX 3080 liegt.

Das ist nicht 24GB, das ist die Bandbreite xD gerade das war damals laut Leadbetter sogar bei ihrer Titan der Bandbreiten killer :banderas:
Auch laut Dictator mehr als andere games, trotz das es nicht mal so gut aussieht.
@FatalFury
Hast du schon auf die Lederjacke gekotzt bei der Titan? xD
 

Hallow´s Victim

L14: Freak
Seit
12 Nov 2006
Beiträge
5.663
Xbox Live
REVEREND R0B
PSN
REVEREND-R0B
Steam
hippiedoomed13
Das ist nicht 24GB, das ist die Bandbreite xD gerade das war damals laut Leadbetter sogar bei ihrer Titan der Bandbreiten killer :banderas:
Auch laut Dictator mehr als andere games, trotz das es nicht mal so gut aussieht.
@FatalFury
Hast du schon auf die Lederjacke gekotzt bei der Titan? xD
Ja, Stand Jetzt sind alle Games, die mehr als 10 GB VRAM schlucken, ganz klar schlecht programmiert bzw. nicht gut optimiert... bei mir ist es tatsächlich ein wenig ein psychologischer Faktor, nach meiner 2080 Ti will ich bei der neuen GK einfach kein "Downgrade" haben.
 

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.514
24 GB sind manchmal besser als 10 GB
Hatte es im Test der GeForce RTX 3080 noch danach ausgehen, dass 10 GB im Vergleich zu 8 GB im Parcours immer ausreichend sind, zeigt die GeForce RTX 3090 bei den Perzentil-FPS im Einzelfall, das dem doch nicht so ist.

Ach aufeinmal (als ob man das nicht schon vorher gewusst hat) und das jetzt schon, die Großen Tester dürfen nicht so die Wahrheit sagen, sie müssen schon das Marketing von Nvidia weitertragen.
Computerbase testet leider immer mit völlig unrealistischen Settings mit allem auf Anschlag, wer mit ein wenig Verstand an die Settings geht wird mit 10GB kein Problem haben. Wenn es nach denen geht, kann ich mit meiner 1070Ti überhaupt kein Spiel in 4K flüssig spielen, kann dennoch vieles auf 60FPS genießen, wenn ich von Ultra auf High wechsle...

Die statistik ist ja auch geil in 4k :roflmao:



Man sollte die OC FE als baseline nehmen, denn der OC ist kostenlos, OC gegen OC also 9 bzw. bei ordentlichem Aufpreis zur MSI 11%, wer die 3090 FE nimmt 6%, genial... not. -und das 0,2 percentile sieht noch schlechter für die 3090 aus.
Ja, Stand Jetzt sind alle Games, die mehr als 10 GB VRAM schlucken, ganz klar schlecht programmiert bzw. nicht gut optimiert... bei mir ist es tatsächlich ein wenig ein psychologischer Faktor, nach meiner 2080 Ti will ich bei der neuen GK einfach kein "Downgrade" haben.
Lieber ne 3080 mit 10GB als ne 3070(Ti) mit 16GB, just my two cents :ol:

-Wobei ich wohl auch zur 3070 greifen würde, wenn die 3080 nicht für 700 zu haben sein wird, 800 oder mehr zahle ich definitiv nicht, da gehts ums Prinzip.
 
Zuletzt bearbeitet:

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.979
Ich hatte mit allem Recht. Punkt aus.

Obwohl wir nicht mit absolut maximalen Details testen, gibt es ein Spiel, das allen Grafikkarten schwer zu schaffen macht: Minecraft. Das Klötzchenspiel zeigt das volle Potenzial der Strahlenbeleuchtung, giert dafür jedoch nach Grafikspeicher. 8-GiByte-Grafikkarten haben ohne DLSS nicht nur Probleme mit den Pixeln, sondern zeigen jenseits von WQHD auch starke Nachladeruckler, welche sich bei längerer Spielzeit intensivieren. Die Geforce RTX 3080 kommt aufgrund der nur 16 dazustellenden Chunks mit einem blauen Auge davon, hier stockt's erst in Ultra HD aufgrund unzureichenden Speichers. Mit größerer Darstellungsdistanz (Chunks) tritt das Ruckeln bereits in Full HD und WQHD auf. Bei 24 Chunks in Full HD (!) bereiten weder eine RTX 3080 noch eine RTX 2080 Ti Freude aufgrund von heftigen, rein speicherbedingten Nachladerucklern. Dieses Problem hat die RTX 3090 nicht, sie stellt dem Spiel die bis zu 16 geforderten GiBytes zur Verfügung und rendert munter drauflos.



Es waren gut gemeinte und neidfreie Ratschläge und wer sie befolgt, hat es gut. So wird es bei allen NextGen Spielen, das Garantiere ich.

2020 - 8 und 10GB nogo vorallem für 4K. Und diese Babys holt man bestimmt nicht für FullHD (Ich mag die Auflösung bis heute noch, kein bash).
Und vorallem wo doch klar ist das die 16GB und 20GB kommen. 10GB mehr, dafür lohnt es sich locker zu warten.
 

Con$olef@natic

L20: Enlightened
Seit
1 Sep 2006
Beiträge
29.681
PSN
Consolefanatic
Steam
Consolefanatic
NV hat sogar Minecraft als Beispiel genommen das 10GB daher reicht statt 8GB xD und auch da gilt bei RT brauch man so viel Bandbreite wie es nur geht.
Auch hier wieder klar die Bandbreite der 3090 :banderas:


10GB mehr, dafür lohnt es sich locker zu warten.

Genau auf das hofft Lederjacke, das morgens ein dummer aufsteht und denkt er brauch für 4K 20GB und zahlt 200€ mehr xD :banderas:
 

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.979
Ja klar, deine Quelle ist das NV Marketing. Hab nichts anderes erwartet.

Und genau deshlab stehten schon die 16GB und 20GB bereit, weil ja 10GB mit Super Zauberdraht von NV noch lange halten werden.
 

Con$olef@natic

L20: Enlightened
Seit
1 Sep 2006
Beiträge
29.681
PSN
Consolefanatic
Steam
Consolefanatic
Ne genau wegen so Leuten wie dir stehen so Grafikkarten bereit, gabs schon in jeder Gen :banderas:
AMD macht das z.b immer wenn sie gegen NV keinen stich haben im High End um was fürs Marketing zu haben. und NV freut sich und kann wieder Karten raus hauen.
Du postests sogar quellen die zeigen das man mit DLSS kein Problem hat und gerade das ist ja ein riesen Kaufgrund.
Liest du überhaupt was du postetst oder erkundigst du dich drüber das RT viel mehr Bandbreite braucht? erst recht mit Path Tracing was du in keinem AAA game sehen wirst die nächsten 10 Jahre :D
Könnte meinen du Googlest die ganze Zeit verzweifelt nach Stichwörtern.

Ja klar, deine Quelle ist das NV Marketing. Hab nichts anderes erwartet.

Die Videos mit Minecraft DLSS auf einer 2080Ti kamen von DF sogar ;) wo warst dui da als sie gepostet wurden? hättest doch eigentlich einspruch einlegen müssen das sie niemals 60fps schaffen können mit DLSS xD

Edit:

Bestes Beispiel,
-2018 "11GB reicht niemals für 4K"
-2020 "mir reicht die 2080Ti noch locker bis zur 4xxx Serie, da ich noch alles in 4K spielen kann" :banderas:
 
Zuletzt bearbeitet:

FatalFury

L11: Insane
Seit
4 Jul 2017
Beiträge
1.979
DF ? Der General leckt bei NV und MS den Boden auf. Das ist reines Marketing bei denen.

Und wozu? Bei der 2080Ti hat die Ledejacke nicht so dick aufgetragen.
Und was dein Beispiel angeht, sowas hab ich nie gesagt.

EDIT:

Die sehr hohe elektrische Belastung durch die Geforce RTX 3090 ist offensichtlich. Das Netzteil sieht sich bereits ohne Übertaktung mit Spitzen von 14,5 Ampere (170 Watt) an der primären Strombuchse konfrontiert. Während das noch kein Problem darstellt, macht uns die Belastung des PCI-Express-Slots auf dem Mainboard etwas nervös: Zwar bleibt die durchschnittliche Belastung auf der 12-Volt-Schiene bei absolut vertretbaren 64 Watt, einzelne Spitzen schnellen jedoch auf bis zu 77 Watt hinauf - und somit über das, was spezifikationsgemäß selbst mit allen Toleranzen erlaubt ist.

Wer mithilfe des maximalen Powerlimits alles aus der RTX 3090 presst, stellt noch deutlich höhere Anforderungen den Stromspender. Die Spitzen klettern auf bis zu 15,5 Ampere (180 Watt) am ersten Strang. Regelrecht bedenklich ist, was am PEG-Slot des Mainboards passiert: Aus durchschnittlich 64 Watt (ohne OC) werden 73 Watt, was bereits über dem PCI-E-Sollwert von 66 Watt liegt, und mehr oder minder regelmäßige Spitzen schießen deutlich über 80 Watt hinaus. Die Peaks um 89 Watt sind keineswegs gesund, sodass wir Übertaktern dringend dazu raten, die Geforce RTX 3090 nur mit Undervolting zu betreiben. Dabei sinkt zwar kaum die Leistungsaufnahme, dafür taktet die GPU jedoch dauerhaft höher und die Ampere-Wogen glätten sich. Interessant: Bei der RTX 3080 FE sind es im OC-Betrieb sogar 17 Ampere auf dem ersten 12-Volt-Kabelstrang, allerdings fällt hier die Belastung des PEG-Slots am Mainboard geringer aus. Falls Ihr Rechner dabei zu sporadischen Neustarts oder gar spontanem Feierabend tendiert, ist die Sache klar: Die Schutzschaltungen des Netzteils schlagen Alarm.

"

 
Zuletzt bearbeitet:

TheProphet

L99: LIMIT BREAKER
Seit
30 Apr 2002
Beiträge
51.514
Das schlimmste was einem passieren kann mit 10GB ist, dass man irgendwann in 4K nicht mehr sagen kann "ich nehme die Ultra Texturen for free" Dann muss man eben die very high texturen nehmen und alles ist wieder in Butter. Wie gesehen bei Doom Eternal und 4K bei der 2080/Super, die 20FPS verliert nur wegen einer Texturstufe, rest bleibt auf Ultra Nightmare...

Wer alles maximieren will, der soll ruhig 2000 Euro hinblättern und sich ne 3090 kaufen, aktuell ist die Karte reine Prestige mehr nicht. -Außer man arbeitet wirklich mit der Grafikkarte aber wer tut das schon von den Gamern die danach lechzen? :ugly:
 

Con$olef@natic

L20: Enlightened
Seit
1 Sep 2006
Beiträge
29.681
PSN
Consolefanatic
Steam
Consolefanatic
Bis das passiert, hab ich schon lange ne neue Karte, daher holt man sich in der regel beste P/L ;)
Aber Konsolen helfen die nächsten Jahre ja das Grakas nicht viel mehr RAM brauchen, das hat man vor nem Jahr anderst vermutet.
Als die 2080 Ti mit 11GB kam hat man den Leuten erzählt, wenn 2020 die Konsolen mit 24GB kommen wirds eng und hätten sie 24GB, wären 10GB in nem Jahr auch eng bei den ersten Next Gen titeln. So aber halt nicht wirklich wenn man auch ne gute SSD nachrüstet :)
Das immer mal ein schlecht optimirtes PC game kommt das probleme macht obwohl es auf Konsolen rund läuft mit weniger Ram, gabs ja auch diese gen schon.
 
Top Bottom