PC-Gaming-Hardware | Was gibt es neues auf dem Markt?

War das jetzt ein Test Online oder Single Player?
Stand nicht dabei, ziemlich sicher SP, man will ja vergleichbare szenarien abspielen.

Hier was interessantes bzgl. VRAM, man beachte die 2080, die 8GB bottlenecken bei 4k und Maximum Texturen, wenn sie etwas runtergesetzt werden auf Ultra sieht es anders aus:
texturen2fgjtv.jpg

texturen1gjjf1.jpg
Ist aber trotzdem ordentlich flotter geworden.

Hier die gesamte Performance über 14 Games:

gesamt4kperformancee0k6w.jpg


Fazit für mich: Gute Steigerung zur 2080Ti, aber erkauft mit deutlich höherer Stromaufnahme:
powerdraw9wkcl.jpg

8% Effizienzsteigerung zur 2080Ti...
ohje18lk4u.jpg

Hier übrigens das ganze Video:

 
Zuletzt bearbeitet:
Fazit für mich: Gute Steigerung zur 2080Ti, aber erkauft mit deutlich höherer Stromaufnahme
Bis zu 330W (und noch mehr mit Bios tweaks) nur für die GPU ist schon extrem, sogar mehr als bei "Thermi" wie es früher deswegen immer genannt wurde. Finde ich trotz "brandneuer" Architektur doch schon sehr ernüchternd.
 
Bis zu 330W (und noch mehr mit Bios tweaks) nur für die GPU ist schon extrem, sogar mehr als bei "Thermi" wie es früher deswegen immer genannt wurde. Finde ich trotz "brandneuer" Architektur doch schon sehr ernüchternd.


Teils dem Samsung Prozess zu verdanken aber vor allem wegen dem GDDR6X Speicher.
Wäre ja ein leichtes da ordentlich an Strom zu sparen und Bandbreite zu steigern, HBM2 Speicher.
Schade das Nvidia das nicht nahm ;(
 
Also 30% ungefähr auf die 2080TI, dabei kann man wohl die TI besser OC. In zukünftigen Spielen wird die sich bestimmt besser absetzen können aber aktuell ist halt wie wohl erwartet. Ich muss mal gucken/suchen, wenn beide voll OC's sind, was da die Differenz ist.
 
PCI-E-3.0-vs-4.0.png


Also auf PCI-E 4.0 aufzurüsten ist die kommende Gen absolut nicht notwendig. :moin:
Ne, die Steigerung, selbst bei diesem schlecht optimierten game wirklich unnötig. Hat schon seine Gründe, warum Nvidia ihre internen Benchmarks nicht auf AMD CPUs gemacht hat, weil die, wie sie selbst im Q&A sagten, trotz PCIE 4 nicht das beste Ergebnis brachten.

Vielleicht mit der nächsten Grafikkartengeneration. Bis dahin hat Intel aber wohl auch PCIE 4.0.
Also ich mit meiner GTX 1080 bin sehr zufrieden mit dem Leistungsanstieg :goodwork:
Schluckt dafür auch knapp doppelt soviel Strom(180W mehr)... Bin im selben Boot mit meiner 1070Ti, ist bissl langsamer als deine 1080. Bin bisher nicht überzeugt, glaube ich warte noch ab oder hole mir ne günstige 2080Ti später...

Übrigens an alle die von nem 8700K oder höher auf nen Ryzen umsteigen wollen, weil PCI E 4:

img_20200916_181528-jpg.967349


AMD CPUs sind einfach nichts fürs High Refresh Rate Gaming, aber man kann sicher nebenbei gut Video-Encoding betreiben :lol:
 
Zuletzt bearbeitet:
Ne, die Steigerung, selbst bei diesem schlecht optimierten game wirklich unnötig. Vielleicht mit der nächsten Grafikkartengeneration.

Schluckt dafür auch knapp doppelt soviel Strom(180W mehr)... Bin im selben Boot mit meiner 1070Ti, ist bissl langsamer als deine 1080. Bin bisher nicht überzeugt, glaube ich warte noch ab oder hole mir ne günstige 2080Ti später...

Übrigens an alle die von nem 8700K oder höher auf nen Ryzen umsteigen wollen, weil PCI E 4:

img_20200916_181528-jpg.967349


AMD CPUs sind einfach nichts fürs High Refresh Rate Gaming, aber man kann sicher nebenbei gut Video-Encoding betreiben :lol:

Wette der Unterschied bei den CPUs würde bei weitem geringer wen die Auflösung höher währ (4K)
 
Zuletzt bearbeitet:
Wetter der Unterschied bei den CPUs würde bei weitem geringer wen die Auflösung höher währ (4K)
Auf 4k gibts keinen Unterschied weil da die GPU limitiert, ja sogar ne 3080. Wer aber wirklich auf 4K 144hz spielen wollen würde(Grafiksettings reduzieren), könnte das mit einem AMD CPU halt trotzdem nicht so flüssig, weil der auch da logischerweise weniger FPS liefert. Ist eigentlich ganz einfach.

hier übrigens was witziges für @MrBlonde der sicher gerne die Vergleiche zwischen seiner 5700XT und der 3080 sehen würde, Linus hats getestet:
lolmrblonde9gjiz.jpg


*Geiles Marketing für AMD, recht beliebter AAA Titel und dann das :lol:
 
Bis zu 330W (und noch mehr mit Bios tweaks) nur für die GPU ist schon extrem, sogar mehr als bei "Thermi" wie es früher deswegen immer genannt wurde. Finde ich trotz "brandneuer" Architektur doch schon sehr ernüchternd.

Die Effizienz wurde aber trotzdem gesteigert, die kommen langsam echt an Grenzen ähnlich wie bei den CPUs.
 
Die Effizienz wurde aber trotzdem gesteigert, die kommen langsam echt an Grenzen ähnlich wie bei den CPUs.
Laut Computerbase kann man das Power Target um satte 50W runtersetzen und man erhält nur ein paar FPS weniger aber eben ne wesentlich bessere Effizienz. Die Grafik von Nvidia bei der Präsentation ist auch irreführend, die 1,9x Effizienzsteigerung ist nämlich bei 220W und nicht 320W vorhanden. Wer also ne effiziente Karte haben will, setzt das Powerlimit auf 85% oder so.

Bei 270W ist die Effizienz 20% gesteigert zur 2080Ti(das heißt auch 20% schneller):
effkek54.jpg
 
Auf 4k gibts keinen Unterschied weil da die GPU limitiert, ja sogar ne 3080. Wer aber wirklich auf 4K 144hz spielen wollen würde(Grafiksettings reduzieren), könnte das mit einem AMD CPU halt trotzdem nicht so flüssig, weil der auch da logischerweise weniger FPS liefert. Ist eigentlich ganz einfach.

hier übrigens was witziges für @MrBlonde der sicher gerne die Vergleiche zwischen seiner 5700XT und der 3080 sehen würde, Linus hats getestet:
lolmrblonde9gjiz.jpg


*Geiles Marketing für AMD, recht beliebter AAA Titel und dann das :lol:

Zum Video:

Ein weiterer Paeudo Experte der die NV Präsentation der 3080 nicht verstanden hat oder aber für billige Clickbait yt Videos falsch darstellt um Klicks abzufischen.

Ich tippe auf letzteres und du bist dem auf den leim gegangen
 
Zum Video:

Ein weiterer Paeudo Experte der die NV Präsentation der 3080 nicht verstanden hat oder aber für billige Clickbait yt Videos falsch darstellt um Klicks abzufischen.

Ich tippe auf letzteres und du bist dem auf den leim gegangen
Inwiefern soll ich ihm auf den Leim gegangen sein, habe nichts von seinem Content kommentiert, lediglich das eine Slide für MrBlonde gepostet? Das ist ein Tech-Youtuber mit 10 Mio Abonnenten, das wirkt natürlich super wenn direkt das erste Slide mit nem Crash der 5700XT startet :lol:

Ändert übrigens nichts an meiner vorangegangenen Aussage, dass AMD CPUs eben unnötige Geldverschwendung fürs Gaming sind, trotz PCI-E 4.0.
 
Inwiefern soll ich ihm auf den Leim gegangen sein, habe nichts von seinem Content kommentiert, lediglich das eine Slide für MrBlonde gepostet? Das ist ein Tech-Youtuber mit 10 Mio Abonnenten, das wirkt natürlich super wenn direkt das erste Slide mit nem Crash der 5700XT startet :lol:

Ändert übrigens nichts an meiner vorangegangenen Aussage, dass AMD CPUs eben unnötige Geldverschwendung fürs Gaming sind, trotz PCI-E 4.0.

Tatsächlich habe ich dich missverstanden, sorry.
Ging mir direkt um den Anfang des Videos und dieses slides, da aber um seine billige clickbait " aba aba Nvideo hat uns doch doppelte Geschwindigkeit zur 2080ti versprochen omegafail".

Hört man ja in dem Zusammenhang ja leider öfter.
Ich kenn den Typen nicht aber ich versuche auch immer pseudo tech youtuber dieser größe zu meiden. Habe festgestellt das diese meist durch tendeniöse, unsachlich und unseriöse betichte zustande kommt ... dafür aber Show und clickbait bieten.

Hab da bessere Erfahrungen mit "kleineren" tech youtubern gemacht mit einer größe um 100k rum
 
Ging mir direkt um den Anfang des Videos und dieses slides, da aber um seine billige clickbait " aba aba Nvideo hat uns doch doppelte Geschwindigkeit zur 2080ti versprochen omegafail".
Ja, das Video kannst vergessen, habs nur der Vollständigkeit halber mitgeschickt im Spoiler, der Linus weiß aber schon was er macht(meistens) und klar clickbaited der, die Leute stehen leider drauf, deshalb hat er auch 10M Subs.

Wenn wirklich gute Videos sehen willst dann lieber das:

oder das(der clickbaited zwar auch aber liefert immerhin auch):
 
Zurück
Top Bottom