• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

Der PC Frickel Thread - Vsync, Anti Aliasing & Co.

ich hoffe die Gerüchte zu den 40er Karten stimmen nicht so ganz. Wollte eigentlich meine 2080ti austauschen aber habe keinen Bock auf deutlich mehr Stromverbrauch und mal wieder Karten mit 10GB und nicht 16GB RAM (wenn es ne 40er wird dann definitiv keine Ti diesmal, da die ja richtiv viel Strom schlucken soll).
Zur Not bleibt meine 2080ti halt noch ein wenig länger drin
Ich hab ja ne 3060Ti und damit ne 2080Ti lite quasi, ich sehe keinen Grund aufzurüsten(dank DLSS primär), würde an deiner Stelle die 2080Ti behalten, die kannst auch zur nextgen 50er serie noch für rund 400 Euro verkaufen tippe ich und wenn dann wieder Cryptowahn herrscht für noch mehr :ugly:
 
Sollte die 4090 signifikant mehr Leistung als die 3080Ti haben, werde ich mir die wohl gönnen. Hab ich irgendwie Bock drauf:typer:
Signifikant ist immer so eine Ansichtssache. Es wird bei 3080 zu 4080 von 30 % geschwafelt, welche in der Realität wohl eher bei 15 % Maximum liegen wird. Die Wattzahl wurde ebenfalls nach unten geschraubt, die 4080 kommt wohl mit 24 (?) GB. Das wird wahrscheinlich wie der Sprung von 2xxx zu 3xxx. An deiner Stelle würde ich auf den Release oder auf die darauffolgende Generation warten.

Bin auch eher Team Grün, aber jedes Mal aufs Neue ist das Resultat lediglich 50 % des Hypes.
 
Signifikant ist immer so eine Ansichtssache. Es wird bei 3080 zu 4080 von 30 % geschwafelt, welche in der Realität wohl eher bei 15 % Maximum liegen wird. Die Wattzahl wurde ebenfalls nach unten geschraubt, die 4080 kommt wohl mit 24 (?) GB. Das wird wahrscheinlich wie der Sprung von 2xxx zu 3xxx. An deiner Stelle würde ich auf den Release oder auf die darauffolgende Generation warten.

Bin auch eher Team Grün, aber jedes Mal aufs Neue ist das Resultat lediglich 50 % des Hypes.
Ich denke schon, dass es am Ende doch weit über 15% mehr Leistung werden von der 3080ti, die ich verbaut habe zur 4090. Mir ist der Verbrauch ehrlich gesagt egal. Ist halt n Hobby, und dafür zahle ich dann auch gerne. Gut, die Sache mit dem teureren Strom ärgert mich auch, nur lasse ich mir davon nicht den Spaß verderben;)
 
Ich denke schon, dass es am Ende doch weit über 15% mehr Leistung werden von der 3080ti, die ich verbaut habe zur 4090. Mir ist der Verbrauch ehrlich gesagt egal. Ist halt n Hobby, und dafür zahle ich dann auch gerne. Gut, die Sache mit dem teureren Strom ärgert mich auch, nur lasse ich mir davon nicht den Spaß verderben;)
Dann sollte dich der Verbrauch auch eher stören, da es um einiges einfacher ist, mehr Leistung bei mehr Leistungsaufnahme herauszuholen.

Und es geht nicht nur um den Stromverbrauch, sondern auch um die Kühlung. Mittlerweile ist es schon fraglich, ob man den Stock-Kühlern noch trauen kann. Die 3xxx RTX-Referenzmodelle waren kühltechnisch eher meh, andere Modelle waren noch schlimmer.

Wenn du das selbst kühlen willst, dann musst du beinahe immer mit Wasser kühlen, was mir nicht in den Tower kommt. Dann brauchst du auch immer die passende 2nd-Market-Lösung für das jeweilige GPU-Board. Das ist alles, kurz gesagt, ziemlich scheiße, weil kaum bedient da (noch) kaum Nachfrage.

Die 4xxx werden, glaube ich, auch keine Chiplets. Die Leistung bei "2D"-Chips wird eben auch immer schwieriger herauszuholen.

Ehrlich, ich würde die Generation überspringen, wenn NVidia doch nicht Wunder vollbracht hat. Bei einer 3080ti wirst du sicherlich nicht all zu viel Unterschied merken. Außerdem: Mal sehen, ob du überhaupt eine für unter 1500 UVP bekommst, ganz zu schweigen von realen Preisen.
 
Dann sollte dich der Verbrauch auch eher stören, da es um einiges einfacher ist, mehr Leistung bei mehr Leistungsaufnahme herauszuholen.

Und es geht nicht nur um den Stromverbrauch, sondern auch um die Kühlung. Mittlerweile ist es schon fraglich, ob man den Stock-Kühlern noch trauen kann. Die 3xxx RTX-Referenzmodelle waren kühltechnisch eher meh, andere Modelle waren noch schlimmer.

Wenn du das selbst kühlen willst, dann musst du beinahe immer mit Wasser kühlen, was mir nicht in den Tower kommt. Dann brauchst du auch immer die passende 2nd-Market-Lösung für das jeweilige GPU-Board. Das ist alles, kurz gesagt, ziemlich scheiße, weil kaum bedient da (noch) kaum Nachfrage.

Die 4xxx werden, glaube ich, auch keine Chiplets. Die Leistung bei "2D"-Chips wird eben auch immer schwieriger herauszuholen.

Ehrlich, ich würde die Generation überspringen, wenn NVidia doch nicht Wunder vollbracht hat. Bei einer 3080ti wirst du sicherlich nicht all zu viel Unterschied merken. Außerdem: Mal sehen, ob du überhaupt eine für unter 1500 UVP bekommst, ganz zu schweigen von realen Preisen.
Ich zocke momentan noch in 5120x1440, ich werde mir aber in den nächsten Wochen einen einen Monitor kaufen. Entweder den Ultra Gear in 48, oder den Asus Rog Swift PG48QU, das sind 4K Monitore. Ich merke bei meinem jetzigen Monitor schon, dass ein wenig Leistung fehlt. Das wird mit dem neuen Monitor und den kommenden Games nicht besser werden. Ich bin jemand, der die Regler gerne rechts hat ;)
 
Ich zocke momentan noch in 5120x1440, ich werde mir aber in den nächsten Wochen einen einen Monitor kaufen. Entweder den Ultra Gear in 48, oder den Asus Rog Swift PG48QU, das sind 4K Monitore. Ich merke bei meinem jetzigen Monitor schon, dass ein wenig Leistung fehlt. Das wird mit dem neuen Monitor und den kommenden Games nicht besser werden. Ich bin jemand, der die Regler gerne rechts hat ;)
Dann kaufst du nur für 12 GB mehr RAM eine neue Graka? Dann warte doch eher auf die dann sowieso auftauchende Revision namens "TI".

Aber ja, mehr RAM wäre eindeutig ein Argument für die nächste Generation. Ich habe eine 3070 und den Samsung Odyssey G7, bzw. einen LG 4k OLED und merke das dort ab und zu. Wäre es mir aber trotzdem nicht wert, da mache ich eben DLSS an.
 
Dann kaufst du nur für 12 GB mehr RAM eine neue Graka? Dann warte doch eher auf die dann sowieso auftauchende Revision namens "TI".

Aber ja, mehr RAM wäre eindeutig ein Argument für die nächste Generation. Ich habe eine 3070 und den Samsung Odyssey G7, bzw. einen LG 4k OLED und merke das dort ab und zu. Wäre es mir aber trotzdem nicht wert, da mache ich eben DLSS an.
Wie kommst du darauf, dass es nur ein Speicher Update wird?
 
Wie kommst du darauf, dass es nur ein Speicher Update wird?
Das sagte ich nicht. Das ist das bis jetzt Signifikanteste der gemauschelten Features und es wäre durchaus etwas, was dir zugute kommen könnte.

Ansonsten ist es wohl ein Update wie alle anderen zuvor auch, mit tatsächlichen 10 - 15 % Leistungssteigerungen wenn verglichen mit direkten Vorgängermodellen. Oder so ähnlich. Wie immer halt. Vielleicht stimmt das nicht bei Ray Tracing, was mich freuen würde.
 
Das sagte ich nicht. Das ist das bis jetzt Signifikanteste der gemauschelten Features und es wäre durchaus etwas, was dir zugute kommen könnte.

Ansonsten ist es wohl ein Update wie alle anderen zuvor auch, mit tatsächlichen 10 - 15 % Leistungssteigerungen wenn verglichen mit direkten Vorgängermodellen. Oder so ähnlich. Wie immer halt. Vielleicht stimmt das nicht bei Ray Tracing, was mich freuen würde.
Ich warte das ganze mal ab. Ich bin mit der 3080TI auch sehr gut aufgestellt. Ich vermute mal, es wird Anfangs eh wieder sehr schwer an so eine Karte zu kommen. Wenn die 4090 nicht ordentlich leistungsmäßig über der 3080 TI liegt, dann kaufe ich sie auch nicht. Das Upgrade muss mir schon ein wenig was bieten. Sonst warte ich mal wie du schon sagtest, auf die TI Version. Aber ich denke, dass wird nicht nötig sein.
 
Bin mal gespannt mit was AMD um die Ecke kommt. Baue gerade einen neuen Rechner zusammen für mein Office und die 40xxer sind schon mal raus. Mit schwebt sowas wie die RTX 3070 vor aber die ist mir eigentlich zu teuer dafür, dass man für weniger auch ne RX 6800 bekommt. DLSS und Raytracing sind in dem Bereich bei 1440p aber leider schon Boni. Die 3060 TI ist mir für einen Neubau aber ehrlich gesagt etwas zu langweilig, die hab ich schon im Wohnzimmer PC. First World Problems…
 
Bin mal gespannt mit was AMD um die Ecke kommt. Baue gerade einen neuen Rechner zusammen für mein Office und die 40xxer sind schon mal raus. Mit schwebt sowas wie die RTX 3070 vor aber die ist mir eigentlich zu teuer dafür, dass man für weniger auch ne RX 6800 bekommt. DLSS und Raytracing sind in dem Bereich bei 1440p aber leider schon Boni. Die 3060 TI ist mir für einen Neubau aber ehrlich gesagt etwas zu langweilig, die hab ich schon im Wohnzimmer PC. First World Problems…
Bei ner neuen Graka sollte Raytracing schon sehr gut laufen ohne große Performance-Einbußen, da ist die 40er Serie halt noch ein größerer Schritt vorwärts als die 30er es schon war und AMD muss schon ordentlich vorlegen um hier gleichzuziehen, kann ich mir ehrlich gesagt nicht vorstellen. DLSS ist auch immer die beste Upscaling-Technologie, weil durch die KI unterstützt und mit 8K Auflösung angelernt. FSR in Quality ist aber auch brauchbar, würde ich aber nur nehmen wenns kein DLSS zur Auswahl gibt. Der größte Vorteil von DLSS ist imo, dass es auch den Balanced Mode gibt bzw. wenn es hart auf hart kommt den Performance Mode und die beiden sind zwar nicht so schick wie Quality aber bringen große FPS Gewinne mit sich, dank denen Raytracing mit 60FPS flüssig auch in sehr hohen Auflösungen möglich wird.

Würde dir zu einer 3080 raten, die 3070(wie auch meine 3060Ti) haben einfach zu wenig Power für die Zukunft. Zwar ging bei mir Spiderman in 4k und 50fps/hz flüssig ohne drops aber die Karte war schon hart am Limit trotz balanced DLSS(hab die settings alle hochgedreht). Und in Cyberpunk geht mit RT sowieso nur 30FPS auch mit Performance DLSS auf 4k, 60fps sind da nur noch bei 1440p möglich. Ohne RT gehen aber mit DLSS auch 60fps auf 4k aber dann brauchst das auch gar nicht erst zu spielen finde ich, hat mich schon geflasht als ich da in den einen Raum bin und dann seh ich von der ferne schon am boden wie sich was bewegt und dreht, dann schaust rauf und siehst die Lüftungsventilatoren. Die Selbe Szene ohne RT Reflektionen siehst einfach nur nen glänzenden boden in dem sich nichts reflektiert(weil Screenspace reflections nur reflektieren was du auch siehst und wenn du nicht hochschaust, siehst du den ventilator gar nicht). Auch das RT Lighting ist genial, wirklich was besonderes.
 
Zuletzt bearbeitet:
Bei ner neuen Graka sollte Raytracing schon sehr gut laufen ohne große Performance-Einbußen, da ist die 40er Serie halt noch ein größerer Schritt vorwärts als die 30er es schon war und AMD muss schon ordentlich vorlegen um hier gleichzuziehen, kann ich mir ehrlich gesagt nicht vorstellen. DLSS ist auch immer die beste Upscaling-Technologie, weil durch die KI unterstützt und mit 8K Auflösung angelernt. FSR in Quality ist aber auch brauchbar, würde ich aber nur nehmen wenns kein DLSS zur Auswahl gibt. Der größte Vorteil von DLSS ist imo, dass es auch den Balanced Mode gibt bzw. wenn es hart auf hart kommt den Performance Mode und die beiden sind zwar nicht so schick wie Quality aber bringen große FPS Gewinne mit sich, dank denen Raytracing mit 60FPS flüssig auch in sehr hohen Auflösungen möglich wird.

Würde dir zu einer 3080 raten, die 3070(wie auch meine 3060Ti) haben einfach zu wenig Power für die Zukunft. Zwar ging bei mir Spiderman in 4k und 50fps/hz flüssig ohne drops aber die Karte war schon hart am Limit trotz balanced DLSS(hab die settings alle hochgedreht). Und in Cyberpunk geht mit RT sowieso nur 30FPS auch mit Performance DLSS auf 4k, 60fps sind da nur noch bei 1440p möglich. Ohne RT gehen aber mit DLSS auch 60fps auf 4k aber dann brauchst das auch gar nicht erst zu spielen finde ich, hat mich schon geflasht als ich da in den einen Raum bin und dann seh ich von der ferne schon am boden wie sich was bewegt und dreht, dann schaust rauf und siehst die Lüftungsventilatoren. Die Selbe Szene ohne RT Reflektionen siehst einfach nur nen glänzenden boden in dem sich nichts reflektiert(weil Screenspace reflections nur reflektieren was du auch siehst und wenn du nicht hochschaust, siehst du den ventilator gar nicht). Auch das RT Lighting ist genial, wirklich was besonderes.
Ich will ehrlich gesagt nicht mehr als 650€ ausgeben und eine Core Anforderung and die GPU ist: sie muss unter Last leise (=< 35db) sein. Da scheidet eine 3070 schon aus
 
Ich will ehrlich gesagt nicht mehr als 650€ ausgeben und eine Core Anforderung and die GPU ist: sie muss unter Last leise (=< 35db) sein. Da scheidet eine 3070 schon aus
Dann betreibst du eben etwas undervolting, meine 3080 kommt morgen an, werde sie wohl auf 0.8v stellen und die MHz auf 1850 begrenzen(sollte dann statt 330 nur 230W schlucken mit geringen Prozentchen Einbußen bei der Performance und deutlich weniger Hitze-Entwicklung). Durch den großen Kühlkörper wird der Lüfter nicht stark aufdrehen müssen.
 
Dann betreibst du eben etwas undervolting, meine 3080 kommt morgen an, werde sie wohl auf 0.8v stellen und die MHz auf 1850 begrenzen(sollte dann statt 330 nur 230W schlucken mit geringen Prozentchen Einbußen bei der Performance und deutlich weniger Hitze-Entwicklung). Durch den großen Kühlkörper wird der Lüfter nicht stark aufdrehen müssen.
Geht mir eher um den Preis, wobei die 3070 jetzt doch in den Bereich 600-650 gekommen ist.

Meh, mit den NVidia spezifischen Stärken könnte es dann doch auf eine 3070 hinaus laufen. Gefällt mir prinzipiell gar nicht, als CPU hab ich einen 5700x gewählt, hätte also mal ein all AMD Rechner werden können. Aber bei ähnlichem Preis mit DLSS und Raytracing Performance für 1440p Gaming ist die 3070 dann schon mindestens auf Augenhöhe mit der RX 6800, trotz weniger RAM. Ohne ist die AMD wohl besser, genehmigt sich aber auch mehr Saft. Kann man natürlich direkt in der Software einschränken, aber… ach, das ist echt ein Mist xD Kann natürlich auf die Vorstellung der RX 7000er warten aber die ersten Karten kommen ja angeblich frühestens Mitte Dezember, werden sich auch viel zu viel Strom genehmigen für meinen Geschmack und sicher auch erstmal nur die High End Modelle für richtig viel Asche. Könnte natürlich auf einen weiteren Preisverfall der RX 6000er setzen aber eine RX 6900 XT ist mir schon zu viel ehrlich gesagt, wird dann auch langsam knapp mit meinem Fractal Ion+ 2 760W
 
Geht mir eher um den Preis, wobei die 3070 jetzt doch in den Bereich 600-650 gekommen ist.
Ich sag dir nicht wie günstig meine 3080 war(bilder im smartphone foto thread) aber kaum teurer als die günstigste 3070 auf geizhals derzeit. Hab sie von nem Gamer in top zustand erstanden 1 Jahr alt.

Da das der Frickel Thread ist, habe sie undervolted auf 0.850v und takt auf 1870Mhz gestellt bei 300W Maximalverbrauch hält sie mit Verrückten mit die 2115MHz fahren und wahrscheinlich 350W schlucken, bzw. mein Score ist sogar besser(um 1 Punkt :lol:), zeigt, dass sich Frickeln auszahlt und weniger auch mehr sein kann :ol:

2115mhzbkfuc.jpg

mein ergebnis:
me300wnhczl.jpg


Das kommt übrigens bei 272W Maximalverbrauch heraus(0.815v - 1770-1800MHz)
270ws9csc.jpg


Ich werde das noch in echten games und mit dem 3DMark testen(hasse den weil der in der kostenlosen Version die dumme Demo Vorab laufen lässt). Aber wahrscheinlich werde ich mit dem 272W Max-Verbrauch spielen(läuft auch 4°C kühler), hab immerhin nur ein 550W Netzteil, wills nicht zu sehr strapazieren. -Außerdem sind das nur schlappe 2,4% durchschnittliche FPS(7% mehr min. FPS) für 10% mehr Stromverbrauch, dürfte den Sweetspot gefunden haben.

Achja, vergleich mit meiner 3060Ti, mit der Hab ich auch Undervolting betrieben, für die 1775-1800MHz 0.855v, es kamen folgende FPS bei 180W Verbrauch heraus: 56,22 / 70,73 / 86,65. Das heißt meine 3080 liefert 54% mehr durchschnittliche FPS bei 50% mehr Stromverbrauch.
 
Zuletzt bearbeitet:
Ich sag dir nicht wie günstig meine 3080 war(bilder im smartphone foto thread) aber kaum teurer als die günstigste 3070 auf geizhals derzeit. Hab sie von nem Gamer in top zustand erstanden 1 Jahr alt.

Da das der Frickel Thread ist, habe sie undervolted auf 0.850v und takt auf 1870Mhz gestellt bei 300W Maximalverbrauch hält sie mit Verrückten mit die 2115MHz fahren und wahrscheinlich 350W schlucken, bzw. mein Score ist sogar besser(um 1 Punkt :lol:), zeigt, dass sich Frickeln auszahlt und weniger auch mehr sein kann :ol:

2115mhzbkfuc.jpg

mein ergebnis:
me300wnhczl.jpg


Das kommt übrigens bei 272W Maximalverbrauch heraus(0.815v - 1770-1800MHz)
270ws9csc.jpg


Ich werde das noch in echten games und mit dem 3DMark testen(hasse den weil der in der kostenlosen Version die dumme Demo Vorab laufen lässt). Aber wahrscheinlich werde ich mit dem 272W Max-Verbrauch spielen(läuft auch 4°C kühler), hab immerhin nur ein 550W Netzteil, wills nicht zu sehr strapazieren. -Außerdem sind das nur schlappe 2,4% durchschnittliche FPS(7% mehr min. FPS) für 10% mehr Stromverbrauch, dürfte den Sweetspot gefunden haben.

Achja, vergleich mit meiner 3060Ti, mit der Hab ich auch Undervolting betrieben, für die 1775-1800MHz 0.855v, es kamen folgende FPS bei 180W Verbrauch heraus: 56,22 / 70,73 / 86,65. Das heißt meine 3080 liefert 54% mehr durchschnittliche FPS bei 50% mehr Stromverbrauch.
Sehr nice, allerdings braucht man halt das glückliche Händchen beim Gebrauchtkauf. Wahrscheinlich wird es doch die RTX 3070, Undervolting ist bereits eingeplant. Ich warte aber wohl noch ab, ob AMDs Vorstellung vielleicht doch noch für einen Preisrutsch bei den alten Higher End Modellen sorgt die man ja auch undervolten kann. Wer weiß, vielleicht sorgt das ja nochmal für einen Preisrutsch bei den alten NVidia Karten. Bis Anfang November kann ich auch noch warten
 
Sehr nice, allerdings braucht man halt das glückliche Händchen beim Gebrauchtkauf. Wahrscheinlich wird es doch die RTX 3070, Undervolting ist bereits eingeplant. Ich warte aber wohl noch ab, ob AMDs Vorstellung vielleicht doch noch für einen Preisrutsch bei den alten Higher End Modellen sorgt die man ja auch undervolten kann. Wer weiß, vielleicht sorgt das ja nochmal für einen Preisrutsch bei den alten NVidia Karten. Bis Anfang November kann ich auch noch warten
Dann kannst auch noch einen Monat darauf warten was AMD liefern wird, wenn du 4k Gaming willst ist die 3070 leider zu schwach, außer du machst Abstriche bei der Optik oder findest dich mit 30FPS ab, aber wer will das schon :ol:

Vielleicht auch nach einer 6800XT Ausschau halten, falls die günstig bekommen kannst wäre sie der 3070 sicher vorzuziehen.

Achja, was den Gebrauchtkauf betrifft: Es half, dass der Verkäufer ein Bild mit einem Bling Bling RGB PC und beleuchteten Mauspad in der Auktion hatte :lol:
 
Dann kannst auch noch einen Monat darauf warten was AMD liefern wird, wenn du 4k Gaming willst ist die 3070 leider zu schwach, außer du machst Abstriche bei der Optik oder findest dich mit 30FPS ab, aber wer will das schon :ol:

Vielleicht auch nach einer 6800XT Ausschau halten, falls die günstig bekommen kannst wäre sie der 3070 sicher vorzuziehen.

Achja, was den Gebrauchtkauf betrifft: Es half, dass der Verkäufer ein Bild mit einem Bling Bling RGB PC und beleuchteten Mauspad in der Auktion hatte :lol:
1440p ist es für den Rechner, je nach Spiel geb ich mich auch mit RT+DLSS @60 zufrieden, ältere Titel sollten eh problemlos bis 144Hz laufen (max das mein Dell Monitor kann glaube ich)
 
1440p ist es für den Rechner, je nach Spiel geb ich mich auch mit RT+DLSS @60 zufrieden, ältere Titel sollten eh problemlos bis 144Hz laufen (max das mein Dell Monitor kann glaube ich)
Gerade für 1440p wäre eine Radeon 6800 oder 6800XT die bessere Wahl. Du verzichtest zwar auf DLSS aber FSR gibts mittlerweile fast überall bzw. man kann es reinmodden und ich muss sagen bei Scorn(gabs kein DLSS) habe ich bei 4K keinen Unterschied zu nativ gesehen, gut ich habe mich auch nicht sehr darauf konzentriert sondern das Spiel gespielt :ol:

Siehst du auch hier:

cb1k7eqc.jpg


Die 6800XT von Asus gibts bereits sehr günstig:
 
Zuletzt bearbeitet:
Zurück
Top Bottom