PlatformWAR PC ULTIMATE Gaming - road to Master Race ...

keine GPU unter 579 ist ein bisschen enttäuschend finde ich
alle kartens schneller als ne 2080ti
vor 2-3 monaten hat das keiner erwartet nicht mal im ansatz da war 2080ti leistung für big big navi die grenze
vorallem da AMD nicht an der fertigungs verändert hat es si9nd immer noch die 7nm
Sieht gut aus bei AMD, die Preise gefallen mir.
Aber wie das ganze aussieht, wenn RT und DLSS dazu kommen, werden wir dann in echten Vergleichen sehen

6800tx soll im rt scheinbar langsamer sein als ampere aber immerhin schneller als turing wie erwartet

6800 XT = 471fps
RTX 3080 TUF = 630 FPS
RTX 2080Ti = 314 FPS
RTX 2080 = 307 FPS
RTX 2060 @2085 = 242 FPS

imo auch interessant für die konsolen spieler
AMD tells me it's working on its own super sampling technology, similar to Nvidia's DLSS. It will be open and cross-platform, which could mean it'll come to Xbox Series X and PS5. DLSS is a game changer for Nvidia, so this could be big news.
at RT kerne
AMD is not using some CUs for raytracing with having the rest for rasterization, but dedicated hw units called Ray Accelerators. One RA per CU. The RA handles the intersection of rays much faster compared to a software implementation. 471 vs 34 FPS in a sample application.
 
Zuletzt bearbeitet:

Game-Changer Infinity Cache

Was vor einigen Wochen heiß diskutiert und in Frage gestellt wurde, ist Realität: Die RDNA-2-Chips verfügen über eine veränderte Cache-Hierarchie und bringen einen 128 MiByte großen "Infinity Cache" mit, welcher direkt im Kern platziert wird. Falls Sie nur mit den Schultern zucken, hilft ein Blick auf die Verhältnisse: Neben den wenige KiByte großen, aber gigantisch schnellen Level-1-Caches verfügen aktuelle GPUs wie die Radeon RX 5700 XT oder Geforce RTX 3070 über einen 4 MiByte großen Level-2-Zwischenspeicher. Alles, was darüber hinausgeht, verlässt den Rechenkern und wird im verhältnismäßig langsamen Grafikspeicher geparkt. Es gibt gute Gründe dafür, dass Prozessoren längst weitere Cache-Stufen vor dem Systemspeicher mitbringen, denn somit fällt die Datenlokalität höher aus. Stellen Sie sich vor, wie praktisch es für einen Maler wäre, wenn er sein komplettes Zubehör in die Hosentaschen packen und bei Bedarf zücken könnte, anstatt alles aufwendig aus dem Auto zu wuchten.

Die Caching-Idee ist nicht neu, in diesem Umfang jedoch ein Novum. Erinnern Sie sich an Intels Broadwell-Chips mit integriertem eDRAM als L4-Cache? Letzterer verhalf der integrierten Iris-Grafik zu ungeahnter Performance. Offenbar hat AMD genau das mit RDNA 2 in großem Stil erfolgreich umgesetzt.


 

Kein Wunder das AMD nichts darüber gezeigt hat.:nix:
und schon werden die Karten für mich noch uninteressanter :coolface:
 
Ist doch recht gut, die 6800XT macht also Raytracing schneller als die 2080Ti und damit auch schneller als die 3070(die wie man sah 1:1 ne 2080Ti ist im Raytracing, trotz dem Gelabere von Nvidia wie viel besser RT wurde... wirkliche gains sah man nur bei der 3080/90 bei der 3070 sparte man offenbar wo es ging). Wahrscheinlich ist die 6800 im RT nur minimal schlechter als die 3070 aber zieht dafür im normalen rastern davon und hat doppelt soviel VRAM...

Etwas um DLSS zu bekämpfen fehlt halt noch. Ohne das gibt's kaum noch nen Grund bei der 3070(also alles im 500-600 Euro Bereich) zu nvidia zu greifen.
 
Hä, die 3070 ist doch 70% schneller als ne 2070 in RT :verwirrt:
Wo hat NV da gelogen das ne 499€ karte jetzt so schnell wie die damals schnellste $1000 RT karte ist? Das istcein boost den keiner vorher geglaubt hat.
Die 3080 ist 60% schneller nochmal wie ne 2080Ti, da war nix gelogen und wenn Ampere in 7nm so taktraten wie AMD kann, steigtces grad nochmal 30%, also kann AMD noch froh sein, das sie den takt haben.
 
Wieso zeigt AMD eigentlich keine Benchmarks ohne Rage Mode? Das ist ja wahrscheinlich eine einfache Übertaktung mit mehr Stromverbrauch. :nix:

Bin echt gespannt bei den Reviews.
 
Ist doch recht gut, die 6800XT macht also Raytracing schneller als die 2080Ti und damit auch schneller als die 3070(die wie man sah 1:1 ne 2080Ti ist im Raytracing, trotz dem Gelabere von Nvidia wie viel besser RT wurde... wirkliche gains sah man nur bei der 3080/90 bei der 3070 sparte man offenbar wo es ging). Wahrscheinlich ist die 6800 im RT nur minimal schlechter als die 3070 aber zieht dafür im normalen rastern davon und hat doppelt soviel VRAM...

Etwas um DLSS zu bekämpfen fehlt halt noch. Ohne das gibt's kaum noch nen Grund bei der 3070(also alles im 500-600 Euro Bereich) zu nvidia zu greifen.
Hä? Ne 3070 hat nen viel kleineren Chip und entsprechend deutlich weniger RT-Cores, als eine 2080Ti. Vermutlich sogar im Verhältnis nochmal deutlich weniger als eine 3080, von daher ist 2080Ti RT Leistung gar nicht so übel.
 
Hä? Ne 3070 hat nen viel kleineren Chip und entsprechend deutlich weniger RT-Cores, als eine 2080Ti.
Ja ist alles weniger aber effektiv hat man eben nichts davon. (Außer besseren Stromverbrauch)

Und vergleiche mit der 2070 RT finde ich nicht angebracht, da ist das wirklich nur ein Gimmick so sehr wie da die Leistung einbricht.
 
Bist du dir da sicher? Habe immer Rage Mode gelesen + dieses smart Shift da...?
6800XT wurde mit und ohne gezeigt:
radeon-rx-6800-xt-4k-100863937-orig.jpg

amd-smart-access-memory-and-rage-100863928-orig.jpg
 
@MrSalbe
Rage Mode soll den takt wenn ich das richtig verstanden habe nicht dauerhaft so hoch halten können, nur wenn die GPU reseven hat und funtioniert nurin Kombination mit Zen3, also eher 5-10% mal abziehen für den durchnitt ;)
So wie ich es verstanden habe, holt der rage Modus nicht leistungsreserve in bestimmten situationen raus, sondern taktet den Chip grundsätzlich höher bis an seine leistungsgrenze. Soll wohl aber so im Bereich 2%+ liegen, also eher obsolet.
 
So wie ich es verstanden habe, holt der rage Modus nicht leistungsreserve in bestimmten situationen raus, sondern taktet den Chip grundsätzlich höher bis an seine leistungsgrenze. Soll wohl aber so im Bereich 2%+ liegen, also eher obsolet.
Ich hab bereits ein Video verlinkt gehabt von gamer Nexus, steve hat amd vorab interviewen können und es hieß es wird lediglich das Powerlimit angehoben.

Ist halt standard aus, damit AMD von deutlich besserer Effizienz reden kann. Wenn die 6800XT aufeinmal deshalb 315W schluckt statt 300 wirkt das halt jetzt nicht so krass gegen ne 320W Nvidia Karte als bei 300W. (Vor allem da man scheinbar nur ein paar Frames gewinnt) - andererseits haben sie das beim 3090 Vergleich einfach aufgedreht und sprechen da weiterhin von einer 300W TDP, naja marketingsünden :pokethink: (wobei mir aufgefallen ist, dass sie bei der Grafik der 6900XT vs 3090 keine TDP dazuschreiben, wahrscheinlich weils eben keine 300W mehr waren nach Rage Mode)

Die Frage ist was das Access Memory Gedöns bringt, scheinbar nicht viel wenn man sich die beiden Grafiken zur 6800XT oben ansieht...
 
Zuletzt bearbeitet:
Mir fällt grade was anderes an der Grafik auf, das sind keine average fps wie eigentlich üblich, sondern max fps.

Die Benchmarks sollte man mit ner Prise Salz genießen, nicht, dass die Radeons am Ende mit Einbrüchen zu kämpfen haben...
 
SiSoftware Sandra intercore latency test:
Zen 2 (2 chiplets/1866MHz IF) 56ns
Zen 3 (1 chiplet/1800MHz IF) 30 ns

klingt doch ganz gut :)

6800tx @ 2250 MHz

Shading Units = 4608
TMUs = 288
ROPs = 128
Compute Units = 72
RT Cores = 72
Pixel Rate = 288.0 GPixel/s
Texture Rate = 648.0 GTexel/s
FP32 (float) performance = 29.77 TFLOPS
Memory Bus = 256 bit
Bandwidth = 512.0 GB/s
L3 Bandwidth = 2,304 GB/s


3080 @ 1710 MHz

Shading Units = 8704
TMUs = 272
ROPs = 96
SM Count = 68
Tensor Cores = 272
RT Cores = 68
Pixel Rate = 164.2 GPixel/s
Texture Rate = 465.1 GTexel/s
FP32 (float) performance = 29.77 TFLOPS
Memory Bus = 320 bit
Bandwidth = 760.3 GB/s
 
Zurück
Top Bottom