gettingbetter
Crew
na da bin ich mal auf benchmarks gespannt
Besonders auf die mit Nvidia-Grafikkarten...
Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
na da bin ich mal auf benchmarks gespannt
Besonders auf die mit Nvidia-Grafikkarten...
ne allgemein bisher hört ma nur von der einen seite die es beherscht async compute wichtig und von der anderen seite die es nicht beherscht unwichtig
Komisch das Nvidia dann so auf asynchronous time warp setzt für Sli VR und es auch schon auf Nvidia Karten läuft und sie dadurch unter 2 MS Latenz erreichen :confused:
2ms na das glaub ich kaum![]()
Hast aber wenig Präsentationen angeschaut von GameworksVR oder Liquid VR, sogar Morpheus hat nur knapp über 10 gehabt vor nem Jahr.
Kannst doch schon lange selber testenhttps://www.reddit.com/r/oculus/comments/3gwnsm/nvidia_gameworks_vr_sli_test/
Das Ding ist nicht mal final und ohne DX12 und schau mal was für frametimes du bekommst seit dem neusten update.
Hast aber noch einiges nachzuholen
Hier auch noch nen link
http://m.neogaf.com/showpost.php?p=177210818
und sie dadurch unter 2 MS Latenz erreichen :confused:
Ist das nicht Äpfel und Birnen? Async time warp ist ein anderes async wie async compute. Das async time warp super funktioniert wenn die renderzeit sowiso nur ~1ms hat wie in dem Video ist zu erwarten (welches grafiklastige Spiel hat das?). Nvidia hat Probleme wenn die Entwickler nicht brav sind und längere draw calls verwenden. Dort kommt auch mit async time warp dann kein update mehr zur neuen position wenn die Entwickler es unsauber implementieren während async compute die Berechnungen nebenher machen kann.Komisch das Nvidia dann so auf asynchronous time warp setzt für Sli VR und es auch schon auf Nvidia Karten läuft und sie dadurch unter 2 MS Latenz erreichen :confused:
Laut nem Dev im Reddit soll es auch über die queues laufen die maxwell hat.
Bei AMD ist der Vorteil das sie nicht auf einen Berechnungtyp beschränkt sind und soetwas ähnliches wie multi threading können. Die 32 queues gab es schon in Kepler für compute sachen und werden dort regelmäßig verwendet damit die GPU nicht däumchen dreht. Solange sie an der Hardware nichts ändern kommt es an amd's lösung nicht heran da ein Task alle anderen in der queue blockieren kann.Das ist AMD halt im vorteil im moment, da ihre 64 queues nicht warten müssen in DX12 tests oder liquid VR.
Aber trotzdem hilft es Nvidia das auf die 32 queues auszulagern bei SLI VR.
So versand ich das zumindest immer im GAF , reddit und Keynotes.
Bei AMD ist der Vorteil das sie nicht auf einen Berechnungtyp beschränkt sind und soetwas ähnliches wie multi threading können. Die 32 queues gab es schon in Kepler für compute sachen und werden dort regelmäßig verwendet damit die GPU nicht däumchen dreht. Solange sie an der Hardware nichts ändern kommt es an amd's lösung nicht heran da ein Task alle anderen in der queue blockieren kann.
Bei AMD ist der Vorteil das sie nicht auf einen Berechnungtyp beschränkt sind und soetwas ähnliches wie multi threading können. Die 32 queues gab es schon in Kepler für compute sachen und werden dort regelmäßig verwendet damit die GPU nicht däumchen dreht. Solange sie an der Hardware nichts ändern kommt es an amd's lösung nicht heran da ein Task alle anderen in der queue blockieren kann.
Think of traffic flow moving from A->B.
NV GPUs: Has 1 road, with 1 lane for Cars (Graphics) and 32 lanes for Trucks (Compute).
But it cannot have both Cars and Trucks on the road at the same time. If the road is being used by Cars, Trucks have to wait in queue until all the Cars are cleared, then they can enter. This is the context switch that programmers refer to. It has a performance penalty.
AMD GCN GPUs: Has 1 Road (CP; Command Processor) with 1 lane for Cars & Trucks. Has an EXTRA 8 Roads (ACEs; Asynchronous Compute Engines) with 8 lanes each (64 total) for Trucks only.
So Cars and Truck can move freely, at the same time towards their destination, in parallel, asynchronously, Trucks through the ACEs, Cars through the CP. There is no context switch required.
NV's design is good for DX11, because DX11 can ONLY use 1 Road, period. GCN's ACEs are doing nothing in DX11, the extra roads are inaccessible/closed. DX12 opens all the roads.
ja nur nen nvidia warten muss um is alle berechung grafisch und compute fertig sind wie sollen sie dann schneller bei in vr als amd sind die nicht warten müssen bzw die nur auf die aufwendigste berechnung warten müssen(grafik wohl meists ?)Das weiß ich
ELI5 hat es mal hervorragend erklärt
Wegen der async Sache mach ich mir nur bedingt Sorgen. Wenn es vom Treiber auf die CPU ausgelagert wird, hat diese dann endlich mal was zu tun. Ansonsten sind zum Release nennenswerter DX12 Spiele meine beiden 980 TI veraltet und werden dann gegen 2 Pascal getauscht. Easy als that.
interessiert mich herzlich wenig. Wenn mit DX12 AMD wirklich soviel mehr leistet und ich bei einem Spiel unter 60 FPS bei Maxed out 1440p rutsche ..... Kauf ich halt zwei AMD GPUs.ja nur nen nvidia warten muss um is alle berechung grafisch und compute fertig sind wie sollen sie dann schneller bei in vr als amd sind die nicht warten müssen bzw die nur auf die aufwendigste berechnung warten müssen(grafik wohl meists ?)
war es nicht so das es bisher so ist bei maxwell das man asynchron compute über die cpu laufen hatte?
wenn dem der fall ist wieso hat man asynchronous warps in hardware verbaut wenn es auf asynchron compute angewiesen ist welches sie nur durch software(treiber) emulieren können/wollen
denn bisher scheint es in nicht nicht zu funktionieren
simplified…
Maxwell 2: Queues in Software, work distributor in software (context switching), Asynchronous Warps in hardware, DMA Engines in hardware, CUDA cores in hardware.
GCN: Queues/Work distributor/Asynchronous Compute engines (ACEs/Graphic Command Processor) in hardware, Copy (DMA Engines) in hardware, CUs in hardware.”
aber das doch grade der punkt durch dx12 kann die gpu mit mehr als 2 kernen arbeiten und den cpu richtig nutzen
wenn aber den cpu noch mit weiteren sachen belastet wie dem
durch dx12 willst den einzelnen cpu kern entlasten und alle cpu kerne voll ausnutzen da ist es dann schlecht wenn ein zwei kerne abgezogen werden um als context switch zu agieren
außerdem wer sagt das pascal nicht auch nen maxwell gpu ist?
kann dir sagen wer dir das sagt der pr mann von nvidiainteressiert mich herzlich wenig. Wenn mit DX12 AMD wirklich soviel mehr leistet und ich bei einem Spiel unter 60 FPS bei Maxed out 1440p rutsche ..... Kauf ich halt zwei AMD GPUs.
Aber irgendwas sagt mir, dass das nicht passieren wird.