PlatformWAR PC vs. Konsole - Teil 2

Status
Nicht offen für weitere Antworten.
Besonders auf die mit Nvidia-Grafikkarten...

ne allgemein bisher hört ma nur von der einen seite die es beherscht async compute wichtig und von der anderen seite die es nicht beherscht unwichtig

ich würde auchgerne sehen wie es sich unter den einzelnen gcn gpu läuft
ältere modelle haben zwar nur 2 ACE dafür aber mehr compute leistung pro shader

außerdem finde ich es schon interesant zu sehen wie die 290x/390x sich so schlagen den de gpu ist schon fast genau 2 jahre alt und hält immer noch gut mit :lol:

als vergleich mal zu früher
gf1 ende 1999
gf2 anfang/mitte 2000
gf3 anfang 2001
gf4 anfang 2002

da hatte man mehr grund aufzurüten als heute obwohl die karten nicht mal nen jahr alt waren
 
ne allgemein bisher hört ma nur von der einen seite die es beherscht async compute wichtig und von der anderen seite die es nicht beherscht unwichtig

Komisch das Nvidia dann so auf asynchronous time warp setzt für Sli VR und es auch schon auf Nvidia Karten läuft und sie dadurch unter 2 MS Latenz erreichen :confused:
 
2ms na das glaub ich kaum :neutral:

Hast aber wenig Präsentationen angeschaut von GameworksVR oder Liquid VR, sogar Morpheus hat nur knapp über 10 gehabt vor nem Jahr.
Kannst doch schon lange selber testen :nix:https://www.reddit.com/r/oculus/comments/3gwnsm/nvidia_gameworks_vr_sli_test/

Das Ding ist nicht mal final und ohne DX12 und schau mal was für frametimes du bekommst seit dem neusten update.
Hast aber noch einiges nachzuholen ;)

Hier auch noch nen link
http://m.neogaf.com/showpost.php?p=177210818
 
Hast aber wenig Präsentationen angeschaut von GameworksVR oder Liquid VR, sogar Morpheus hat nur knapp über 10 gehabt vor nem Jahr.
Kannst doch schon lange selber testen :nix:https://www.reddit.com/r/oculus/comments/3gwnsm/nvidia_gameworks_vr_sli_test/

Das Ding ist nicht mal final und ohne DX12 und schau mal was für frametimes du bekommst seit dem neusten update.
Hast aber noch einiges nachzuholen ;)

Hier auch noch nen link
http://m.neogaf.com/showpost.php?p=177210818

Würdest du JETZT nochmal zur 980 Ti greifen oder lieber abwarten?

Dieser Asynchronous Shading/Compute Bullshit kommt zum unpassendsten Zeitpunkt überhaupt. Verunsichert mich ganz schön xD
Von den Benchmarks her raucht die Zotac 980 Ti Amp! Extreme die R9 Fury X ja locker in der Pfeife. Wie realistisch ist es, dass die Fury X dank DX12/Async Comp vorbeizieht?
 
Jetzt würde ich auf jeden fall wieder zu ner 980Ti greifen.
bis Die ganzen AAA DX12 games kommen steht eh schon die nächste generation vor der tür und SLI VR funzt gut mit der 980Ti sonst hätte Oculus die nicht in ihren rechnern auf messen ;)
 
und sie dadurch unter 2 MS Latenz erreichen :confused:

Meh... noch weit entfernt von den 1ms motion to photons mit echtzeit(!) time warp welches amd für voodoo sachen in aussicht gestellt hat. :v:

pN5x626.jpg


Komisch das Nvidia dann so auf asynchronous time warp setzt für Sli VR und es auch schon auf Nvidia Karten läuft und sie dadurch unter 2 MS Latenz erreichen :confused:
Ist das nicht Äpfel und Birnen? Async time warp ist ein anderes async wie async compute. Das async time warp super funktioniert wenn die renderzeit sowiso nur ~1ms hat wie in dem Video ist zu erwarten (welches grafiklastige Spiel hat das?). Nvidia hat Probleme wenn die Entwickler nicht brav sind und längere draw calls verwenden. Dort kommt auch mit async time warp dann kein update mehr zur neuen position wenn die Entwickler es unsauber implementieren während async compute die Berechnungen nebenher machen kann.
 
Zuletzt bearbeitet:
Laut nem Dev im Reddit soll es auch über die queues laufen die maxwell hat.

Ja queue heißt aber das es warten muß bis das aktuell zu berechnende fertig ist was genau das Problem ist bei VR. Nvidia sagt selbst dazu das die preemption nur am Anfang und Ende eines draw calls möglich ist bei Maxwell. Ihre Lösung für VR ist das die Entwickler alle draw calls die länger wie 1ms sind aufsplitten sollen damit ein time warp task in der queue nicht zu lange verzögert wird. Solange alle Entwickler das machen sollte es keine Probleme für VR geben bei entsprechender Hardware.
 
Das ist AMD halt im vorteil im moment, da ihre 64 queues nicht warten müssen in DX12 tests oder liquid VR.
Aber trotzdem hilft es Nvidia das auf die 32 queues auszulagern bei SLI VR.
So versand ich das zumindest immer im GAF , reddit und Keynotes.
 
Das ist AMD halt im vorteil im moment, da ihre 64 queues nicht warten müssen in DX12 tests oder liquid VR.
Aber trotzdem hilft es Nvidia das auf die 32 queues auszulagern bei SLI VR.
So versand ich das zumindest immer im GAF , reddit und Keynotes.
Bei AMD ist der Vorteil das sie nicht auf einen Berechnungtyp beschränkt sind und soetwas ähnliches wie multi threading können. Die 32 queues gab es schon in Kepler für compute sachen und werden dort regelmäßig verwendet damit die GPU nicht däumchen dreht. Solange sie an der Hardware nichts ändern kommt es an amd's lösung nicht heran da ein Task alle anderen in der queue blockieren kann.
 
Bei AMD ist der Vorteil das sie nicht auf einen Berechnungtyp beschränkt sind und soetwas ähnliches wie multi threading können. Die 32 queues gab es schon in Kepler für compute sachen und werden dort regelmäßig verwendet damit die GPU nicht däumchen dreht. Solange sie an der Hardware nichts ändern kommt es an amd's lösung nicht heran da ein Task alle anderen in der queue blockieren kann.

kannst ja das als quelle hinzufügen
https://www.reddit.com/r/oculus/comments/380ak4/nvidia_announces_gameworks_vr/crrp2j1
 
Bei AMD ist der Vorteil das sie nicht auf einen Berechnungtyp beschränkt sind und soetwas ähnliches wie multi threading können. Die 32 queues gab es schon in Kepler für compute sachen und werden dort regelmäßig verwendet damit die GPU nicht däumchen dreht. Solange sie an der Hardware nichts ändern kommt es an amd's lösung nicht heran da ein Task alle anderen in der queue blockieren kann.

Das weiß ich ;)

ELI5 hat es mal hervorragend erklärt

Think of traffic flow moving from A->B.

NV GPUs: Has 1 road, with 1 lane for Cars (Graphics) and 32 lanes for Trucks (Compute).

But it cannot have both Cars and Trucks on the road at the same time. If the road is being used by Cars, Trucks have to wait in queue until all the Cars are cleared, then they can enter. This is the context switch that programmers refer to. It has a performance penalty.

AMD GCN GPUs: Has 1 Road (CP; Command Processor) with 1 lane for Cars & Trucks. Has an EXTRA 8 Roads (ACEs; Asynchronous Compute Engines) with 8 lanes each (64 total) for Trucks only.

So Cars and Truck can move freely, at the same time towards their destination, in parallel, asynchronously, Trucks through the ACEs, Cars through the CP. There is no context switch required.

NV's design is good for DX11, because DX11 can ONLY use 1 Road, period. GCN's ACEs are doing nothing in DX11, the extra roads are inaccessible/closed. DX12 opens all the roads.
 
Wegen der async Sache mach ich mir nur bedingt Sorgen. Wenn es vom Treiber auf die CPU ausgelagert wird, hat diese dann endlich mal was zu tun. Ansonsten sind zum Release nennenswerter DX12 Spiele meine beiden 980 TI veraltet und werden dann gegen 2 Pascal getauscht. Easy als that.
 
Das weiß ich ;)

ELI5 hat es mal hervorragend erklärt
ja nur nen nvidia warten muss um is alle berechung grafisch und compute fertig sind wie sollen sie dann schneller bei in vr als amd sind die nicht warten müssen bzw die nur auf die aufwendigste berechnung warten müssen(grafik wohl meists ?)

war es nicht so das es bisher so ist bei maxwell das man asynchron compute über die cpu laufen hatte?
wenn dem der fall ist wieso hat man asynchronous warps in hardware verbaut wenn es auf asynchron compute angewiesen ist welches sie nur durch software(treiber) emulieren können/wollen
denn bisher scheint es in nicht nicht zu funktionieren

simplified…

Maxwell 2: Queues in Software, work distributor in software (context switching), Asynchronous Warps in hardware, DMA Engines in hardware, CUDA cores in hardware.

GCN: Queues/Work distributor/Asynchronous Compute engines (ACEs/Graphic Command Processor) in hardware, Copy (DMA Engines) in hardware, CUs in hardware.”

Wegen der async Sache mach ich mir nur bedingt Sorgen. Wenn es vom Treiber auf die CPU ausgelagert wird, hat diese dann endlich mal was zu tun. Ansonsten sind zum Release nennenswerter DX12 Spiele meine beiden 980 TI veraltet und werden dann gegen 2 Pascal getauscht. Easy als that.

aber das doch grade der punkt durch dx12 kann die gpu mit mehr als 2 kernen arbeiten und den cpu richtig nutzen
wenn aber den cpu noch mit weiteren sachen belastet wie dem
durch dx12 willst den einzelnen cpu kern entlasten und alle cpu kerne voll ausnutzen da ist es dann schlecht wenn ein zwei kerne abgezogen werden um als context switch zu agieren

außerdem wer sagt das pascal nicht auch nen maxwell gpu ist?
 
ja nur nen nvidia warten muss um is alle berechung grafisch und compute fertig sind wie sollen sie dann schneller bei in vr als amd sind die nicht warten müssen bzw die nur auf die aufwendigste berechnung warten müssen(grafik wohl meists ?)

war es nicht so das es bisher so ist bei maxwell das man asynchron compute über die cpu laufen hatte?
wenn dem der fall ist wieso hat man asynchronous warps in hardware verbaut wenn es auf asynchron compute angewiesen ist welches sie nur durch software(treiber) emulieren können/wollen
denn bisher scheint es in nicht nicht zu funktionieren

simplified…

Maxwell 2: Queues in Software, work distributor in software (context switching), Asynchronous Warps in hardware, DMA Engines in hardware, CUDA cores in hardware.

GCN: Queues/Work distributor/Asynchronous Compute engines (ACEs/Graphic Command Processor) in hardware, Copy (DMA Engines) in hardware, CUs in hardware.”



aber das doch grade der punkt durch dx12 kann die gpu mit mehr als 2 kernen arbeiten und den cpu richtig nutzen
wenn aber den cpu noch mit weiteren sachen belastet wie dem
durch dx12 willst den einzelnen cpu kern entlasten und alle cpu kerne voll ausnutzen da ist es dann schlecht wenn ein zwei kerne abgezogen werden um als context switch zu agieren

außerdem wer sagt das pascal nicht auch nen maxwell gpu ist?
interessiert mich herzlich wenig. Wenn mit DX12 AMD wirklich soviel mehr leistet und ich bei einem Spiel unter 60 FPS bei Maxed out 1440p rutsche ..... Kauf ich halt zwei AMD GPUs.

Aber irgendwas sagt mir, dass das nicht passieren wird.
 
interessiert mich herzlich wenig. Wenn mit DX12 AMD wirklich soviel mehr leistet und ich bei einem Spiel unter 60 FPS bei Maxed out 1440p rutsche ..... Kauf ich halt zwei AMD GPUs.

Aber irgendwas sagt mir, dass das nicht passieren wird.
kann dir sagen wer dir das sagt der pr mann von nvidia
immer hin hat die 970 ja 4gb ram und maxwell vollen dx12 support sammt asynchron compute

aber egal scheinbar kommt noch die 380x raus die seit nen jahr bei apple und dell dienste leistet für 200-220 sicher nen gutes angeboht
 
Wo hab ich gestern gesagt das Nvidia schneller als AMD ist, ich hab gesagt es ist ihnen compute nicht unwichtig ist und das sie auf unter 2ms kommen in VR.
Und ich hab schon mal in nem anderen thread geschrieben, das Nvidia nicht Nvidia wöre wenn sie nicht schon längst was on planung hätte.
Wann haben sie AMD zuletzt das feld überlassen?
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom