CW PC-Gaming-Thread

Fürs erste betrifft es nicht viele. Mass Effect !vielleicht!. Der Rest kann mir ohne weiteres erstmal gestohlen bleiben.

Mal sehen wie sich das entwickelt, aber seh', wenn da nicht 90% der Industrie mitgeht, keine sonderlich guten Vorteile für den Endbenutzer, wenn er für gefühlt jedes zweite Spiel die Grafikkarte der anderen Hersteller braucht.
 
Auf jeden Fall ist es interessant, wenn es auch für andere Plattformen kommen würde. Insbesondere auch wegen SteamOS! Aber eben, mal abwarten. Noch hat ja längst nicht jedes Spiel Mantle Unterstützung, aber wenn es anklingt, dann könnte es sich durchaus durchsetzen.

ich warte ja schon so sehnsüchtig auf den Mantle Patch für BF4! Leider hat sich der Release verschoben, da DICE eher mit dem Bugfixing beschäftigt ist.

Es ist eine interssante Sache! Mir ist immer noch Schleierhaft, wie sowas an mir vorbei ging :ugly:

Fürs erste betrifft es nicht viele. Mass Effect !vielleicht!. Der Rest kann mir ohne weiteres erstmal gestohlen bleiben.

Mal sehen wie sich das entwickelt, aber seh', wenn da nicht 90% der Industrie mitgeht, keine sonderlich guten Vorteile für den Endbenutzer, wenn er für gefühlt jedes zweite Spiel die Grafikkarte der anderen Hersteller braucht.

Ich hoff, dass es sich durchsetzt. Das erste Spiel wird BF4 sein, danach Thief 4. Klar, dass nicht viele darauf eingehen. Erst wenn die ersten Titeln, gute Ergebnisse vorweisen können, dann wird da was passieren.

Das neue Mass Effect wird Mantle unterstützen, weil das Spiel auf der Frostbite 3 Engine laufen und die Engine unterstützt das.
 
Zuletzt bearbeitet:
Fürs erste betrifft es nicht viele. Mass Effect !vielleicht!. Der Rest kann mir ohne weiteres erstmal gestohlen bleiben.

Mal sehen wie sich das entwickelt, aber seh', wenn da nicht 90% der Industrie mitgeht, keine sonderlich guten Vorteile für den Endbenutzer, wenn er für gefühlt jedes zweite Spiel die Grafikkarte der anderen Hersteller braucht.

Deswegen sind geschlossene Standards auch so eine Qual. PhysX ist zum Glück meistens nicht gameplay-beinträchtigend, auch wenn es sehr cool und stimmig ist. Mantle ist wie gesagt prinzipiell auch auf Nvidia Karten möglich, AMD hat das angetönt, und ich denke es ist ihnen bewusst, dass man da offen sein muss gegenüber anderen, wenn es sich durchsetzen soll.

Ich sage nicht, dass AMD nicht dasselbe machen würde, aber Nvidia ist da ja momentan mit GSync und PhysX viel tiefer im proprietären Sumpf. Dass aber gerade das proprietäre an GSync zum Rohrkrepierer oder sogar Schuss nach hinten werden könnte, hat man ja mit FreeSync gesehen, welches prinzipiell auf jedem Gerät mit Displayport 1.3 Unterstützung möglich ist.
 
Deswegen sind geschlossene Standards auch so eine Qual. PhysX ist zum Glück meistens nicht gameplay-beinträchtigend, auch wenn es sehr cool und stimmig ist. Mantle ist wie gesagt prinzipiell auch auf Nvidia Karten möglich, AMD hat das angetönt, und ich denke es ist ihnen bewusst, dass man da offen sein muss gegenüber anderen, wenn es sich durchsetzen soll.

Müsste man eben abwarten was draus wird. Zum jetzigen Zeitpunkt ists meh.
 
Im Moment ist es vorallem nett (in Aussicht), wenn du ne AMD Karte hast und BF4 spielst. :D Aber das Potenzial ist auf jeden Fall da, und darum geht es ja.

Mich haben die Hersteller bei der Karte bisher nie interessiert und Aussagekraft hatte da eigentlich immer nur der Preis mit der gebotenen Leistung ohne drumherum (PhysX) und Pfft BF4. ;-)

Ja, Potenzial ist da, ob es dann auch zur Gänze genutzt wird, muss man erstmal sehen.
 
Mich haben die Hersteller bei der Karte bisher nie interessiert und Aussagekraft hatte da eigentlich immer nur der Preis mit der gebotenen Leistung ohne drumherum (PhysX) und Pfft BF4. ;-)

Ja, Potenzial ist da, ob es dann auch zur Gänze genutzt wird, muss man erstmal sehen.
Naja, mich auch nur bedingt. Trotzdem ist es schön, quasi gratis eine Mehrleistung zu erhalten, nicht? ;)

Wir werden sehen, wie erfolgreich es wird, ja :).
 
Vorallem MacOSX, da Apple größtenteils AMD Karten verbaut.
Nicht unbedingt, sie verbauen mal das Eine, mal das Andere, je nachdem wer was gerade zu bieten hat. ich weiß als ich meinen iMac gekauft habe war alles Nvidia, hauptsächlich die 9400M, die ich auch habe. In den Notebooks steckt dann immer ein intel Grafikchip drin und bei den teureren Modellen noch eine zweite dedizierte Grafikkarte. Ich schaue mir gerade die Modelle im Apple Store an und da haben wir:
  • MacMini: Intel HD Graphics 4000
  • iMac: Intel Iris Pro, NVIDIA GeForce GT 750M, NVIDIA GeForce GT 755M und NVIDIA GeForce GTX 775M
  • MacPro: Dual AMD FirePro D300 und Dual AMD FirePro D500
  • MacBook Air: Intel HD Graphics 5000
  • MacBook Pro: Intel HD Graphics 4000, Intel Iris Graphics, Intel Iris Pro Graphics und NVIDIA GeForce GT 750M

Also nur ein Rechner hat eine AMD Karte, und der ist auch kein Heimcomputer mehr sondern eine Workstation. Zudem kommt noch dazu dass du bei den normalen Mac die Grafikkarte nicht austauschen kannst, also musst du mit dem zurechtkommen was du kaufst. Da kann man es sich nicht leisten dass eine API perfekt unterstützt wird während die andere hinterherkriecht.
 
Es gab mal eine Zeit bei Apple, wo sie nur ATI Karten drin hatten^^ Anscheinend sind Sie vorbei xD

Erst muss mal AMD die Mantle API auf Ihre eigenen Karten zum laufen bringen. Erst danach kann man darüber reden Mantle auf Intel oder auch Nvidia Karten zu bringen.

Alles gleichzeitig wäre zum Scheitern verurteilt.
 
Dass aber gerade das proprietäre an GSync zum Rohrkrepierer oder sogar Schuss nach hinten werden könnte, hat man ja mit FreeSync gesehen, welches prinzipiell auf jedem Gerät mit Displayport 1.3 Unterstützung möglich ist.
Wiso schuß nach hinten? Amd hat selber gesagt das sie ohne gsync nicht auf die idee gekommen wären. Nvidia wird dafür jetzt ca ein 3/4 jahr (wenn es keine verzögerungen für display port gibt) dieses exklusive feature haben.
 
Wiso schuß nach hinten? Amd hat selber gesagt das sie ohne gsync nicht auf die idee gekommen wären. Nvidia wird dafür jetzt ca ein 3/4 jahr (wenn es keine verzögerungen für display port gibt) dieses exklusive feature haben.
Jap, womit sie aber zumindest mit den ersten Geräten sehr viel Geld verlieren werden. Gerade weil sie FPGAs verwenden, welche offenbar sehr teuer sind, da die dedizierten Chips noch nicht bereit sind. Und das nur damit die Technologie wohl obsolet wird, wenn selbst günstige Monitore FreeSync unterstützen sollten mit eigentlich allen Monitoren.

Es hat die Idee gebracht, auch für AMD. Aber dadurch, dass es proprietär ist, und AMD vorraussichtlich eine bessere Lösung am Start hat, wird man vielleicht nichtmal die Entwicklungskosten wieder reinholen.
 
Außerdem versucht AMD etwas ähnliches zu bringen.

Darum geht es ja. Ich sage, dass GSync eine hohe Chance hat zu scheitern, weil AMD dadurch, dass es proprietär ist, eine bessere Idee hatte. Wäre es offen gewesen, hätte AMD Freesync vielleicht auch entwickelt, das kann sein. Aber so hat man es ja fast erzwungen.
 
Jap, womit sie aber zumindest mit den ersten Geräten sehr viel Geld verlieren werden. Gerade weil sie FPGAs verwenden, welche offenbar sehr teuer sind, da die dedizierten Chips noch nicht bereit sind. Und das nur damit die Technologie wohl obsolet wird, wenn selbst günstige Monitore FreeSync unterstützen sollten mit eigentlich allen Monitoren.

Es hat die Idee gebracht, auch für AMD. Aber dadurch, dass es proprietär ist, und AMD vorraussichtlich eine bessere Lösung am Start hat, wird man vielleicht nichtmal die Entwicklungskosten wieder reinholen.
Ich bezweifle das nvidia die chips mit verlust verkauft. Ob sie die entwicklungskosten herein bringen ist eine andere frage. Ob amds version besser ist muß sich erst zeigen, aktuell ist sie einfacher & billiger wohingegen die von nvidia unabhängig von der schnittstelle läuft.
 
Wärst du bereit für einen Monitor etwas mehr Geld auzugeben, damit du GSync benutzen kannst? Die Monitorhersteller führen das als Extra Feature an und würden somit etwas mehr Geld verlangen.
Wenn die lösungen genau das gleiche ergebnis liefern (gsync vs freesync) natürlich nicht.
Wenn es einen unterschied zb bei 60-144fps gibt dann im professionellen bereich eventuell schon.
 
Wenn die lösungen genau das gleiche ergebnis liefern (gsync vs freesync) natürlich nicht.
Wenn es einen unterschied zb bei 60-144fps gibt dann im professionellen bereich eventuell schon.

Professionel ist natürlich etwas anders. Und ja, es kommt auch auf die Qualität von FreeSync an. Aber ich bezahle sicherlich keinen Aufpreis für einen Monitor, wenn ich nicht weiss, ob ich in einem Jahr noch eine kompatible Grafikkarte drin habe. Aber wir werden sehen. ;)
 
Zurück
Top Bottom