Nintendo´s Next Gen

  • Thread-Ersteller Thread-Ersteller New
  • Erstellungsdatum Erstellungsdatum
Bei Nvidias Lösung ist das so. Im selben Satz habe ich erwähnt, dass es bei AMDs Lösung nicht so ist. Ebenso habe ich oft gesagt, dass wir Qualcomms Implementation nicht kennen.
Deshalb mein entweder-oder-Szenario. Wir kenne die Implementation nicht, aber in beiden denkbaren Fällen komme ich zu dem Schluss, dass die Switch eine Art von Hardware accelerated RT haben wird. In einem Szenario ist es ein No-Brainer, in dem anderen tendiere ich immer noch dazu, dass es passieren wird, aber es wäre Jacke wie Hose und käme dann vielleicht mehr darauf an, was Nvidia selbst im SoC sonst noch für Märkte anstrebt, neben der Switch 2.
 
Deshalb mein entweder-oder-Szenario. Wir kenne die Implementation nicht, aber in beiden denkbaren Fällen komme ich zu dem Schluss, dass die Switch eine Art von Hardware accelerated RT haben wird. In einem Szenario ist es ein No-Brainer, in dem anderen tendiere ich immer noch dazu, dass es passieren wird, aber es wäre Jacke wie Hose und käme dann vielleicht mehr darauf an, was Nvidia selbst im SoC sonst noch für Märkte anstrebt, neben der Switch 2.
Das ist so eine Theorie, die aber nicht auf die Technik selbst eingeht. So funktioniert das nicht. Dann gehen wir halt einen Schritt weiter ein:

Anders als Nvidias Lösung, verbraucht Raytracing auch Performance von den CUs. Nvidias RT und CU arbeiten unabhängig voneinander und können parallel arbeiten, bei AMD ist das nicht so. Die können nicht parallel arbeiten. AMDs RT-Lösung steckt nämlich in der Grafik-Pipeline und bindet somit einen "Ray-Beschleuniger" pro CU. Somit: je mehr CUs, desto besseres Raytracing. Das ist aber komplett anders bei Nvidia. Nvidia kann mehr CUs einbauen und es interessiert die Raytracing-Performance ganz und gar nicht.

An sich ist AMDs Lösung eigentlich keine vernünftige Raytracing-Lösung, weil es nicht alles mit RT-Einheiten macht (RT-Kerne kann man das bei AMD nicht nennen). Es gibt Algorithmen (mir ist der Namen entfallen, auf jeden Fall ein Algorithmus, der den Baum erstellt), die weiterhin "klassisch berechnet" werden, aber Performance kosten. Warum? Naja, weil AMD eben keine CUs opfern wollte dafür - so wie es Nvidia tat. Oder sie haben es nicht geschafft, eine vernünftige Lösung für RT-Kerne, die mit CUs harmonieren, zu finden. Bei AMD kommt natürlich hinzu, dass man keine RT-Kerne wollte, da sie sehr viel mit Caches (Infinity Cache kam im selben Jahr) arbeiten und die fressen ebenso extrem viel Platz auf dem Die (ist vermutlich der größte Platzfresser). AMD hat es also nicht eingesehen (oder konnten nicht), wertvolle Leistung wegen Raytracing einzubüßen. Genau das, was du ja meinst, dass es nicht möglich ist, da es eine entweder-oder-Frage ist. Ist es aber ganz und gar nicht. Denn AMD verzichtet genau deswegen auf dedizierte RT-Kerne. Nur deswegen.

In kurz:
In Wahrheit ist AMDs Lösung in keinster Weise zu vergleichen mit Nvidias Lösung. An sich sollte AMD meines Erachtens das nicht mal "hardwarebeschleunigt" nennen, da es nur die halbe Wahrheit ist. Insbesondere, wenn man es mit Nvidias Lösung vergleicht, die wirklich hardwarebeschleunigt ist.

Qualcomms Lösung ist ungewiss. Nintendo arbeitet mit Nvidia zusammen, dementsprechend werden sie nicht AMDs "halbgare" Raytracing-Lösung nehmen.
Qualcomms Lösung heißt also nur hardwarebeschleunigt, aber ob es das im selben Rahmen wie Nvidias Lösung ist, wird sich in der Praxis noch zeigen. Diese Information fehlt uns. In Wahrheit sagt es also gar nichts über Switch 2 aus, da es eine komplett andere Technik sein kann, die sich marketingtechnisch halt nur "hardwarebeschleunigtes Raytracing" nennt. Deswegen sage ich: Wir kennen die Implementation nicht. Sie kann komplett anders sein, in Wahrheit technologisch nichts gemein haben und sich trotzdem "hardwarebeschleunigtes Raytracing" nennen. Und das sagt dann letztendlich auch nichts über die eigentliche Leistung aus: Ist es performant? Ist es sinnvoll? Wie ist die Akkuleistung? Wird das Smartphone gedrosselt? Gar nichts. Dementsprechend sind Aussagen wie "in mobiler Hardware doch möglich" viel zu verfrüht. Zumal eben die Architekturunterschiede dazukommen, wie oben erwähnt.
 
Das ist so eine Theorie, die aber nicht auf die Technik selbst eingeht. So funktioniert das nicht. Dann gehen wir halt einen Schritt weiter ein:

Anders als Nvidias Lösung, verbraucht Raytracing auch Performance von den CUs. Nvidias RT und CU arbeiten unabhängig voneinander und können parallel arbeiten, bei AMD ist das nicht so. Die können nicht parallel arbeiten. AMDs RT-Lösung steckt nämlich in der Grafik-Pipeline und bindet somit einen "Ray-Beschleuniger" pro CU. Somit: je mehr CUs, desto besseres Raytracing. Das ist aber komplett anders bei Nvidia. Nvidia kann mehr CUs einbauen und es interessiert die Raytracing-Performance ganz und gar nicht.

An sich ist AMDs Lösung eigentlich keine vernünftige Raytracing-Lösung, weil es nicht alles mit RT-Einheiten macht (RT-Kerne kann man das bei AMD nicht nennen). Es gibt Algorithmen (mir ist der Namen entfallen, auf jeden Fall ein Algorithmus, der den Baum erstellt), die weiterhin "klassisch berechnet" werden, aber Performance kosten. Warum? Naja, weil AMD eben keine CUs opfern wollte dafür - so wie es Nvidia tat. Oder sie haben es nicht geschafft, eine vernünftige Lösung für RT-Kerne, die mit CUs harmonieren, zu finden. Bei AMD kommt natürlich hinzu, dass man keine RT-Kerne wollte, da sie sehr viel mit Caches (Infinity Cache kam im selben Jahr) arbeiten und die fressen ebenso extrem viel Platz auf dem Die (ist vermutlich der größte Platzfresser). AMD hat es also nicht eingesehen (oder konnten nicht), wertvolle Leistung wegen Raytracing einzubüßen. Genau das, was du ja meinst, dass es nicht möglich ist, da es eine entweder-oder-Frage ist. Ist es aber ganz und gar nicht. Denn AMD verzichtet genau deswegen auf dedizierte RT-Kerne. Nur deswegen.

In kurz:
In Wahrheit ist AMDs Lösung in keinster Weise zu vergleichen mit Nvidias Lösung. An sich sollte AMD meines Erachtens das nicht mal "hardwarebeschleunigt" nennen, da es nur die halbe Wahrheit ist. Insbesondere, wenn man es mit Nvidias Lösung vergleicht, die wirklich hardwarebeschleunigt ist.

Qualcomms Lösung ist ungewiss. Nintendo arbeitet mit Nvidia zusammen, dementsprechend werden sie nicht AMDs "halbgare" Raytracing-Lösung nehmen.
Qualcomms Lösung heißt also nur hardwarebeschleunigt, aber ob es das im selben Rahmen wie Nvidias Lösung ist, wird sich in der Praxis noch zeigen. Diese Information fehlt uns. In Wahrheit sagt es also gar nichts über Switch 2 aus, da es eine komplett andere Technik sein kann, die sich marketingtechnisch halt nur "hardwarebeschleunigtes Raytracing" nennt. Deswegen sage ich: Wir kennen die Implementation nicht. Sie kann komplett anders sein, in Wahrheit technologisch nichts gemein haben und sich trotzdem "hardwarebeschleunigtes Raytracing" nennen. Und das sagt dann letztendlich auch nichts über die eigentliche Leistung aus: Ist es performant? Ist es sinnvoll? Wie ist die Akkuleistung? Wird das Smartphone gedrosselt? Gar nichts. Dementsprechend sind Aussagen wie "in mobiler Hardware doch möglich" viel zu verfrüht. Zumal eben die Architekturunterschiede dazukommen, wie oben erwähnt.
Das ist interessant aber ändert gar nichts an meiner Argumentation, sondern unterstreicht sie sogar nochmal. Gerade weil es zwei komplett verschieden Ansätze sind und wir Qualcomms Umsetzung noch nicht kennen, wird es ein entweder-oder.
Für mich scheint die AMD Lösung für mobile Hardware angemessener. Gleichzeitig ist es nun mal nicht so als müsste Nvidia strikt bei ihrer Version der RT Implementierung festhalten, schon gar nicht über das gesamte Line-Up für verschiedenste Anwendungen.
Letztendlich bleibt dann nur noch die Diskussion was als hardware accelerated RT zählt, da das schon bei AMDs Ansatz problematisch zu sein scheint, während man gleichzeitig definitv sagen kann, dass die derzeitigen stationären Konsolen Raytracing fähig sind.
 
Für mich scheint die AMD Lösung für mobile Hardware angemessener.
Steamdeck hat die selben "Fake-Kerne" wie PS5 und Xbox. Kannst ja sehen, wie toll es läuft und wie die Akkulaufzeit ist. Valve hat es aber deaktiviert und es funktioniert offenbar nur unter Windows - also etwas für Bastler. So optimal und angemessen scheint es also nicht zu sein. Und wir reden beim Steam Deck auch noch von einem Monster an Gerät für ein Handheld - es geht ja fast schon Richtung Notebook-Größe.

während man gleichzeitig definitv sagen kann, dass die derzeitigen stationären Konsolen Raytracing fähig sind.
Raytracing Lite, ja. Wie gesagt, AMDs und Nvidias Lösung so nicht mal vergleichbar. AMD verliert haushoch, da es keine RT-Kerne hat.

Gleichzeitig ist es nun mal nicht so als müsste Nvidia strikt bei ihrer Version der RT Implementierung festhalten, schon gar nicht über das gesamte Line-Up für verschiedenste Anwendungen.
Wie mehrmals erwähnt, sind beide Lösungen von der Architektur her vollkommen unterschiedlich. Das ist so, wie wenn Nvidia auf einmal anfängt, CPUs zu entwickeln. Der Gedanke ist also Irrsinn.

Aber ja, vielleicht wird Nintendo Chips von Apple besorgen und es wird ein ganz anderes Gerät. Auf dem Niveau ist dieses Argument. Es ist nicht anzunehmen, dass sich Nvidia neu erfindet und ihr Raytracing-Know-how aufgibt - insbesondere, wenn man so eine Monopolstellung hat, was die Kompetenz angeht.



Je mehr ich darüber nachdenke, desto seltsamer für Switch 2 wird es ohnehin: Der Snapdragon 8 Gen 2 ist High-End und wird für Geräte sein, die mehr als 900 € kosten (die meisten werden mehr als 1.000 € kosten). Bei der Switch reden wir maximal von 400 €. Allein aus diesem Gesichtspunkt sind diese Vorstellungen fast verrückt.

Also unabhängig davon, dass es technologisch eine komplett andere Lösung sein könnte als die von Nvidia, kommt dieser Punkt ja auch noch hinzu. Wir diskutieren über Raytracing, also etwas, was nicht nur technisch ein Problem ist, sondern sehr wahrscheinlich auch preislich. Die Ungewissheit von der Raytracing-Lösung (ob sie wirklich funktioniert) kommt ja obendrauf dazu.
 
  • Lob
Reaktionen: New
Steamdeck hat die selben "Fake-Kerne" wie PS5 und Xbox. Kannst ja sehen, wie toll es läuft und wie die Akkulaufzeit ist. Valve hat es aber deaktiviert und es funktioniert offenbar nur unter Windows - also etwas für Bastler. So optimal und angemessen scheint es also nicht zu sein.
Und zeitgleich scheint es der Hardware nicht im Weg zu stehen und die Bedingungen zu erfüllen. Wusste ich allerdings auch nicht und Performance sieht besser aus als ich gedacht hätte.
Wie mehrmals erwähnt, sind beide Lösungen von der Architektur her vollkommen unterschiedlich. Das ist so, wie wenn Nvidia auf einmal anfängt, CPUs zu entwickeln. Der Gedanke ist also Irrsinn.

Aber ja, vielleicht wird Nintendo Chips von Apple besorgen und es wird ein ganz anderes Gerät. Auf dem Niveau ist dieses Argument. Es ist nicht anzunehmen, dass sich Nvidia neu erfindet und an sich ihren eigenen Raytracing-Ruf killt.
Nee, du siehst hier ein Problem wo keines ist. Nvidia verkauft hier keine SoC an Endkunden, sondern an Nintendo und vielleicht an andere Hersteller, die ihn verbauen werden und zudem in einem anderen Usecase als die bisherige Hardware. Angenommen Qualcomm würde wirklich was potentes liefern, würde Nvidia sich nicht querstellen, weil sie ihren bisherigen Ansatz nicht mobil umsetzen könnten, sondern an einer Lösung dafür arbeiten.
 
Nee, du siehst hier ein Problem wo keines ist. Nvidia verkauft hier keine SoC an Endkunden, sondern an Nintendo und vielleicht an andere Hersteller, die ihn verbauen werden und zudem in einem anderen Usecase als die bisherige Hardware. Angenommen Qualcomm würde wirklich was potentes liefern, würde Nvidia sich nicht querstellen, weil sie ihren bisherigen Ansatz nicht mobil umsetzen könnten, sondern an einer Lösung dafür arbeiten.
AMDs Lösung ist weit weg von einer richtigen Lösung, wie sie Nvidia anbietet. AMDs Lösung ist in Wahrheit sogar sehr konventionell (zu normalen CUs), weswegen die Performance-Unterschiede auch gravierend sind, wenn RT an ist.

Wenn Nvidia sagt, es gibt noch keine Lösung für mobile Geräte oder es wird viel zu teuer, dann wird das Nintendo natürlich so akzeptieren und es sein lassen. Nintendo profitiert von Nvidia nicht nur wegen der GPU. Die Grundlage für die Diskussion war natürlich Nvidias RT-Lösung im Vergleich zur Konkurrenz. Du willst mit Black Magic und komplett anderen Lösung kommen.

Aber dein Beispiel zeigt ja, dass du auf dem Niveau "Nintendo geht zu Apple" diskutierst. Ja, klar. Das kann passieren. Was auch sein kann, ist, dass Nintendo komplett eigene GPUs entwickelt mit neuester RT-Technologie. Könnte genauso sein. Könnte eben auch sein - um dein Beispiel zu nehmen -, dass Nvidia die Erfahrungen der letzten Jahre mit Raytracing für mobile Hardware komplett aufgibt und vom neuen startet. Oder Nvidia mit einer völlig irren Erfindung für Raytracing kommt, die es noch nie gab und somit mobiles Gaming revolutioniert.
Könnte durchaus auch sein, klar. Kann keiner wissen.

Aber all diese hypothetischen Möglichkeiten sind dann halt auch keine Diskussion wert wahrscheinlich. Ich gehe ja vom Ist-Zustand aus. Du eher von Fantasien. Denn Nvidia-GPUs und Raytracing arbeiten so, wie ich beschrieben habe. Ein kompletter Architekturwechsel würde vermutlich auch SDK-Probleme mit sich bringen, was umso mehr Stress verursacht. Es wären einfach zwei komplett andere GPU-Technologien. Gibt es denn Gerüchte, dass Nvidia ihre GPU-Architektur umkrempeln will? Aber sogar die 4000er-Reihe arbeitet so wie von mir beschrieben. Also da scheint es keinen Wechsel zu geben.
 
AMDs Lösung ist weit weg von einer richtigen Lösung, wie sie Nvidia anbietet. AMDs Lösung ist in Wahrheit sogar sehr konventionell (zu normalen CUs), weswegen die Performance-Unterschiede auch gravierend sind, wenn RT an ist.

Wenn Nvidia sagt, es gibt noch keine Lösung für mobile Geräte oder es wird viel zu teuer, dann wird das Nintendo natürlich so akzeptieren und es sein lassen. Nintendo profitiert von Nvidia nicht nur wegen der GPU. Die Grundlage für die Diskussion war natürlich Nvidias RT-Lösung im Vergleich zur Konkurrenz. Du willst mit Black Magic und komplett anderen Lösung kommen.

Aber dein Beispiel zeigt ja, dass du auf dem Niveau "Nintendo geht zu Apple" diskutierst. Ja, klar. Das kann passieren. Was auch sein kann, ist, dass Nintendo komplett eigene GPUs entwickelt mit neuester RT-Technologie. Könnte genauso sein. Könnte eben auch sein - um dein Beispiel zu nehmen -, dass Nvidia die Erfahrungen der letzten Jahre mit Raytracing für mobile Hardware komplett aufgibt und vom neuen startet. Oder Nvidia mit einer völlig irren Erfindung für Raytracing kommt, die es noch nie gab und somit mobiles Gaming revolutioniert.
Könnte durchaus auch sein, klar. Kann keiner wissen.

Aber all diese hypothetischen Möglichkeiten sind dann halt auch keine Diskussion wert wahrscheinlich. Ich gehe ja vom Ist-Zustand aus. Du eher von Fantasien. Denn Nvidia-GPUs und Raytracing arbeiten so, wie ich beschrieben habe. Ein kompletter Architekturwechsel würde vermutlich auch SDK-Probleme mit sich bringen, was umso mehr Stress verursacht. Es wären einfach zwei komplett andere GPU-Technologien. Gibt es denn Gerüchte, dass Nvidia ihre GPU-Architektur umkrempeln will? Aber sogar die 4000er-Reihe arbeitet so wie von mir beschrieben. Also da scheint es keinen Wechsel zu geben.
Welche Nvidia Erfahrung mit Raytracing für mobile Hardware? Willst du hier Laptop GPUs auf eine Stufe mit einem SoC stellen?
Wenn du AMDs Lösung nicht als "richtige" Lösung ansiehst ist da halt schon der Knackpunkt. Gleichzeitig argumentierst du im Anschluss, dass Nvidia diese "nicht richtige" Lösung nicht umsetzen könnte oder würde. Der Aspekt wäre doch schon komplett egal, wenn du AMDs Lösung sowieso nicht zählst, da Nvidias derzeitige Lösung für GPUs offenbar nicht für SoC geeignet ist. Zudem wird deine Argumentation hier ziemlich dünn, da es absolut nicht abwegig ist, dass Nvidia eine andere Lösung anbietet für einen anderen Usecase anbieten wird. Sie sind früher oder später sogar dazu gezwungen, wenn die Konkurrenz in dem Feld es tut und Nvidia weiter bestehen will (was natürlich debattierbar ist).
Das würde auch nicht bedeuten, dass Nvidia grundsätzlich von seiner RT Umsetzung abweichen muss. Auch das war ein fadenscheiniges Argument. Der Ist-Zustand ist nun mal, dass SoCs mittlerweile RT fähig sind, ebenso wie alle aktuellen Konsolen.
 
Ach wie schön ist die Zeit vor einer neuen Nintendo Hardware. Ark fabuliert seit mindestens 10 Jahren irgendwelche Luftschlösser zusammen. Leute Nintendo ist hardwaretechnisch konservativ as fuck. Es wird eine Mobile PS4. Freut euch, wenn es DLSS hat. Ray Tracking :labr::labr::labr:
 
Das würde auch nicht bedeuten, dass Nvidia grundsätzlich von seiner RT Umsetzung abweichen muss.
Das wird nicht passieren, zum einen ist die Lösung deutlich besser als alle anderen, zum anderen ist die Lösung von Nvidia fester Bestandteil moderner Engines.
 
Das wird nicht passieren, zum einen ist die Lösung deutlich besser als alle anderen, zum anderen ist die Lösung von Nvidia fester Bestandteil moderner Engines.
Völlig verrückt, zu glauben, Nvidia erfindet das neu.

Das ist mir tatsächlich keine Diskussion wert. Dann können wir uns auch darüber unterhalten, ob Nintendo nicht eigene GPUs entwickelt. Selbes Niveau. Das ist nämlich genauso verrückt. Aber klar, nicht unmöglich.
 
Ach wie schön ist die Zeit vor einer neuen Nintendo Hardware. Ark fabuliert seit mindestens 10 Jahren irgendwelche Luftschlösser zusammen. Leute Nintendo ist hardwaretechnisch konservativ as fuck. Es wird eine Mobile PS4. Freut euch, wenn es DLSS hat. Ray Tracking :labr::labr::labr:
Der (höchstwahrscheinlich verbaute) Chip ist doch geleakt? Was gibt es da so großartig zu lachen und was ist daran Luftschloss?
 
Das wird nicht passieren, zum einen ist die Lösung deutlich besser als alle anderen, zum anderen ist die Lösung von Nvidia fester Bestandteil moderner Engines.
Und der Ansatz von AMD nicht oder was? Wenn Ark recht hat und sich Nvidias Lösung für mobile Hardware nicht lohnt und zeitgleich alle anderen Anbieter eine RT Lösung für den mobilen Bereich haben, dann wird Nvidia hier nachziehen müssen und das Notfall natürlich auch mit einem anderen Konzept als bei ihren normalen GPUs. Und ja, dieses Konzept werden sie dort natürlich nicht aufgeben. Das sagte ich jetzt auch mehrmals. Das ist einfach ein fadenscheiniges Argument um zu konstruieren, dass es für Nvidia nicht möglich wäre, etwas anderes für den nächsten SoC zu kreieren.
 
Wie ich Nintendo kenne, schalten die einfach 2 Tegra X1 parallel und takten höher. Bissl mehr RAM dazu und fertig ist die Switch 2 nächstes Jahr :banderas:
 
Wenn Ark recht hat und sich Nvidias Lösung für mobile Hardware nicht lohnt
Habe ich nie geschrieben. Ich habe gesagt, dass es sich überhaupt erstmal beweisen muss als mobiler Chip. Es gibt bis heute nichts von Nvidia diesbezüglich.

Und anzunehmen, Nvidia ändert, wie ihre GPUs arbeiten, ist eben sehr unwahrscheinlich.

Dass sie daran arbeiten mit dedizierten RT-Cores, ist keine Frage. Nur ist die Frage, wann es bereit ist.
 
Ich habe nie irgendwas von DLSS oder Raytracing gesagt.

Eher sogar andersherum. Manche kamen damit und ich habe sie eher beruhigt und es so sachlich wie möglich auf technischer Ebene bewertet. :ugly:
 
Grundsätzlich mal eine Verständnisfrage, damit wir nicht aneinander vorbei reden: Der Snapdragon ist designed um alleine alles zu berechnen, oder nicht? Das ist doch der Sinn eines SoC afaik.

Korrekt.
Das ist der Sinn an einen System-on-a-Chip. Das meiste sind dedizierte Einheiten oder Kerne. Diese liegen natürlich Brach, wenn es mal einen gewissen Usecase nicht gibt.


Der Punkt war, dass vorhandene RT-Cores laut dir (vor allem bei Nvidia) weniger Platz für den Rest der Hardware lassen und somit Leistungseinbußen bedeuten. Damit würde sich Qualcomm definitiv ins eigene Bein schießen, wenn die RT-Cores dysfunktional für die meisten Anwendungsfälle des SoC sind.

Es ist halt ein Trade-off: Entweder man plustert einzelne Kerne so weit auf, dass sie einerseits alles können, dafür aber ineffizienter sind oder man hat spezialisierte Einheiten, die effizienter sind, die Transistoren aber brach liegen, wenn Use-Case x gerade nicht anfällt.
Bei der schieren Anzahl an Transistoren, welche heutzutage verbaut sind, ist letzteres der bessere Weg. Was natürlich nicht heißt, dass man verschwenderisch damit umgeht.

Und was RT angeht, ist das auch irgendwie eine Scheindiskussion.
Sowohl nVidia (RT-Cores) als auch AMD (ray accelerator) setzen auf Hardwarebeschleunigung bei RT. Bei nVidia sind es dedizierte Kerne, bei AMD dedizierte Einheiten in den Compute Units. Bei beiden kostete es Transistoren, beide können kein vollumfängliches RT und bei beiden hat die Aktivierung von RT trotz der dedizierten Einheiten Einfluss auf die Shader-Leistung. Bei dem einen mehr, bei dem anderen weniger. Es ist also nie komplett unabhängig der eigentlichen Compute Units oder CUDA-Kernen.

Ich würde mir übrigens nicht die Frage stellen, ob die Switch 2 nun RT beherrscht oder nicht. Ich würde mir die Frage stellen, ob der Mehrwert für ein paar RT-Spielerein es wert ist, dafür wertvolle Leistungsaufnahme und auch Transistoren zu opfern oder ob die Ressourcen nicht doch besser anderswo aufgehoben wären. Und das ist völlig unabhängig von der Implementierung nVidias, AMDs oder Qualcomms.
Meine Antwort wäre ganz klar die zweite Option.
 
  • Lob
Reaktionen: New
Zurück
Top Bottom