ConsoleWAR WAR: PS4 vs. One vs. Switch (Pink Panzer Vor!)

Status
Nicht offen für weitere Antworten.
Hinweis
Achtet bitte darauf, nicht andauernd den PC und Google bzw. Stadia in die Diskussion zu nehmen, dafür gibt es andere WAR-Threads.
[QUOTE="PlayerOne, post: 6757459,
technisch füren sie nix an, da sie anderes als intel und amd nicht die volle dx12.1unterstützung bieten[/QUOTE]
Und welche Spiele nutzen 12.1? Richtig. Keins.
Trotzdem führt nvidia technisch den gpu markt vor AMD Karten. Laufen einfach besser.
 
Japan: Monitor-Brille für die Nintendo Switch angekündigt
https://www.ntower.de/news/54436-japan-monitor-brille-für-die-nintendo-switch-angekündigt/

54182-800-800-3db0e8503b0c8fb384f618be9291b8492e1bdbdf.jpg

54183-800-424-b651897358d5e5a83db49ec3714123509ea7f850.jpg



PSVR kann einpacken. :v:
 
[QUOTE="PlayerOne, post: 6757459,
technisch füren sie nix an, da sie anderes als intel und amd nicht die volle dx12.1unterstützung bieten
Und welche Spiele nutzen 12.1? Richtig. Keins.
Trotzdem führt nvidia technisch den gpu markt vor AMD Karten. Laufen einfach besser.[/QUOTE]
in welchen bereich führen sie den von der technik her?
 
Und welche Spiele nutzen 12.1? Richtig. Keins.
Trotzdem führt nvidia technisch den gpu markt vor AMD Karten. Laufen einfach besser.
in welchen bereich führen sie den von der technik her?[/QUOTE]
Physx oder optix zb. Auch laufen die Spiele deutlich besser mit nvidia, selbst auf Papier mit gleicher Leistung verbrauchen nvidia weniger Strom und sind damit effektiver. Da kann AMD Nunmal momentan auch nicht mithalten.
 
in welchen bereich führen sie den von der technik her?
Physx oder optix zb. Auch laufen die Spiele deutlich besser mit nvidia, selbst auf Papier mit gleicher Leistung verbrauchen nvidia weniger Strom und sind damit effektiver. Da kann AMD Nunmal momentan auch nicht mithalten.[/QUOTE]
physx?? wtf klar nvidia führt in physx genau so wie ferrarie den besten ferraries baut ich wette audi baut auch die besten audis und nicht mercedes

nvidias uhr allt aufgekaufte physx technik ist nix weiteres als ne blackbox die den spielemark ausbremst weder noch ms und spiel entwickler könen ihre software in dem bereich optimieren
Im März 2015 kündigte Nvidia in Teilen die kostenlose Freigabe des PhysX-Quellcodes auf GitHub an, mit Beschränkung auf die CPU-berechnete Codeteile. Die auf CUDA aufbauende GPU-Variante blieb von dem Angebot ausgenommen. Interessenten müssen sich außerdem vor Freigabe bei Nvidias Entwicklerprogramm registrieren und den Nutzungsbedingungen zustimmen.
sry aber bei der compute leistung ist amd nvidia jahre voraus oder was meinst warum man meist amd gpu für mining nutzt und ohne nvidia dmr wäre auch alle auf amd gpus möglich höhstwarscheinlich soger mit besserer leistung

bei der leistungs aufnahme ist auch keine wunder nvidia schaft es mit weniger rechenkernen weniger strom zu verbrauchen und diese höher zu takten mal sehen wie das in der nächen generation ist wenn nvidia die selbe tmu einheiten haben wie amd seit jahren
ob sie dann immer noch so wenig verbrauchen oder so hochtakten wird sich zeigen, denn eine sache zeigt sich jetzt schon bei der 10xx serie je mehr kerne desto geringer der max takt

was technik an angeht hier nvidia hat zwar per software patch nachgelegt für pascal aber hardware defizite kannst auch nicht nachpatchen und somit liegen sie von der technik her immer noch hinter intel und amd
ee958f-1530740534.jpg

klar nvidia liegt zu zeit von den vkz vorne aber durch welche trix wissen wir ja (gameworks tessallation usw..)
zumal kaufen die fangirls als alles wo der name drauf steht deswegen könen sie ja mitteleweile schon 5 verschiedene 1060 modelle verkaufen oder laptops mit zwei verschiedenen 1030 gpus drauf bei dem der kunde nicht mal wisen kann hat der laptop den mit mehr oder weniger kernen weil man nur anhand der produktions nummer rausfinden kann
970, dx10.1 und co sind ja auch schon lang vergessen

durch das ganze fanboy getuhe hat man ne firma auf den tron erhoben die jahr für jahr versucht seine kunden abzuzocken, die preise hochtreibt und den fortschritt seit jahrzenten blockiert oder sabotiert
warum gibt kein freesync bei nvidia gpus nen offener standard ah man kein kein geld damit machen wie bei gsync moitoren "dann wirds nicht unterstützt" obwohl selbst consolen davon sehr stark profitieren können da tv mit freesync kommen sollen
 
Wo genau würde da Leistung fehlen?

Kann die ARMv8-Technik mit der AMD / Intel Technik mithalten, ist sie nicht eher auf mobile Geräte ausgelegt?

Um was es mir diesbezüglich aber geht: Niemand, vermutlich auch Nintendo, weiß jetzt schon, was für eine Konsole ein Switch-Nachfolger wird... wie soll man also heute schon anfangen, einen Chip dafür zu entwickeln, wenn man dessen Einsatzgebiet noch gar nicht kennt? Bei Sony und MS ist es einfacher, dort sind stationäre "normale" Konsolen zu 99,9% gesetzt, aber bei Nintendo sieht das alles ja etwas anders aus...
 
Kann die ARMv8-Technik mit der AMD / Intel Technik mithalten, ist sie nicht eher auf mobile Geräte ausgelegt?

Um was es mir diesbezüglich aber geht: Niemand, vermutlich auch Nintendo, weiß jetzt schon, was für eine Konsole ein Switch-Nachfolger wird... wie soll man also heute schon anfangen, einen Chip dafür zu entwickeln, wenn man dessen Einsatzgebiet noch gar nicht kennt? Bei Sony und MS ist es einfacher, dort sind stationäre "normale" Konsolen zu 99,9% gesetzt, aber bei Nintendo sieht das alles ja etwas anders aus...
Nintendo kann doch einfach bei mobile SoCs bleiben. Apples 4K TV mit einem signifikant stärkeren Chip bekommt man problemos für ~180€

Physx oder optix zb. Auch laufen die Spiele deutlich besser mit nvidia, selbst auf Papier mit gleicher Leistung verbrauchen nvidia weniger Strom und sind damit effektiver. Da kann AMD Nunmal momentan auch nicht mithalten.

Die bessere Antwort wäre eher CUDA für GGPU Anwendungen, worin wir wissen Nintendo führend ist.
 
@Xyleph
Hab ja mal gesagt das Sony und MS es auch besser hätten machen können. Aber das kostet etwas.
Die Aussage 28nm war 2013 das aktuellste stimmt nämlich auch nicht, Intel hatte hier 22nm am laufen bereits.
Und generell Intel/Nvidia wäre da auch die beste Möglichkeit gewesen oder eben Intel/AMD GPU.
Wäre auch alles dazu, was ich noch sagen wollte, da ich einige Seiten laß das 28nm ja das beste war zu dem Zeitpunkt.

Wir sprachen aber von den gleichen Voraussetzungen. Eine getrennte Lösung oder ein eigens designter Chip aus Intel und NV wären nicht die gleichen Voraussetzungen. Auch nicht vergessen, Maxwell gab es 2013 noch nicht und Intel nahm 2013 auch noch keine Aufträge von Dritten für die Fertigung an. Es gab also für Sony und MS nichts besseres als 28nm und nur Kepler ^^

GCN war 2013 schon eine gute Wahl. Es ist ein sehr flexibles Design. Das kommt auf auf der offenen Plattform nicht gut genug zu tragen, auch weil es AMD schlicht an finanziellen Mitteln an einen besseren Dev-Support und Treiberentwicklung fehlt, hinzu kommt geringere Verbreitung, damit geringere Aufmerksamkeit der Entwickler.
In einer Konsole hat das Design diese Nachteile nicht und kann seine Vorteile besser ausspielen.

Es gibt viele "Wenns" in dem Fall. Wenn Nintendo eine Switch 2 bringt, die das Hybrid-Konzept weiterführt, dann wird darin sicherlich ein leistungsfähiger Mobil-Chip verbaut sein. Und wenn Nvidia den wieder liefern soll, dann muss ein entsprechender Chip her. Derzeit existiert der noch nicht. Aber er muss ja jetzt auch nicht so designt werden, dass er nur in einer Spielkonsole Verwendung finden kann. ;)

Wie wir gelernt haben, kann Nintendo natürlich keinen Auftrag an NV für ein eigenes Design geben. Wie wir auch hier gelernt haben, ist das aber kein Problem. Nintendo muss bloß eine GPU von NV und einen CPU Designer nach Wahl und klebt es auf einen Chip. Fertig. Benötigt auch keine Chipsdesigner dafür :kruemel:
:blushed:
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom