Switch NX - Handheld? Konsole? Hybrid?

Status
Nicht offen für weitere Antworten.
Tegra X1 kann bis maximal 500GF hoch gehen bei den relevanten 32bit Flops. Keine Ahnung wieso Nvidia hier so eine Verwirrungstaktik mit ihren 16bit 1TF fährt. Die interessiert in der Spielepraxis niemanden.


Das würde ich so nicht sagen.

Meanwhile GCN 1.2’s other instruction set improvements are quite interesting. The description of 16-bit FP and Integer operations is actually very descriptive, and includes a very important keyword: low power. Briefly, PC GPUs have been centered around 32-bit mathematical operations for some number of years now since desktop technology and transistor density eliminated the need for 16-bit/24-bit partial precision operations. All things considered, 32-bit operations are preferred from a quality standpoint as they are accurate enough for many compute tasks and virtually all graphics tasks, which is why PC GPUs were limited to (or at least optimized for) partial precision operations for only a relatively short period of time.

However 16-bit operations are still alive and well on the SoC (mobile) side. SoC GPUs are in many ways a 5-10 year old echo of PC GPUs in features and performance, while in other ways they’re outright unique. In the case of SoC GPUs there are extreme sensitivities to power consumption in a way that PCs have never been so sensitive, so while SoC GPUs can use 32-bit operations, they will in some circumstances favor 16-bit operations for power efficiency purposes. Despite the accuracy limitations of a lower precision, if a developer knows they don’t need the greater accuracy then falling back to 16-bit means saving power and depending on the architecture also improving performance if multiple 16-bit operations can be scheduled alongside each other.

Quelle: http://www.anandtech.com/show/8460/amd-radeon-r9-285-review/2

You have got it backwards. It is not a case of FP32 catching up to FP16, it is FP16 capabilities being enhanced. It is happening in PC graphics as well, witness AMDs Tonga and where Intel is going since Gen8.

The reasons have been given before. All else being equal, FP16 operations take less power, requires less internal (and external) bandwidth, the hardware takes much less die area which for a given level of performance which lowers cost and improves yield which lowers cost again. Alternatively, for a given budget of die space and power draw, FP16 yields much better performance. Routinely using a compact numerical representation and only using larger formats when actually needed simply makes sense. Why waste limited resources?

I would contend, and recent developments in PC graphics space agrees, that rather than mobile graphics slavishly following in the footsteps of designs targeting high-end desktop PC/HPC, PC graphics will actually be more influenced by mobile solutions. Personal computing is moving to higher pixel densities (making small errors perceptually irrelevant) and laptops are moving towards lighter designs with longer battery lives, increasing demands on power efficiency. So rather than mobile loosing their constraints and being more enthusiast desktop like (SLI! Crossfire! 1200W PSUs!) which is a ridiculous notion, what is actually happening is that the bulk of personal computing is moving towards mobile constraints.
(Indeed, many who aren't emotionally rooted in PC space would contend that mobile is where the bulk of personal computing takes place these days. Windows PCs have become a (large) computing niche.)

If we project forward, these trends don't seem likely to turn around. New silicon tech is unlikely to make compromises unnecessary, rather the lithographic challenges going forward are increasing. If you want development to move forward, regardless of whether you are a tech hungry consumer, or a manufacturer who needs new stuff to sell, being ever more intelligent about how you use available resources seems like a very good idea.

Quelle: https://forum.beyond3d.com/threads/native-fp16-support-in-gpu-architectures.56180/#post-1805823

Sometimes it requires more work to get lower precision calculations to work (with zero image quality degradation), but so far I haven't encountered big problems in fitting my pixel shader code to FP16 (including lighting code). Console developers have a lot of FP16 pixel shader experience because of PS3. Basically all PS3 pixel shader code was running on FP16.

It is still is very important to pack the data in memory as tightly as possible as there is never enough bandwidth to lose. For example 16 bit (model space) vertex coordinates are still commonly used, the material textures are still dxt compressed (barely 8 bit quality) and the new HDR texture formats (BC6H) commonly used in cube maps have significantly less precision than a 16 bit float. All of these can be processed by 16 bit ALUs in pixel shader with no major issues. The end result will still be eventually stored to 8 bit per channel back buffer and displayed.

Could you give us some examples of operations done in pixel shaders that require higher than 16 bit float processing?

EDIT:
One example where 16 bit float processing is not enough: Exponential variance shadow mapping (EVSM) needs both 32 bit storage (32 bit float textures + 32 bit float filtering) and 32 bit float ALU processing.

However EVSM is not yet universally possible on mobile platforms right now, as there's no standard support for 32 bit float filtering in mobile devices (OpenGL ES 3.0 just recently added support for 16 bit float filtering, 32 bit float filtering is not yet present). Obviously GPU manufacturers can have OpenGL ES extensions to add FP32 filtering support if their GPU supports it (as most GPUs should as this has been a required feature in DirectX since 10.0).

Quelle: https://forum.beyond3d.com/threads/...n-gpu-architectures.56180/page-2#post-1805847

Register pressure is another bottleneck of GCN architecture. It's been discussed in many presentation since the current console gen launch. Fp16/int16 are great ways to reduce this bottleneck. GCN3 already introduced fp16/int16, but only for APUs. AMD marking slides state that GCN4 adds fp16/int16 for discrete GPUs (http://images.anandtech.com/doci/104...542.1449038245). This means that fp16/int16 is now a main feature on all GCN products. Nvidia is only offering fp16 on mobile and professional products. Gaming cards (GTX1070/1080) don't support it.

Quelle: https://forum.beyond3d.com/threads/amd-speculation-rumors-and-discussion.56719/page-182#post-1927339

Polaris beherrscht FP16/Int8 nativ
http://images.anandtech.com/doci/10446/P3.png?_ga=1.18704828.484432542.1449038245
 
Mit FP16 Daten im Input oder Output zu arbeiten ist sicher eher kein Problem, liegt ja heute in vielen Games im G-Buffer auch so drin. 16Bit stelle ich mir extrem wenig im (Pixel)shader Code in den Registern vor, die Fehlerrechnung dafür möchte ich mal sehen bei einem Algorithmus der über mehrere hundert Zeilen geht.
beste ergebnisse dürfte das im post processing also screen space geben.
 
Zuletzt bearbeitet:
Das ist nicht das Wii U layout ^^ Glaub nicht das es sowas von N geben wird.


Ja, schon klar. War nur der Anschauung halber.

Tablet-Gaming.png


Angeblich soll NX einen 7 Zoll Bildschirm besitzen.
 
Zeigt dieses "Game Device" erstes NX Footage?

[video=youtube;G41onx0PoZA]https://www.youtube.com/watch?v=G41onx0PoZA[/video]

Das neue Inazuma Eleven wurde heute ohne Nennung der Plattform wo drauf es läuft angekündigt. Bei allen anderen Titeln die Level-5 heute vorstellte, wurde meistens 3DS/Android und iOS genannt.
 
Zeigt dieses "Game Device" erstes NX Footage?

Ne "intelligente Uhr" mit Tracker und weiteren mir unbekannten Mist........ . Ja doch würde ins Quality of Life segment passen!?


Wenn NX Richtung Tablet geht, wird sicherlich ein 1280x720 oder 1200x800 Display verbaut. Wobei die Games im Mobile betrieb, in 800x480 nativ laufen könnten. Mehr erwarte ich von Nintendo sicherlich nicht, so würde auch mehr Spielraum beim Akku bleiben.
 
7 Zoll? Wird doch nicht etwa ein Tablet mit abnehmbaren Controller-Elementen? :eek4:

Die vergangenen Gerüchte/Infos sprachen von 5-7.

https://www.vg247.com/2016/06/03/nintendo-nx-mass-production-delayed-to-add-vr-features-report/
The report reiterates earlier talk that the NX would be part handheld, part home console. It’s said to feature a 5-7 inch display, as well as a controller.

Aber ob auch wirklich VR dabei ist ? :nix:

@ SuperTentacle

Welches Footage meinst du ? Hab nix außer die Uhr gesehen.

:v:
 
lr5evnif.jpg

Blind wird sicherlich keiner sein, schlechte Augen aus der Wii ohne U zeit -schon möglich! Das wird bestenfalls ja nur eine Beispiel Grafik sein, könnte QOL mit NX Verbindung darstellen.
 
Zeigt dieses "Game Device" erstes NX Footage?

[video=youtube;G41onx0PoZA]https://www.youtube.com/watch?v=G41onx0PoZA[/video]

Das neue Inazuma Eleven wurde heute ohne Nennung der Plattform wo drauf es läuft angekündigt. Bei allen anderen Titeln die Level-5 heute vorstellte, wurde meistens 3DS/Android und iOS genannt.

Nein, nein und nein. Level 5 hat heut 8? Titel gezeigt und zu vier? Spielen keine Plattform genannt. Bei einem der Titel konnte man aber auch X und Dreieck sehen ergo Playstation. Vita-Nachfolger incoming? War das Spiel mit den Robotern, das letzte der Show.

lr5evnif.jpg

Blind wird sicherlich keiner sein, schlechte Augen aus der Wii ohne U zeit -schon möglich! Das wird bestenfalls ja nur eine Beispiel Grafik sein, könnte QOL mit NX Verbindung darstellen.

Mei mei, wie hast du 8 Jahre PS3 ausgehalten wenn Wii U Grafik schlechte Augen macht?
 
Nein, nein und nein. Level 5 hat heut 8? Titel gezeigt und zu vier? Spielen keine Plattform genannt. Bei einem der Titel konnte man aber auch X und Dreieck sehen ergo Playstation. Vita-Nachfolger incoming? War das Spiel mit den Robotern, das letzte der Show.



Mei mei, wie hast du 8 Jahre PS3 ausgehalten wenn Wii U Grafik schlechte Augen macht?

Das letzte Spiel ist für 3DS angekündigt

http://nintendoeverything.com/level...media-project-megaton-musashi-will-be-on-3ds/
 
MCV: NX will be cheaper than the majority expect
http://www.mcvuk.com/news/read/nintendo-nx-the-pros-and-cons-of-a-transforming-portable/0170297

Price

Early online speculation about pricing for the NX expects it to be cheaper than current consoles, but from what we’ve heard it’s going to be cheaper than even the vast majority expect. This is a machine that is targeting the mass market, and Nintendo certainly plans for it to have a mass market price. Price is one Wii U mistake Nintendo is determined not to repeat. This could be NX's single biggest win.

Also

MCV has spoken to one person with hands-on experience with the machine. Their assessment? "It feels like a bit of a novelty."

UPDATE: As there still seems to be some debate about the veracity of Eurogamer's claims, our aforementioned senior source assures us the site is "100 per cent correct".

199 wäre schon ein netter preis und ne relativ niedrige hürde für ne nen starken Nintendo "Handheld", der die Spiele auch auf den TV bringt, mal schaun.
 
Die theoretischen Werte halte ich für Bumsshit.
Ich rechne mit 720p maximal Wii U Niveau. Vermutlich etwas darunter, weil bei fehlendem Lüfter nix ohne Drosselung läuft.

Ich glaube nicht, dass das Dock mit Hardware kommt, was im Zusammenspiel mit dem Handheld zu einem Speedbump führen würde.

Das Ding streamt das 720p Handheld Bild auf die Glotze und der Handheld dient als Controller, wobei darüber noch weitere Controller eingebunden werden können. Mehr nicht.

Sicher ein guter 3DS Nachfolger, aber de facto zieht sich Nintendo damit aus dem Konsolenmarkt zurück.

Für mich ist das ganz sicher nichts.

Ich habe eine Wii U. Die hat dieselbe Power und einen "Handheld" mit Display.

Wieso sollte ich dafür noch mal Kohle investieren? Alle NX Games könnten auch problemlos auf der Wii U erscheinen!
 
Die theoretischen Werte halte ich für Bumsshit.
Ich rechne mit 720p maximal Wii U Niveau. Vermutlich etwas darunter, weil bei fehlendem Lüfter nix ohne Drosselung läuft.

Ich glaube nicht, dass das Dock mit Hardware kommt, was im Zusammenspiel mit dem Handheld zu einem Speedbump führen würde.

Das Ding streamt das 720p Handheld Bild auf die Glotze und der Handheld dient als Controller, wobei darüber noch weitere Controller eingebunden werden können. Mehr nicht.

Sicher ein guter 3DS Nachfolger, aber de facto zieht sich Nintendo damit aus dem Konsolenmarkt zurück.

Für mich ist das ganz sicher nichts.

Ich habe eine Wii U. Die hat dieselbe Power und einen "Handheld" mit Display.

Wieso sollte ich dafür noch mal Kohle investieren? Alle NX Games könnten auch problemlos auf der Wii U erscheinen!

Na na na, du tust so als würden wir alle Fakten kennen. Sollte das Teil im "Konsolenmodus" gekühlt werden und nicht runtergetaktet, dann ist es schon deutlich stärker als die Wii U, moderner sowieso, der Leistungsfresser Android wird vermutlich wegfallen, hochwertige Spiele dafür entwickelt. Nintendos Spiele werden vermutlich sichtbar besser aussehen. Falls Tegra X2 verwendet wird nochmal mehr. Warten wir es einfach ab.

Aber ja, es wird wohl vor allem ein relativ starker Handheld sein und die Wii U bekommt erstmal keinen wirklichen Nachfolger, stört mich in dem Fall aber nicht, ich werde mehr nintendogames am Fernseher zocken können als bisher.

Ich habe eigentlich schon lange gesagt, dass der 3DS einen Nachfolger braucht, scheint als kriegt er ihn und wer will kann die Spiele allesamt auch auf dem TV zocken. Nintendo wird das vermutlich nicht als PS4 konkurrenz bewerben, eventuell als stärksten Handheld der Welt :v:

Oder nintendo überrascht und steckt doch noch Hardware in die TV-Box.
 
Zuletzt bearbeitet:
Wird schon knapp mit WiiU-Leistung, wenn es denn nur der X1 wird. Der tut sich schon schwer mit Last-Gen-Games wie RE5 oder gar HL2. Kann natürlich immer noch der Tegra X2 werden, aber irgendwie glaube ich bei Nintendo nicht daran. Und damit wird es schwer einen "überraschend" niedrigen Preis einzuhalten. Nintendo wird kaum billiger produzieren, als Nvidia selbst.
 
Wird schon knapp mit WiiU-Leistung, wenn es denn nur der X1 wird. Der tut sich schon schwer mit Last-Gen-Games wie RE5 oder gar HL2. Kann natürlich immer noch der Tegra X2 werden, aber irgendwie glaube ich bei Nintendo nicht daran. Und damit wird es schwer einen "überraschend" niedrigen Preis einzuhalten. Nintendo wird kaum billiger produzieren, als Nvidia selbst.

Wir wissen nicht wie sich Tegra X1 ohne Android Überbau schlägt. Imo kann man es nicht einfach mit den paar Shield TV Ports vergleichen. Digital Foundry hat es angesprochen, der Chip mag kein Direct X, Android frisst leistung und die Vita liefert auch deutlich bessere Ergebnisse als die meisten Spiele auf Smartphones mit der gleichen oder sehr ähnlichen Hardware. In ihrem Beispiel läuft Doom (Open GL) deutlich besser als auf der X360 und in 1080p statt 720p.

Und warum kühlen sie das Teil im Devkit aktiv wenn sie es später nur massiv runtergetaktet verwenden wollen? Wir wissen eben nicht was für eine Hardware sie im Endprodukt verwenden, kann auch ein angepasster X1 sein, in 16nm oder 14 nm, ich würde nicht darauf wetten, dass sie einfach das normale modell reinstecken.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom