Switch Nintendo Switch Reveal - Pre-Event-Thread

Status
Nicht offen für weitere Antworten.
Wenn alle immer in Sitzkreisen debattiert hätten, was geht und was nicht, wäre das Rad nie erfunden worden.
 
Ich bin dicht (Frau wurde 30) und finde du hast recht!

Ok, da würde ich mich auch betrinken :v: :P

Nicowav (Nico Augusto) spricht wieder mal über Switch, laut SMD irgendwas von RRR Port und PS4 Power :v:
Kann jemand hier franzmännisch?

[video=youtube;-EZOXAlR2tQ]https://www.youtube.com/watch?v=-EZOXAlR2tQ[/video]
 
Zwar etwas simpel gehalten, aber so in etwa erhoff ich mir das auch.

[video=youtube;VD9DNrzM4d8]https://www.youtube.com/watch?v=VD9DNrzM4d8[/video]
 
Nie im Leben.

8GB in 'nem Handheld. Dazu noch vier im Dock. Wie teuer soll das Teil werden?

Das einzige was ich mir vorstellen kann ist, dass die Variante die wir im Video gesehen haben die Handheldvariante ist und es zusätzlich noch eine reine Heimkonsole gibt. Dann könnten 8 GB drin sein. Würde ich aber auch nicht drauf wetten. Und später gibts dann noch weitere Varianten wie Mini und so.
 
Wieso soll die a73 CPU unrealistisch sein? Zu teuer oder zu hungrig?
Im Huawei Mate 8 werkelt ja folgende CPU:

CPU
HUAWEI Hisilicon Kirin 950(64-bit,16nm, FinFET)
Octa core(4*2.3GHz A72 +4*1.8GHzA53)+i5 co-processor

https://browser.primatelabs.com/geekbench3/compare/7140400?baseline=8159888

Laut der Seite ist die CPU schneller als ein Jaguar Quadcore @ 1,6 ghz.
Wie würde sich das Ding gegen die PS4 CPU schlagen?
Hab das alles grob bei Gamefaqs aufgeschnappt und bin irgendwie nicht draus schlau geworden. In jedem Forum wird was anderes behauptet xD

Würde mich über eine Erklärung freuen.
 
Zuletzt bearbeitet:
Wieso soll die a73 CPU unrealistisch sein? Zu teuer oder zu hungrig?
Im Huawei Mate 8 werkelt ja folgende CPU:



https://browser.primatelabs.com/geekbench3/compare/7140400?baseline=8159888

Laut der Seite ist die CPU schneller als ein Jaguar Quadcore @ 1,6 ghz.
Wie würde sich das Ding gegen die PS4 CPU schlagen?
Hab das alles grob bei Gamefaqs aufgeschnappt und bin irgendwie nicht draus schlau geworden. In jedem Forum wird was anderes behauptet xD

Würde mich über eine Erklärung freuen.

Es kann alles sein. Der einzige Punkt ist, dass es keine (ernsthaften) Hinweise darauf gibt dass es ein A73 wird. Unter anderem stehen weder Nintendo noch NVididia auf der Liste der Lizenznehmer. Aber wie schon mal geschrieben, ist die Namensliste kürzer als die Anzahl der Lizenznehmer, also es kann schon sein.
Aber es gibt hier im Forum auch niemand, der einen NES Mini darauf wetten würde :coolface:

Ansonsten ist das Thema x86 vs. ARMxx einen eigenen WAR-Thread Wert. Eine einfache Antwort gibt es auf deine Frage nicht. Allerdings ist das Design von ARM wesentlich effizienter als das x86-Design, insofern ist der Krieg im mobilen Bereich vorbei. Aber im Highend Tablet- und vor allem im Desktop-Bereich ist x86 klar domininant.

Ich persönlich denke immer noch dass die CPU aus dem Parker wird (=4 A57 + 2x Denver) und die würde abhängig von der Frequenz auch einem Jaguar Schwierigkeiten machen. Für die Performance als Konsole dürfte aber die Grafikleistung deutlich entscheidender werden...
 
Mal ne andere Frage: Wie viel Watt kann man eigentlich durch reines runtertakten einsparen? Und damit meine ich nicht lediglich die CPU/GPU, sondern auch sonstige Teile die man für den mobilen Betrieb offline nehmen könnte.
Hängt natürlich alles von der Architektur ab, aber was schätzt was bei einem Hybriden wie der Switch theoretisch möglich wäre (und Wahrscheinlichkeit ist mir jetzt mal egal) mit jeweiligen Vor- und Nachteilen (Abwärme, Kosten, etc.)
Ihr dürft gerne auch ein wenig spinnen. Nur sollten die Ideen auch in irgendeiner Form realisierbar sein (keine SiFi-Warp-getriebenen Flux-CPUs mit Antimateriekern oder so).
 
Mal ne andere Frage: Wie viel Watt kann man eigentlich durch reines runtertakten einsparen? Und damit meine ich nicht lediglich die CPU/GPU, sondern auch sonstige Teile die man für den mobilen Betrieb offline nehmen könnte.
Hängt natürlich alles von der Architektur ab, aber was schätzt was bei einem Hybriden wie der Switch theoretisch möglich wäre (und Wahrscheinlichkeit ist mir jetzt mal egal) mit jeweiligen Vor- und Nachteilen (Abwärme, Kosten, etc.)
Ihr dürft gerne auch ein wenig spinnen. Nur sollten die Ideen auch in irgendeiner Form realisierbar sein (keine SiFi-Warp-getriebenen Flux-CPUs mit Antimateriekern oder so).

Die Antwort auf deine frage ist vergleichsweise einfach. Schon vor langer Zeit wurde die Basis-Technologie für den Großteil der Schaltungen auf CMOS umgestellt. Ich weiss nicht, ob dir das was sagt, aber stellt dir 2 Schalter vor einer mit + verbunden (z.B. 1,9 V) und einer mit - verbunden (z.B. 0 V). Die Schalter sind so eingestellt, dass niemals beide gleichzeitig auf an sein können. Sprich entweder der oberere ist an und der untere sperrt oder umgekehrt. Wenn mal "Dreck"-Effekte wie Leckströme etc. weg lässt dann wird schnell klar, dass nennenswerte Ströme nur beim Umschalten fliessen, sprich wenn oben und unten halb an ist. Entsprechend ist die Verlust-Leistung abhängig von der Frequenz mit der die Schaltung betrieben wird und wenn ich mich nicht täusche auch qudratisch.
Konkret bedutet das:
Frequenz/2 => Verlustleistung/4

CMOS kann auch ganz elegant bis zu sehr niedrigen Frequenzen betrieben werden, wie man am Zuklappen beim 3DS oder auch einem Macbook sehen kann.

Weitere Abhängigleiten sind die Betriebsspannung (5 V werden schon lange nicht mehr verwendet) und die Größe der Strukturen. Früher galt ganz grob je kleiner desto besser. Allerdings kommt man so langsam an die Grenze. Inzwischen gilt auch, so je kleiner die Schalter desto größer die Dreckeffekte und die sind mit 16 nm schon ziemlich klein. Deshalb ist der Einsatz der FinFETs in Nvidias Pascal wahrscheinlich auch wesentlich wichtiger als die Verkleinerung.
 
Zuletzt bearbeitet:
Die Antwort auf deine frage ist vergleichsweise einfach. Schon vor langer Zeit wurde die Basis-Technologie für den Großteil der Schaltungen auf CMOS umgestellt. Ich weiss nicht, ob dir das was sagt, aber stellt dir 2 Schalter vor einer mit + verbunden (z.B. 1,9 V) und einer mit - verbunden (z.B. 0 V). Die Schalter sind so eingestellt, dass niemals beide gleichzeitig auf an sein können. Sprich entweder der oberere ist an und der untere sperrt oder umgekehrt. Wenn mal "Dreck"-Effekte wie Leckströme etc. weg lässt dann wird schnell klar, dass nennenswerte Ströme nur beim Umschalten fliessen, sprich wenn oben und unten halb an ist. Entsprechend ist die Verlust-Leistung abhängig von der Frequenz mit der die Schaltung betrieben wird und wenn ich mich nicht täusche auch qudratisch.
Konkret bedutet das:
Frequenz/2 => Verlustleistung/4

CMOS kann auch ganz elegant bis zu sehr niedrigen Frequenzen betrieben werden, wie man am Zuklappen beim 3DS oder auch einem Macbook sehen kann.

Weitere Abhängigleiten sind die Betriebsspannung (5 V werden schon lange nicht mehr verwendet) und die Größe der Strukturen. Früher galt ganz grob je kleiner desto besser. Allerdings kommt man so langsam an die Grenze. Inzwischen gilt auch, so je kleiner die Schalter desto größer die Dreckeffekte und die sind mit 16 nm schon ziemlich klein. Deshalb ist der Einsatz der FinFETs in Nvidias Pascal wahrscheinlich auch wesentlich wichtiger als die Verkleinerung.

Nun ich kenne mich rudimentär mit Hardware aus, bin aber eigentlich Programmierer und schon seit über nem Jahrzehnt nicht mehr aktiv am selber schrauben, also nicht auf dem Neuesten Stand.
Mir geht es eher darum dass als größte Bremse für die Switch-Power eigentlich immer die Watt-Zahl und die Größe (mit entsprechender Abwärme) genannt werden. Aber wenn das Teil so groß ist wie ein WiiU-Pad kann man da alles mögliche verbauen, was auch ordentlich Strom fressen darf, solange die Switch nicht im mobile-Modus ist. Als Problem bleibt halt immer noch dass einem das Teil ab einer gewissen Temperatur schmilzt :D
Aber mal im Ernst. Was mich jetzt interessieren würde (unabhängig von dem was in der Realität kommen wird und irgendwelchen Luftschlössern die manche user bauen wollen, bevor sich da manche wieder was einbilden) wäre einfach wie ihr ordentlich power aus einem sagen wir 15Watt Tablet kitzeln würdet, wenn ihr die Größe der Switch und eine Docking-Station zur Verfügung habt. Ihr könnt natürlich auch 2 Engines für die verschiedenen Power-Stufen verwenden, solltet das dann aber als Nachteil anmerken ^^
Ihr könnt den Takt regulieren, Co-Prozessoren einbauen, die im mobilen Modus deaktiviert werden, etc. Wenn die Kosten zu hoch gehen wird's halt als Nachteil aufgeführt.
Würde mich einfach interessieren was bei euch dabei so rauskommt.
 
Zuletzt bearbeitet:
Nun ich kenne mich rudimentär mit Hardware aus, bin aber eigentlich Programmierer und schon seit über nem Jahrzehnt nicht mehr aktiv am selber schrauben, also nicht auf dem Neuesten Stand.
Mir geht es eher darum dass als größte Bremse für die Switch-Power eigentlich immer die Watt-Zahl und die Größe (mit entsprechender Abwärme) genannt werden. Aber wenn das Teil so groß ist wie ein WiiU-Pad kann man da alles mögliche verbauen, was auch ordentlich Strom fressen darf, solange die Switch nicht im mobile-Modus ist. Als Problem bleibt halt immer noch dass einem das Teil ab einer gewissen Temperatur schmilzt :D
Aber mal im Ernst. Was mich jetzt interessieren würde (unabhängig von dem was in der Realität kommen wird und irgendwelchen Luftschlössern die manche user bauen wollen, bevor sich da manche wieder was einbilden) wäre einfach wie ihr ordentlich power aus einem sagen wir 15Watt Tablet kitzeln würdet, wenn ihr die Größe der Switch und eine Docking-Station zur Verfügung habt. Ihr könnt natürlich auch 2 Engines für die verschiedenen Power-Stufen verwenden, solltet das dann aber als Nachteil anmerken ^^
Ihr könnt den Takt regulieren, Co-Prozessoren einbauen, die im mobilen Modus deaktiviert werden, etc. Wenn die Kosten zu hoch gehen wird's halt als Nachteil aufgeführt.
Würde mich einfach interessieren was bei euch dabei so rauskommt.


Ich persönlich denke, dass man im Batterie-Betrieb nicht länger als 2 Stunden "heisse" Spiele spielen kann oder aber dass man mobil mit der Auflösung runtergeht. Da es dabei im Wesentlichen um die Füllrate geht könnte man z.B. die Hälfte der Shader abschalten und die Auflösung halbieren oder so. Allerdings im Gesamsystem spart man damit wahrschinlich höchstens 30%
 
Ich persönlich denke, dass man im Batterie-Betrieb nicht länger als 2 Stunden "heisse" Spiele spielen kann oder aber dass man mobil mit der Auflösung runtergeht. Da es dabei im Wesentlichen um die Füllrate geht könnte man z.B. die Hälfte der Shader abschalten und die Auflösung halbieren oder so. Allerdings im Gesamsystem spart man damit wahrschinlich höchstens 30%

Wie stehts mit ner zweiten GPU im SLI die nur anspringt wenn das Teil im Dock ist?
 
Wie stehts mit ner zweiten GPU im SLI die nur anspringt wenn das Teil im Dock ist?

Man könnte auch "einfach" nen größeren Chip verbauen, mit mehr Cuda Cores und die im mobilen Betrieb runtertakten (oder eventuell einen Teil davon abschalten). Sli ist immer schlechter als eine stärkere "GPU". So wird Nvidia für den nächsten Tegra Soc 512 Cudacores nutzen (Xavier) und eine 8kerner CPU (TDP soll 20 Watt sein), Parker nutzt nur 256 wie der X1. Jetzt könnte Nintendo, wenn sie unbedingt wollten auch 384 (3 SMMs?) Cudacores reinpacken und diese niedriger takten, im angeschlossenen Betrieb könnte man ein wenig höher aufdrehen. Es ist halt die Frage was Nintendo macht, ob sie 2 unterschiedliche "modes" nutzen, was natürlich komplizierter ist, oder die Taktung immer gleich lassen und im angeschlossenen Zustand eventuell nur ein paar wenige fps mehr rausspringen.

Im Grunde berufen wir uns nur auf das geleakte frühe Devkit und das hatte halt nen X1 verbaut. Grundsätzlich wärs natürlich möglich, dass Nintendo andere CPU Kerne nimmt (A72 oder A73 statt A57, Denver halte ich für schlecht geeignet) und dem SoC ein paar Cudakerne mehr verpasst, aber man darf auch nicht vergessen das das Geld kostet was das Gerät teurer macht, unterschiedliche Modi mehr Entwicklungsaufwand benötigen etc. Ich sehe es selbst wahrscheinlicher, dass nin bei der CPU verbessert und halt 256 Cudakerne nutzt und im schlechtesten Fall die Taktung immer gleich lässt.

Ich würde es natürlich begrüßen wenn Nintendo 3 SMMs (a jeweils 128 Cudacores) verbaut (ich komme bei den Begriffen schon mal durcheinander, im GAF nennen es einige CUs, ihr dürftet wissen was ich meine), wäre für den angeschlossenen "Modus" natürlich toll. Rechnen würde ich nicht damit (aber es wäre imo wahrscheinlicher als Sli etc.)
 
Man könnte auch "einfach" nen größeren Chip verbauen, mit mehr Cuda Cores und die im mobilen Betrieb runtertakten (oder eventuell einen Teil davon abschalten). Sli ist immer schlechter als eine stärkere "GPU". So wird Nvidia für den nächsten Tegra Soc 512 Cudacores nutzen (Xavier) und eine 8kerner CPU (TDP soll 20 Watt sein), Parker nutzt nur 256 wie der X1. Jetzt könnte Nintendo, wenn sie unbedingt wollten auch 384 (3 SMMs?) Cudacores reinpacken und diese niedriger takten, im angeschlossenen Betrieb könnte man ein wenig höher aufdrehen. Es ist halt die Frage was Nintendo macht, ob sie 2 unterschiedliche "modes" nutzen, was natürlich komplizierter ist, oder die Taktung immer gleich lassen und im angeschlossenen Zustand eventuell nur ein paar wenige fps mehr rausspringen.

Im Grunde berufen wir uns nur auf das geleakte frühe Devkit und das hatte halt nen X1 verbaut. Grundsätzlich wärs natürlich möglich, dass Nintendo andere CPU Kerne nimmt (A72 oder A73 statt A57, Denver halte ich für schlecht geeignet) und dem SoC ein paar Cudakerne mehr verpasst, aber man darf auch nicht vergessen das das Geld kostet was das Gerät teurer macht, unterschiedliche Modi mehr Entwicklungsaufwand benötigen etc. Ich sehe es selbst wahrscheinlicher, dass nin bei der CPU verbessert und halt 256 Cudakerne nutzt und im schlechtesten Fall die Taktung immer gleich lässt.

Ich würde es natürlich begrüßen wenn Nintendo 3 SMMs (a jeweils 128 Cudacores) verbaut (ich komme bei den Begriffen schon mal durcheinander, im GAF nennen es einige CUs, ihr dürftet wissen was ich meine), wäre für den angeschlossenen "Modus" natürlich toll. Rechnen würde ich nicht damit (aber es wäre imo wahrscheinlicher als Sli etc.)

Jo, klingt sinnvoll. Die Idee der SLI kam eher daher dass ich die zweite GPU ins Dock gesteckt hätte. Mehr Möglichkeiten der Kühlung, mehr Platz zur Verfügung, etc. Aber dafür wäre die Schnittstelle komplizierter geworden.
 
Jo, klingt sinnvoll. Die Idee der SLI kam eher daher dass ich die zweite GPU ins Dock gesteckt hätte. Mehr Möglichkeiten der Kühlung, mehr Platz zur Verfügung, etc. Aber dafür wäre die Schnittstelle komplizierter geworden.

Denkbar ist sowas (theoretisch). Vermutlich lässt sich so aber kein vernünftiges Verhältnis Aufwand(=Kosten) / Nutzen erzeugen.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom