Kantholz
L20: Enlightened
- Seit
- 3 Jan 2006
- Beiträge
- 21.938
- Xbox Live
- zwallack
- PSN
- zwallack x
- Switch
- 6240 1739 0905
- Steam
- Zwallack
- Discord
- Zwallack#4202
Mogry..... der frust.... hihi
Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
Wenn alle immer in Sitzkreisen debattiert hätten, was geht und was nicht, wäre das Rad nie erfunden worden.
Und hätten alle immer nur geträumt, wäre nie einer aufgewacht.
Ich bin dicht (Frau wurde 30) und finde du hast recht!
Ich bin dicht (Frau wurde 30) und finde du hast recht!
Wo ist Prov, wenn man ihn braucht. :v:Ok, da würde ich mich auch betrinken :v:
Nicowav (Nico Augusto) spricht wieder mal über Switch, laut SMD irgendwas von RRR Port und PS4 Power :v:
Kann jemand hier franzmännisch?
CPU
HUAWEI Hisilicon Kirin 950(64-bit,16nm, FinFET)
Octa core(4*2.3GHz A72 +4*1.8GHzA53)+i5 co-processor
Wieso soll die a73 CPU unrealistisch sein? Zu teuer oder zu hungrig?
Im Huawei Mate 8 werkelt ja folgende CPU:
https://browser.primatelabs.com/geekbench3/compare/7140400?baseline=8159888
Laut der Seite ist die CPU schneller als ein Jaguar Quadcore @ 1,6 ghz.
Wie würde sich das Ding gegen die PS4 CPU schlagen?
Hab das alles grob bei Gamefaqs aufgeschnappt und bin irgendwie nicht draus schlau geworden. In jedem Forum wird was anderes behauptet
Würde mich über eine Erklärung freuen.
Mal ne andere Frage: Wie viel Watt kann man eigentlich durch reines runtertakten einsparen? Und damit meine ich nicht lediglich die CPU/GPU, sondern auch sonstige Teile die man für den mobilen Betrieb offline nehmen könnte.
Hängt natürlich alles von der Architektur ab, aber was schätzt was bei einem Hybriden wie der Switch theoretisch möglich wäre (und Wahrscheinlichkeit ist mir jetzt mal egal) mit jeweiligen Vor- und Nachteilen (Abwärme, Kosten, etc.)
Ihr dürft gerne auch ein wenig spinnen. Nur sollten die Ideen auch in irgendeiner Form realisierbar sein (keine SiFi-Warp-getriebenen Flux-CPUs mit Antimateriekern oder so).
Die Antwort auf deine frage ist vergleichsweise einfach. Schon vor langer Zeit wurde die Basis-Technologie für den Großteil der Schaltungen auf CMOS umgestellt. Ich weiss nicht, ob dir das was sagt, aber stellt dir 2 Schalter vor einer mit + verbunden (z.B. 1,9 V) und einer mit - verbunden (z.B. 0 V). Die Schalter sind so eingestellt, dass niemals beide gleichzeitig auf an sein können. Sprich entweder der oberere ist an und der untere sperrt oder umgekehrt. Wenn mal "Dreck"-Effekte wie Leckströme etc. weg lässt dann wird schnell klar, dass nennenswerte Ströme nur beim Umschalten fliessen, sprich wenn oben und unten halb an ist. Entsprechend ist die Verlust-Leistung abhängig von der Frequenz mit der die Schaltung betrieben wird und wenn ich mich nicht täusche auch qudratisch.
Konkret bedutet das:
Frequenz/2 => Verlustleistung/4
CMOS kann auch ganz elegant bis zu sehr niedrigen Frequenzen betrieben werden, wie man am Zuklappen beim 3DS oder auch einem Macbook sehen kann.
Weitere Abhängigleiten sind die Betriebsspannung (5 V werden schon lange nicht mehr verwendet) und die Größe der Strukturen. Früher galt ganz grob je kleiner desto besser. Allerdings kommt man so langsam an die Grenze. Inzwischen gilt auch, so je kleiner die Schalter desto größer die Dreckeffekte und die sind mit 16 nm schon ziemlich klein. Deshalb ist der Einsatz der FinFETs in Nvidias Pascal wahrscheinlich auch wesentlich wichtiger als die Verkleinerung.
Nun ich kenne mich rudimentär mit Hardware aus, bin aber eigentlich Programmierer und schon seit über nem Jahrzehnt nicht mehr aktiv am selber schrauben, also nicht auf dem Neuesten Stand.
Mir geht es eher darum dass als größte Bremse für die Switch-Power eigentlich immer die Watt-Zahl und die Größe (mit entsprechender Abwärme) genannt werden. Aber wenn das Teil so groß ist wie ein WiiU-Pad kann man da alles mögliche verbauen, was auch ordentlich Strom fressen darf, solange die Switch nicht im mobile-Modus ist. Als Problem bleibt halt immer noch dass einem das Teil ab einer gewissen Temperatur schmilzt
Aber mal im Ernst. Was mich jetzt interessieren würde (unabhängig von dem was in der Realität kommen wird und irgendwelchen Luftschlössern die manche user bauen wollen, bevor sich da manche wieder was einbilden) wäre einfach wie ihr ordentlich power aus einem sagen wir 15Watt Tablet kitzeln würdet, wenn ihr die Größe der Switch und eine Docking-Station zur Verfügung habt. Ihr könnt natürlich auch 2 Engines für die verschiedenen Power-Stufen verwenden, solltet das dann aber als Nachteil anmerken ^^
Ihr könnt den Takt regulieren, Co-Prozessoren einbauen, die im mobilen Modus deaktiviert werden, etc. Wenn die Kosten zu hoch gehen wird's halt als Nachteil aufgeführt.
Würde mich einfach interessieren was bei euch dabei so rauskommt.
Ich persönlich denke, dass man im Batterie-Betrieb nicht länger als 2 Stunden "heisse" Spiele spielen kann oder aber dass man mobil mit der Auflösung runtergeht. Da es dabei im Wesentlichen um die Füllrate geht könnte man z.B. die Hälfte der Shader abschalten und die Auflösung halbieren oder so. Allerdings im Gesamsystem spart man damit wahrschinlich höchstens 30%
Wie stehts mit ner zweiten GPU im SLI die nur anspringt wenn das Teil im Dock ist?
Man könnte auch "einfach" nen größeren Chip verbauen, mit mehr Cuda Cores und die im mobilen Betrieb runtertakten (oder eventuell einen Teil davon abschalten). Sli ist immer schlechter als eine stärkere "GPU". So wird Nvidia für den nächsten Tegra Soc 512 Cudacores nutzen (Xavier) und eine 8kerner CPU (TDP soll 20 Watt sein), Parker nutzt nur 256 wie der X1. Jetzt könnte Nintendo, wenn sie unbedingt wollten auch 384 (3 SMMs?) Cudacores reinpacken und diese niedriger takten, im angeschlossenen Betrieb könnte man ein wenig höher aufdrehen. Es ist halt die Frage was Nintendo macht, ob sie 2 unterschiedliche "modes" nutzen, was natürlich komplizierter ist, oder die Taktung immer gleich lassen und im angeschlossenen Zustand eventuell nur ein paar wenige fps mehr rausspringen.
Im Grunde berufen wir uns nur auf das geleakte frühe Devkit und das hatte halt nen X1 verbaut. Grundsätzlich wärs natürlich möglich, dass Nintendo andere CPU Kerne nimmt (A72 oder A73 statt A57, Denver halte ich für schlecht geeignet) und dem SoC ein paar Cudakerne mehr verpasst, aber man darf auch nicht vergessen das das Geld kostet was das Gerät teurer macht, unterschiedliche Modi mehr Entwicklungsaufwand benötigen etc. Ich sehe es selbst wahrscheinlicher, dass nin bei der CPU verbessert und halt 256 Cudakerne nutzt und im schlechtesten Fall die Taktung immer gleich lässt.
Ich würde es natürlich begrüßen wenn Nintendo 3 SMMs (a jeweils 128 Cudacores) verbaut (ich komme bei den Begriffen schon mal durcheinander, im GAF nennen es einige CUs, ihr dürftet wissen was ich meine), wäre für den angeschlossenen "Modus" natürlich toll. Rechnen würde ich nicht damit (aber es wäre imo wahrscheinlicher als Sli etc.)
Jo, klingt sinnvoll. Die Idee der SLI kam eher daher dass ich die zweite GPU ins Dock gesteckt hätte. Mehr Möglichkeiten der Kühlung, mehr Platz zur Verfügung, etc. Aber dafür wäre die Schnittstelle komplizierter geworden.