Switch Nintendo Switch Reveal - Pre-Event-Thread

Status
Nicht offen für weitere Antworten.
mich lässt das auch recht kalt welcher tegra/arm cortex/denver whatever da drin ist wisst ihr warum? das ding wird vielleicht wenn es im märz erscheint, vorne dabei sein, aber paar monate später kommt wieder ein neuer tegra/arm cortex/denver chip dann gehört switch wieder nur in der technischen mittelklasse ab 2018
 
@nullpointer: Battlefield1 läuft am PC auch auf 4gb Systemen, halt nicht gut (aber das liegt auch an den verwendeten CPUs und dafür ist es nicht angepasst). Denke das könnte man mit Anpassung schon hinkriegen, wenn der Publisher es wirklich möchte, an den höchstens 2gb Ram Unterschied sollte das zumindest nicht scheitern. Zumindest wäre ich mir nicht so sicher wie du ;) Aber ich glaube auch nicht dass es kommt, wäre auch schon ne olle Kamelle bis zum Launch der Switch.

Meinst du 2GiB System-RAM und 2GiB V-RAM? Hat jemand Battlefield schon einmal mit 2GiB System-RAM gestartet? :ugly:
 
mich lässt das auch recht kalt welcher tegra/arm cortex/denver whatever da drin ist wisst ihr warum? das ding wird vielleicht wenn es im märz erscheint, vorne dabei sein, aber paar monate später kommt wieder ein neuer tegra/arm cortex/denver chip dann gehört switch wieder nur in der technischen mittelklasse ab 2018

Gleiches hast du bei jeder Konsole. Verstehe dich daher vollkommen. Interessiere mich eher für die Software, da man doch immer noch etwas tricksen kann und muss. Am Ende spielts halt ne größere Rolle für etwaige Third-Spiele. N macht ja immer das Beste aus dem was sie haben.
 
Hier mal ein ganz guter und noch recht aktueller Artikel zum Stand der Mobil-Technologie:

Since ARM wants to compare against consoles, however, we’ll focus our discussion there. It’s absolutely true that mobile GPUs have made great strides in recent years, both in terms of raw performance and power efficiency. They also support more advanced APIs than the older consoles, which further improves their ability to render complex scenes using less power, or to use more advanced effects. None of this, however, rewrites the laws of physics.

(...)

The only data we care about in this case are the game play figures. A next-generation version of either console would use significantly less power if it was built on a 14nm process node, and even less if it used the 10nm technology that might be available by the end of 2017. For argument’s sake, let’s assume that the 14nm node could cut power consumption by 40%, with the 10nm node cutting another 40% off that. By 2017, our hypothetical PS4 draws 70W under full load, while the Xbox One is down to just 56W. If we assume another 25% improvement thanks to architectural enhancements, the PS4 is just 56W and the Xbox One is a positively svelte 45W.

Typical smartphone TDP is in the 4-5W range. Tablets get more headroom, but 10-12W is the usual max. Micro-consoles like the Shield might have 20W envelopes for gaming, but that’s still less than half the TDP of our hypothetical Advanced PlayStation 4. Our estimates on potential power savings for current-gen consoles, meanwhile, are extremely optimistic, essentially assuming that the entire platform can be scaled to reduce power at a constant rate.

No mobile device in 2017 is going to be capable of delivering the PS4’s graphics in a 4-5W TDP. And while we’re on that topic, GFLOPS/s is a lousy metric for comparing performance between vastly different architectures and form factors. If the SoC can’t keep those GPU cores fed with information, all the theoretical floating-point performance in the world won’t mean squat. There’s a reason why modern GPUs are backed by multi-channel sophisticated memory interfaces clocked at high speeds and with large integrated caches. All of these technologies boost sustained performance at the cost of power consumption. Even ARM ultimately acknowledged that mobile can’t really compete on these terms.

https://www.extremetech.com/gaming/...o-catch-dedicated-consoles-by-the-end-of-2017
 
Hier mal ein ganz guter und noch recht aktueller Artikel zum Stand der Mobil-Technologie:



https://www.extremetech.com/gaming/...o-catch-dedicated-consoles-by-the-end-of-2017

Bin auf die Problematik ja auch anhand des Pixel Cs eingegangen, welches einen runtergetakteten X1 verwendet, mit 10 Zoll um einiges Größer ist als Switch (jedenfalls bezüglich x und y, die Tiefe von Switch ist mir nicht bekannt) und einen wuchtigen 9000 mAh Akku verwendet. Anadtech schrieb hierzu

We’ve already seen how this GPU performs in the SHIELD Android TV, but due to being battery powered and having stricter thermal constraints, there will obviously be differences in performance between it and the Pixel C. In this case, it appears that the GPU is also running at a lower frequency than the SHIELD Android TV. While it has been estimated that the SHIELD Android TV's version has a peak GPU frequency of 1GHz, I believe the implementation used in the Pixel C has a peak GPU clock of approximately 850MHz.

Quelle: http://www.anandtech.com/show/9972/the-google-pixel-c-review/3

Jetzt hat man den Fall, dass der Akku beim Akku-Laufzeittest mit Videowiedergabe ganze 13h durchhält, was bei dem Display eine gute Leistung ist, aber eine reine Videowiedergabe fordert die Hardware halt nicht. Anandtech führte noch einen CPU-fordernden Laufzeittest durch. Hier kam man nur auf 5h.

In BaseMark OS II's CPU-bound battery test we again see the Pixel C top the charts.

Quelle: http://www.anandtech.com/show/9972/the-google-pixel-c-review/6

Einen laufzeitest, der die GPU fordert, konnte man leider nicht durchführen. Aber prinzipiell zeigt es die Problematik, immerhin ging die Laufzeit ein ganzes Stück runter, wenn allein die CPUs mal rackern müssen. Das ganze bei einem 9000 mAh Akku - 3DS 1200 mAh, Vita 2200 mAh - und einem Gerät, das aus Termalgründen schon auf einen runtergetakteten x1 setzt.
Zu beachten natürlich zusätzlich: Beim Pixel C laufen nur vier ARM Cortex A57. Zwar kann bei x1 allgemein nur der Quad A57 Cluster oder der Quad A53 Cluster zu einen bestimmten Zeitpunkt aktiv sein, also nie beide Cluster gleichzeitig, beim Pixel C ist der A Cluster aber gar nicht erst dabei. Zum Verständnis, warum ich keinen Achtkerner in Switch erwarte, oder vier A57 + 2 Denver2.
 
Zuletzt bearbeitet:
@ Xyleph

Switch wird auch ganz sicher keinen 9000 mAh Akku haben und genauso wenig wird der Tegra von Switch mit Peak-Leistung laufen. Eigentlich sollten das Selbstverständlichkeiten sein bei einem mobilen System, die man nicht jedes Mal erwähnen muss. ;)

Ich finde den Artikel oben vor allem deswegen interessant, weil er sich mit künftigen Shrinks beschäftigt, die inzwischen erfolgt sind. One S und Slim verbrauchen im 16nm-Verfahren bei Spielen etwa immer noch 80-90 Watt, während Shield im 20nm-Verfahren etwa 20 Watt verbraucht. Würde man die Shield mit 16nm-Shrink bauen, dann würde die wohl bei 15-17 Watt bei gleicher Leistung landen. Ich weiß nicht, über welche zauberhafte Technik Nvidia verfügt, dass sie mit Switch dann annähernd XBox One-Leistung erreichen wollen.
 
Meinst du 2GiB System-RAM und 2GiB V-RAM? Hat jemand Battlefield schon einmal mit 2GiB System-RAM gestartet? :ugly:

Nein, aber eine Xbox One hat auch keine 2gb Vram und 4gb ram am PC sind heute extrem wenig und das Spiel ist nicht für diese Uralthardware optimiert, es unterschreitet in dem Beispiel die Minimum Specs, auf Switch wrde man natürlich ordentlich optimieren und beschneiden müssen. Ich sehe es nur nicht als Gottgegeben, dass der Entwickler Battlefield 1 (oder ähnliche Spiele) unter keinen Umständen auf Switch porten könnte (egal in welcher Auflösung und mit anderen Einschnitten, Kompression der Texturen etc., von mir aus in 540p als Handheldversion, spielbar muss es natürlich sein). Es ist eben ein Unterschied ob der Entwickler auf der konsole optimiert, oder Leute es zwingen auf nicht dafür gedachter hardware zu laufen und selbst das klappt irgendwie. Es wird auch aufs gesamte System ankommen, nicht nur auf den Ram und wie sehr der jeweilige Publisher unbedingt einen Port will. Vorausgesetzt Nintendo legt das System einigermaßen darauf aus. Die 3-3,2 gib ram für Spiele sehe ich noch nicht als Dealbreaker für Ports, außer die Gerüchte stimmen nicht und N nutzt 2gb von den 4 fürs Betriebssystem, was ich mir nicht vorstellen kann. Aber sicher wäre es besser gewesen, nintendo hätte 2gb Ram mehr draufgepackt, dann wäre man gleichauf, aber ich hoffe mal nicht auf eine Last Minute aufstockung.

Battlefield (und andere AAA) Games müssen aber in 3GB laufen und nicht 4. Und wer will für mies laufende Software Vollpreis zahlen? Macht irgendwie Null Sinn.
Und das es am Ram Unterschied scheitern wird werden wir ja sehen. Was bringt dich zur Überzeugung das wäre kein Problem?

Man würde es natürlich besser an die Hardware anpassen müssen und Einschnitte bei der Auflösung, Effekten und Texturen etc. hinnehmen. Ganz ohne Arbeit wird ein guter Downport nicht funktionieren, aber es dürfte weitaus einfacher sein als PS360 Games auf die Wii oder Xbone Games auf die Wii U zu porten. Switch ist deutlich näher an der hardware der konkurrenz als es die letzten beiden Nintendosysteme waren (bez. Power, Ram und Featureset) Dich interessiert es nicht, andere schon, da Switch auch ein Handheld ist. Und wenn es in 480p darauf läuft hätte es mehr daseinsberechtigung als der damalige Wii Port von CoD 4 MW und selbst den kauften einige Leute. Ich glaube es ist kein unüberbrückbares Problem, ich sage nicht dass ich es zu hundert Prozent weiß, bei dir klingt es jedenfalls ein wenig zu sicher, das ist alles. Und ja, man wird es sehen. Sollte Switch in der Lage sein, aufwändigere PS4/Bone Ports zu bekommen, und nicht so floppen wie die Wii U, dann wird sich der ein oder andere Publisher daran versuchen. Wenn EA jedoch Garden Warfare darauf portet, sich das Spiel nicht oft genug verkauft und EA daraufhin den Support einstellt, dann werden wir es zumindest bezüglich Battlefield nie erfahren ;-)
 
Zuletzt bearbeitet:
@ Xyleph

Switch wird auch ganz sicher keinen 9000 mAh Akku haben und genauso wenig wird der Tegra von Switch mit Peak-Leistung laufen. Eigentlich sollten das Selbstverständlichkeiten sein bei einem mobilen System, die man nicht jedes Mal erwähnen muss. ;)

Ich finde den Artikel oben vor allem deswegen interessant, weil er sich mit künftigen Shrinks beschäftigt, die inzwischen erfolgt sind. One S und Slim verbrauchen im 16nm-Verfahren bei Spielen etwa immer noch 80-90 Watt, während Shield im 20nm-Verfahren etwa 20 Watt verbraucht. Würde man die Shield mit 16nm-Shrink bauen, dann würde die wohl bei 15-17 Watt bei gleicher Leistung landen. Ich weiß nicht, über welche zauberhafte Technik Nvidia verfügt, dass sie mit Switch dann annähernd XBox One-Leistung erreichen wollen.

Wer spricht denn von annähernd? Gestern war von 80% als höchstes der Gefühle die Rede und da waren eventuelle Vorteile der aktuellen Nvidia Hardware schon eingepreist. mag trotzdem zu hoch sein, aber imo sind 600gflops (fp32)+ möglich und ich denke Switch könnte im Vergleich zur bone mehr leisten, als es das Papier vermuten lässt. Die Kühlung wird wohl nicht zum Spaß verbaut sein und es kann schon sein, dass Switch nen relativ hohen Takt bei der GPU halten kann, ich denke auch, dass nvidia und Nintendo die letzten 2 Jahre nicht nur Däumchen gedreht haben und an der Effizienz gearbeitet haben, und Pascal ist nunmal deutlich effizienter als Maxwell, auch deutlich effizienter als der 20nm X1 (diese Fertigungsgröße war ein Reinfall). Meine Pascal GPU hält ohne Übertaktung 1900mhz, da wird der gekühlte Nintendo Tegra zumindest den gemäßigten normaltakt halten können :P

Wollt ich auch grad Posten.
Also stimmt es mit dem Preis um die 250€

Sieht so aus, ja :)
 
Zuletzt bearbeitet:
Wer spricht denn von annähernd? Gestern war von 80% als höchstes der Gefühle die Rede und da waren eventuelle Vorteile der aktuellen Nvidia Hardware schon eingepreist. mag trotzdem zu hoch sein, aber imo sind 600gflops (fp32)+ möglich und ich denke Switch könnte im Vergleich zur bone mehr leisten, als es das Papier vermuten lässt. Die Kühlung wird wohl nicht zum Spaß verbaut sein und es kann schon sein, dass Switch nen relativ hohen Takt bei der GPU halten kann, ich denke auch, dass nvidia und Nintendo die letzten 2 Jahre nicht nur Däumchen gedreht haben und an der Effizienz gearbeitet haben, und Pascal ist nunmal deutlich effizienter als Maxwell, auch deutlich effizienter als der 20nm X1 (diese Fertigungsgröße war ein Reinfall). Meine Pascal GPU hält ohne Übertaktung 1900mhz, da wird der gekühlte Nintendo Tegra zumindest den gemäßigten normaltakt halten können :P

Sind 80% Prozent etwa nicht annähernd? Die Switch hat auf kleinsten Raum einen kleinen Lüfter. Der wird natürlich im Dock ein bisschen Extra-Performance liefern, aber ich erwarte mir da schlicht keine Wunder, mit der Wärmeableitung eines traditionellen Heimsystems hat das wenig zu tun. AMD und Nvidia kochen beide nur mit Wasser und die bisschen modernere Architektur eines Tegra wird aus einem Mobilchip keine mit einer Heimlösung vergleichbare Leistung liefern können.

Zusätzlich zu bedenken ist übrigens, dass Spiele sowohl unterwegs als auch zuhause funktionieren müssen. Wenn wir also über PS4One-Ports spekulieren, dann dürfen wir nicht das Maximum des Möglichen annehmen, sondern dann müssen wir uns fragen, was wird das Minimum.
 
Sind 80% Prozent etwa nicht annähernd? Die Switch hat auf kleinsten Raum einen kleinen Lüfter. Der wird natürlich im Dock ein bisschen Extra-Performance liefern, aber ich erwarte mir da schlicht keine Wunder, mit der Wärmeableitung eines traditionellen Heimsystems hat das wenig zu tun. AMD und Nvidia kochen beide nur mit Wasser und die bisschen modernere Architektur eines Tegra wird aus einem Mobilchip keine mit einer Heimlösung vergleichbare Leistung liefern können.

Zusätzlich zu bedenken ist übrigens, dass Spiele sowohl unterwegs als auch zuhause funktionieren müssen. Wenn wir also über PS4One-Ports spekulieren, dann dürfen wir nicht das Maximum des Möglichen annehmen, sondern dann müssen wir uns fragen, was wird das Minimum.

Naja, angenommen Switch schafft im Docked Mode die 750gflops und man rechnet 20-30% aufgrund der Nvidia Architektur im Vergleich zur älteren AMD Architektur und doublespeed fp16 drauf, wäre man bei knapp 1teraflops als Vergleichswert. Verglichen mit den 1,3teraflops der Xbone wären das etwas unter 80% der Performance (auf dem Papier etwas mehr als die Hälfte). kann auch etwas weniger sein, lass es 60% der performance sein, das würde für Ports in geringerer Auflösung imo reichen, vorausgesetzt der Rest des Systems inkl. Software stimmt. Läuft der Handheld mit 500gflops (fp32) (oder etwas weniger) wird es halt 480p. Zumindest ist das meine Vorstellung. Es gibt bisher halt auch keinen guten Vergleich, beziehungsweise keinen dedizierten Handheld/hybriden im Tabletformat mit Pascal und aktiver Kühlung, der mit einem eigens dafür entwickelten OS etc. läuft, lassen wir uns überraschen ;)
 
Zuletzt bearbeitet:
@ Xyleph

Switch wird auch ganz sicher keinen 9000 mAh Akku haben und genauso wenig wird der Tegra von Switch mit Peak-Leistung laufen. Eigentlich sollten das Selbstverständlichkeiten sein bei einem mobilen System, die man nicht jedes Mal erwähnen muss. ;)

Ich finde den Artikel oben vor allem deswegen interessant, weil er sich mit künftigen Shrinks beschäftigt, die inzwischen erfolgt sind. One S und Slim verbrauchen im 16nm-Verfahren bei Spielen etwa immer noch 80-90 Watt, während Shield im 20nm-Verfahren etwa 20 Watt verbraucht. Würde man die Shield mit 16nm-Shrink bauen, dann würde die wohl bei 15-17 Watt bei gleicher Leistung landen. Ich weiß nicht, über welche zauberhafte Technik Nvidia verfügt, dass sie mit Switch dann annähernd XBox One-Leistung erreichen wollen.

Bingo.
Aber man wird ja lieber von der Seite angefahren, wenn man es sich erlaubt keinen Octa-Core oder Hexa-Core mit zwei Denver 2 Kernen und 80% GPU - One Leistung erwartet :v:


Ich finde den Vergleich mit Pixel C nur interessant, weil hier selbst in einen 10 Zoll Tablet der x1 auf ~850 MHz runtergetacktet wurde. Das als Anmerkung, wenn teilweise erwartet wird dass in einem 6,2 Zoll Tablet das Ganze dann in 1,5 GHz laufen soll, 20nm vs 16/14nm hin oder her. Auch noch mit der doppelten Anzahl an Kernen :ugly:

Würde nicht einmal völlig dementieren, dass man ggf. auf mehr als vier Kerne setzt, dann aber nur unter der Voraussetzung, dass die Kerne jeweils weit geringer getaktet sind. So dass man halt eher in die Breite geht, anstatt einzelne Prozessoren hoch zu takten.
Das hier sind übrigens die Taktungen der PS Vita

CPU: Quad Cortex-A9: Default, 333MHz
GPU: SGX543MP4: Default, 111MHz.

Da gab es schon längst Smartphones, bei denen die gleiche CPU mit 800 MHz lief und der SGX543 wurde immer mit 200 MHz angegeben, wenn es um die offizellen Leistungsangaben ging. Der Unterschied ist halt nur, bei der Vita muss so ein Chip auf über mehrer Stunden in dem Gehäuse laufen und nicht nur über kurze Zeiträume mal den Turbo reinknallen.
 
Bingo.
Aber man wird ja lieber von der Seite angefahren, wenn man es sich erlaubt keinen Octa-Core oder Hexa-Core mit zwei Denver 2 Kernen und 80% GPU - One Leistung erwartet :v:


Ich finde den Vergleich mit Pixel C nur interessant, weil hier selbst in einen 10 Zoll Tablet der x1 auf ~850 MHz runtergetacktet wurde. Das als Anmerkung, wenn teilweise erwartet wird dass in einem 6,2 Zoll Tablet das Ganze dann in 1,5 GHz laufen soll, 20nm vs 16/14nm hin oder her. Auch noch mit der doppelten Anzahl an Kernen :ugly:

Würde nicht einmal völlig dementieren, dass man ggf. auf mehr als vier Kerne setzt, dann aber nur unter der Voraussetzung, dass die Kerne jeweils weit geringer getaktet sind. So dass man halt eher in die Breite geht, anstatt einzelne Prozessoren hoch zu takten.
Das hier sind übrigens die Taktungen der PS Vita

CPU: Quad Cortex-A9: Default, 333MHz
GPU: SGX543MP4: Default, 111MHz.

Da gab es schon längst Smartphones, bei denen die gleiche CPU mit 800 MHz lief und der SGX543 wurde immer mit 200 MHz angegeben, wenn es um die offizellen Leistungsangaben ging. Der Unterschied ist halt nur, bei der Vita muss so ein Chip auf über mehrer Stunden in dem Gehäuse laufen und nicht nur über kurze Zeiträume mal den Turbo reinknallen.

Das versuche ich hier schon seit jeher zu erklären. Wenn Nvidia einen Maximaltakt von 1000 Mhz angibt und der Chip unter diesen Bedingungen dann theoretisch 750 GFlops erreicht, dann reden wir hier von Leistungsspitzen, die ohne Stromzufuhr und gute Kühllösung einfach nicht dauerhaft zu halten sind. Und die Kühllösung der Switch ist in diesem kleinen Gehäuse wohl kaum zu Höchstleistungen in der Lage.

Ich habe das schonmal gepostet, aber vielleicht holt das die Diskussion mal ein bisschen in die Realität zurück. Ende 2015 war das mobile Spitzenhardware und die technischen Fortschritte seitdem waren überschaubar:

rmW6hn0.png


In einem Tablet mit Kühlung und Stromzufuhr ist natürlich mehr möglich, aber um Gottes Willen nicht dauerhaft die 6- bis 7-fache Leistung.
 
Kommt ja wie gerufen ^^

Das Display scheint ein Multi-Touchscreen mit einer Auflösung von 1080p zu sein. Die Wärmeentwicklung soll sich in Grenzen halten, sodass das Gerät auch nach längerem Betrieb nicht unangenehm warm in den Händen wird. Einbrüche der Bildrate soll es selbst nach Dauerbetrieb ebenfalls nicht geben. Negativ bemängelt wird hingegen die geringe Helligkeit des Displays, was im Freien für Probleme führen könnte. Die CPU soll mit 1785Mhz getaktet sein, während die Prozessoreinheit der Grafikkarte mit 921Mhz taktet. Der Geräuschpegel des Lüfters soll angenehm niedrig sein. Der Akku soll zwischen dreieinhalb und fünf Stunden halten. Als Arbeitsspeicher sollen 4GB Ram in zwei Riegeln verbaut sein. Das Tablet der Switch soll lediglich etwa 300 Gramm wiegen.

Klingt vernünftig. Könnte mit dem Takt wirklich A57 sein. Geringerer CPU-Takt als im Pixel C, was durch die angesprochene Wärmeentwicklung nachvollziehbar ist, dazu ist es wahrscheinlich, dass der GPU eine höhere Priorität für das Wattbudget eingeräumt wird. GPU dann mit 921 MHz, wären also 460,5 TFLOPS. Klingt ebenfalls vernünftig.

Kommen wir meiner Vermutung von Gestern nahe:
CPU: 4 ARM Cortex A57, nicht auf Maximaltakt
GPU:
in 20nm < 500 GLOPS
in 16nm < 750 GLOPS


Der Rest hört sich auch ziemlich wahrscheinlich an, jedenfalls ist nichts abgefahrenes. RAM deckt sich mit anderen Gerüchten (Die 8GiB Version ist wohl zum Debuggen, deswegen DevKit-Version), das Gewicht ist bezüglich der Größe des Gerätes wahrscheinlich. Das die Dockingstation jetzt nicht zu neuen Leistungsspitzen führen wird, lag auch schon immer im Bereich des wahrscheinlichen.

Also ich gehe bei den Gerücht voll mit, klingt einfach alles......vernünftig und realitätsnah.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom