Wii U Wii U

Status
Nicht offen für weitere Antworten.
Nein nicht mit einem Motor, die Haptik wird durch Reizung der Nerven in deinen Fingern erreicht. Kurz gesagt du bekommst elektrische Schläge

Da fallen mir schon ein paar Anwendungsmöglichkeiten ein :devil6:

Ich gebs auf....noch einer der glaubt dieses high end haptik mit sandfuehlen kommt. Das ist naemlich das mit der elektrischen spannung.

Es wIrd die vibrationsvariante werden weil die im bezahlbaren rahmen bleibt.
 
Fände diese Haptik-Geschichte durchaus interessant, wäre sogar bereit, dafür entsprechend magere Grafikleistung in Kauf zu nehmen ... aber es ist wohl dennoch utopisch, wir sollten diese Vorstellung schnell wieder beiseite tun.
Das Problem mit dem mangelnden 3rd-Support würde nämlich bestehen bleiben, wenn unter der Technologie die Hardwareleistung leidet.
Kann mir nicht vorstellen, dass die Devs plötzlich Bock kriegen, für so nen Haptik-Screen zu entwickeln, ist doch nur ein riesen Aufwand.
Unterm Strich hätten wir dann ein Paar Nintendo-Games, die von dieser Spielerei Gebrauch machen, und der restliche Support bleibt wieder aus, sobald die potenten Kisten das Feld betreten ;).

Was genau ist denn magere Leeistung. Dieser gute alte HD 4830 der für die Wii U im Gespräch war hat immer noch mehr Power als der HD 6670 den die Gerüchteküche in der PS4 sieht wenn auch nicht viel. Und beim HD 4830 kommt für die Wii U noch ein Technologiesprung und die Erweiterungen von Nintendo dazu, für was auch immer die gut sein mögen...
 
Nintendo kauft grundsätzlich keine Hardware von der Stange. Sony mittlerweile schon, weil das Geld fehlt. Also kann ich mir gut vorstellen, dass die PS4-GPU wieder eine Stangenhardware wird. Sieht man ja an der Vita, dass Sony absolut nichts dagegen hat.
 
Was genau ist denn magere Leeistung. Dieser gute alte HD 4830 der für die Wii U im Gespräch war hat immer noch mehr Power als der HD 6670 den die Gerüchteküche in der PS4 sieht wenn auch nicht viel. Und beim HD 4830 kommt für die Wii U noch ein Technologiesprung und die Erweiterungen von Nintendo dazu, für was auch immer die gut sein mögen...

Magere Leistung relativ zur Konkurrenz, sodass wir 3rd-supporttechnisch wieder auf dem Trockenen sitzen.
Ich kann mir, wie gesagt, nicht vorstellen, dass die Devs sich auf diese Idee ganz begeistert draufstürzen, und die WiiU trotz enormer technischer Differenz zur Konkurrenz mit gescheiten, eigenentwickelten Spielen segnen werden - das hat nichtmal bei der Bewegungssteuerung funktioniert, letztenendes hat's kein Schwein interessiert.
Ich denke, allen Gerüchten zum Trotz, dass Sony und MS die WiiU schon recht deutlich abhängen werden, alles andere würde mich arg wundern. Nur, wie im anderen Thread schon erwähnt, kommt es da auch wieder auf den Faktor an. Doppelte WiiU-Leistung könnte noch im Rahmen liegen (war die Xbox nicht auch ca. doppelt so stark wie die PS2? Dennoch war das wahrnehmbare Ergebnis auf dem Schirm noch vergleichbar), alles darüber könnte schon wieder etwas heikel werden, schätze ich mal.
 
Nintendo kauft grundsätzlich keine Hardware von der Stange. Sony mittlerweile schon, weil das Geld fehlt. Also kann ich mir gut vorstellen, dass die PS4-GPU wieder eine Stangenhardware wird. Sieht man ja an der Vita, dass Sony absolut nichts dagegen hat.

und wie man an der vita auch sieht, kann hardware von der stange auch besser sein ;-)

nur halt ohne games nützt einem die beste hardware nichts.
 
und wie man an der vita auch sieht, kann hardware von der stange auch besser sein ;-)

nur halt ohne games nützt einem die beste hardware nichts.

Ich gehe davon aus, dass viele Thirds ihre Engines nicht anpassen und einfach "billige" Smartphone-Engines nehmen. Die sind aber nicht sauber und nicht immer flüssig. Und genau diese Ports bekommt die Vita ab. Das kann böse enden.

Gameloft hat den Anfang gemacht, einen ganz einfachen iOS-Port als 40€-Spiel im Handel zu betreiben. Wieso? Weil man ohne größere Probleme porten könnte. Ich weiß nicht, ob die Entscheidung, einfache Smartphone-Hardware zu nehmen, für eine Gaming-Maschine, keine Fehlentscheidung war. Es ist einfach gefährlich. Smartphone-Spiele sind "keine Spiele", da kann jemand mit mir diskutieren wie er mag. Auch ein Dungeon Hunter ist ein Spiel für zwischendurch bei übelster Langeweile. Kommt an kein 3DS-Titel ran, der die selbe Zielgruppe ansprechen "will".

Der 3DS bekommt Titel, die für die Hardware zugeschnitten sind. Keine Spiele, die für Smartphones zugeschnitten sind.
 
@kretshar

da hab ich ehrlich gesagt gar keine ahnung von, da für mich beide aktuellen hh einfach nur katastrophal sind und es auch auf beiden keine wirklich interessanten games gibt (für mich).
 
Hier noch ein kleines Demonstrationsvideo zur Haptic-Touch Technik. Würde ich sehr begrüßen, wenn diese Technik tatsächlich im Tablet eingesetzt wird.

Meiner Meinung nach nützlicher als Multi-Touch...


[video=youtube;lzM5X0WH_6Q]http://www.youtube.com/watch?v=lzM5X0WH_6Q[/video]
 
Moment.niemand denkt ernsthaft....?
Wenn du einige posts ueber dir schaust, beginnt dort eine haptik diskussion.

Peter gerri postet etwas von haptik
Shugo und contao gehen sofort von der besten noch nicht serienreifen technologie am markt aus die unbezahlbar ist.

Niemand denkt ernsthaft....
Ich korrigiere den Sachverhalt mal, mein geflissentlich falsch darstellender Freund:
Ich poste ein Gerücht über haptische Screens. Woraufhin dann als Allererstes mal, vor shugo und contao, von dir eine Emo-Reaktion kam àla "Was soll daran toll sein, eh alles scheiße bei Nintendo". Daraufhin wurde dir dann gezeigt, was an richtigen haptischen Screens gut wäre. Und dann drehst du durch und faselst was von übertriebenen Erwartungen.

Deine Meinung hier ist ebenso unsachlich, wie du es den "Fanboys" vorwirfst. Nur mit dem Unterschied, dass sie ins andere Extrem schlägt - und damit schon sehr am Bashen im Herstellerbereich kratzt, was bekanntlich nicht erlaubt ist. Wenn du also nicht damit klar kommst, Gerüchte normal und wertfrei zu diskutieren, ohne Nintendo so weit wie möglich dabei in den Dreck ziehen zu müssen, möchte ich dir empfehlen, den Thread einfach zu verlassen.
 
Laut Li Mu Bai/ B3D, der behauptet, einen guten Draht zu einem prominenten Wii U Entwickler zu haben, sollen meine Theorien zutreffend, und die GPU der Wii U ein Hybride aus Unified Shader und Fixed Function Architektur sein. Insbesondere das Lighting soll Nintendo dabei priorisiert haben:

Li Mu Bai schrieb:
First off, this board is far too educated to presume that developing a console GPU is like shopping at Newegg. Or even determining current component prices, if it was AMD/ATI, Genyo Takeda (IR&D) would not have spent 2yrs.+ in the development process on the Wii U's graphics processor. I realize we are attempting to establish a power as well as an architectural baseline, but this will be an amalgamation of processor capabilities that will yield a very custom proprietary chip. Somewhat defying the current DX metric. (to a degree of course)

What I mean when I say that is this, we cannot assume because it's based off of, or similar to gpu architecture "X," that it is incapable of "Y." Y equaling effects such as tessellation, IBL, real-time GI, deferred rendering, etc. There are certain visual aspects, such as lighting, that are very important to Nintendo. I have heard that, much like the Flipper, Nintendo has incorporated at least partially a portion of the same design philosophies into the Wii U chipset. Features that “automagically” appear during shader code implementation. A post from my early days regarding the GC’s architecture on B3D:

"However, as mentioned above, a couple of features where added in automagically already, like self-shadowing and tinting for example."

"Per-object self-shadowing can be realized quite nicely on the Nintendo Gamecube. The benefit of doing self-shadowing on a per object basis is that one does not need to be concerned so much with precision."

"One should note that during the shader build many features are activated dynamically. For instance, if an object should get tinted a color multiplication is added to the final output color whatever shader was setup before."

"The results of global lighting can be computed in three different ways: per vertex, per pixel using emboss mapping, and per pixel using bump mapping. All three of these methods come in two variants one with self-shadowing and one without."--Florian Sauer & Sigmund Vik http://www.gamasutra.com/features/20.../sauer_pfv.htm

Also 8 light values came at a very negligible performance cost, because Flipper computed light values in parallel to UV generation. It’s these types of “hardwired” like effects Nintendo I believe has carried over to make modern shader effects with a subset of fixed feature functionality . I’m simply providing examples as I do not know to what extent overall it is, or can be incorporated. (esp. with the gpu being of a modern design) I was told that lighting behaved in this manner, & that lighting was a point of emphasis. As always with a secondhand source, you must always be cautious not to take it as gospel. (though I trust this source, Nintendo's NDAs are the most binding)

Nintendo did make certain alterations to their gpu based upon various 3rd party input, a first. Usually, they tend to develop their gpus & platforms with just simply ATI/Nintendo engineering, consultation, & guidance. Designed around their evolving software strengths, & "the natural flow of the industry."-Genyo Takeda Yes, I am referring to all those benchmark tests Nintendo ran on 3rd party engines for optimization on Wii U hardware.

But make no mistake, Nintendo's footprint is definitely here. You will see a marked performance difference in their proprietary engines, as well as close 3rd parties, & exclusive titles. (UbiSoft, Capcom, etc.) Also, ARM may also be providing their DSP component solution. The nameless devs that are claiming inferiority to the current generation of consoles are either inept, or working with middleware that is still yet unoptimized for the differing Wii U architecture.
http://forum.beyond3d.com/showpost.php?p=1634440&postcount=833
 
Hab das gestern schon angesprochen und Fulgor meint es wäre Mist und niemand würde heute noch Fixed Function benötigen, verschwendung etc. (im Zeitalter von frei programmierbaren Shadern), außer scheiß schwache Handyhardware.
 
Zuletzt bearbeitet:
Hab das gestern schon angesprochen und Fulgor meint es wäre Mist und niemand würde heute noch Fixed Function benötigen, verschwendung etc. (im Zeitalter von frei programmierbaren Shadern), außer scheiß schwache Handyhardware.
Ich bin mir nichtmal sicher, ob Fulgor einen Videorekorder programmieren kann - entsprechend egal ist mir seine Meinung dazu. :D
 
Das wäre ein epic fail von Nintendo...

Oder ein grandioser Schachzug, sie denken sich schon was dabei ;)

@wsippel: Naja, ich wollte nur Infos aus dir rauskitzeln, oder besser gesagt deine Meinung dazu ausführlicher lesen :P Das mit dem Lighting macht auf jeden Fall Sinn, die Demos waren schon spürbar darauf ausgerichtet.
 
Zuletzt bearbeitet:
Ich bin mir nichtmal sicher, ob Fulgor einen Videorekorder programmieren kann - entsprechend egal ist mir seine Meinung dazu. :D

Na dann erzähl mal warum man Ressourcen verschwenden sollte für etwas was schon seit Jahren nicht mehr in modernen GPUs zu finden ist?


Übrigens verdiene ich meine Brötchen als Entwickler.
 
Irgendwie kommt mir die Diskussion hier vor als hätte BWM nen neuen Elektrowagen gezeigt und bereits auf der Rennstrecke bewiesen, dass er vorne Mitfahren kann und trotzdem stehen am Rand ein paar Freizeitmechaniker die partout nicht glauben, dass er über 50 k/mh fahren kann - schließlich hat BWM ja nix zu den Pferdestärken gesagt. :ugly:

(Während im Hintergrund der Wagen mit 200 seine Runden dreht. ^^ )
 
Hört sich alles interessant an^^ Wir wissen ja alle, dass ohne Licht überhaupt kein Bild entstehen kann bzw. nur ein schwarzes :D Jetzt muss man halt schauen wie dynamisch sich diese Architektur im Bezug auf Lichtquellen äußert. Sprich, wenn nur z.B nur eine Lichtquelle, so wie effizient ist es dann, im Vergleich z.B zu 8 usw. usf.. Also was ich sagen will, ob es nur Vorteile oder auch Nachteile mit sich bringt. Vorallem wird globale Illumination angesprochen, sprich Austausch von Licht zwischen Objekten, wonach man vielleicht hier einen Vorteil erhält? mal gucken, da nur das Ergebnis zählt
 
Na dann erzähl mal warum man Ressourcen verschwenden sollte für etwas was schon seit Jahren nicht mehr in modernen GPUs zu finden ist?
Man kann auch freie Programmierbarkeit als Ressourcenverschwendung betrachten. Es ist immer eine Abwägung zwischen Effizienz und Flexibilität. "Moderne" GPUs priorisieren Flexibilität - müssen sie aber auch, da sie für unterschiedliche Dinge genutzt werden. Nicht nur Spiele. Viele "Verbesserungen" der letzten Jahre haben auf die Performance in Spielen sogar einen negativen Effekt, erhöhen stattdessen die Flexibilität für andere Einsatzzwecke (GPGPU). Wenn Du aber sicher sein kannst, dass Dein Chip nur für Spiele verwendet wird, und bestimmte rechenintensive Operationen in 90% der Spiele vorkommen, macht absolut Sinn, Transistoren darauf zu verwenden, diese Operationen zu beschleunigen. Verschwendung wäre es nur für Chips, die nicht nur für Spiele gedacht sind: PC GPUs von der Stange.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom