Azash schrieb:Wir sind eben unwürdig![]()
absolut, hellraizer und konsorten sollten einen "special rank" bekommen

Im folgenden Video siehst du, wie du consolewars als Web-App auf dem Startbildschirm deines Smartphones installieren kannst.
Hinweis: This feature may not be available in some browsers.
Azash schrieb:Wir sind eben unwürdig![]()
Zum großen Teil ist es auch der gleiche Umstand wie beim Cube und der PS2 damals. -.-"Hazuki schrieb:Genau aus diesem Grund ist auch die Gafik bislang nicht so pralle, ich denek das legt sich aber mit der zeit!
Im Prinzip ist der Umstand sogar recht ähnlich zur PS2 damals!
wupperbayer schrieb:Du findest SMG kaum schöner als TP? Aha... Zumal Nintendo eh nie die Grafik-Knaller-Spiele rausgehauen hat, dafür waren 3rd Partys zuständig...
Na immerhin kommt das bild von GrequaidAzash schrieb:Wir sind eben unwürdig![]()
wupperbayer schrieb:Allein, dass die GPU TEVs benutzt, macht sie etwas schwer vergleichbar...
Hellraizer schrieb:Na immerhin kommt das bild von GrequaidAls er es mir geschickt hat, hats sofort "zack" gemacht und der spruch war gefunden
![]()
![]()
Hazuki schrieb:Ja das hat im PC Sektor aber keine Hardwaretechnischen Gründe sondern allein der Umstand das die Software DX10 nur auf DX10 Kompatibele Hardware läuft !
Bei einer geschlossene Architektur (Konsolen) ist die Optimierung doch ne ganz andere .
Und Gears war das erste Game von Epic mit der UE3.0 , da ist noch massig Luft nach oben![]()
Wie gesagt deferred shading rendering ist ne reine Software Geschichte !
Coda schrieb:Womit sollen wir sie denn vergleichen? Fakt ist dass man zu der Zeit als der Wii auf den markt gebracht wurde, auch wesentlich höhere Performance mit in etwa der gleichen Leistung verbinden hätte können. Hätte ATI einen völlig neues Chip entwickelt wäre mehr Leistung bei gleicher Energieaufnahme möglich gewesen.
Daher ist der Grafikchip im Wii höchstens leicht modernisiert worden. Up-to-date würde ich ihn aber nicht nennen. Leider gibt es ja kaum brauchbare Informationen.
Suntiago schrieb:oh man.. und nochmal...
Der Grafikprozessor, Codename Hollywood, wurde gemeinsam von ATI Technologies und Nintendo für Wii neuentwickelt. Der Chip basiert nicht auf dem Grafikchip Flipper des GameCube oder ATIs Grafikchips für PCs.[56] Der Grafikspeicher ist als eDRAM (für embedded DRAM) in den Chip integriert und verwendet schnelle 1T-SRAM-Speicherzellen der kalifornischen Technologiefirma MoSys.[57] NEC fertigt den Chip in einem 90nm-Prozess im japanischen Werk Yamagata.[58
Und Wii ist absolut up-2-date
Verlustleistung - Leistung - Größe
Suntiago schrieb:
Und Wii ist absolut up-2-date
Verlustleistung - Leistung - Größe
Die sehen klasse aus (sofern es keine Ports sind <--- momentanes Hauptproblem, dürfte sich aber bald legen).sponk schrieb:und was ist mit den spielen?
sponk schrieb:und was ist mit den spielen?
Zum großen Teil ist es auch der gleiche Umstand wie beim Cube und der PS2 damals. -.-"
Coda schrieb:Womit sollen wir sie denn vergleichen? Fakt ist dass man zu der Zeit als der Wii auf den markt gebracht wurde, auch wesentlich höhere Performance mit in etwa der gleichen Leistung verbinden hätte können. Hätte ATI einen völlig neues Chip entwickelt wäre mehr Leistung bei gleicher Energieaufnahme möglich gewesen.
Daher ist der Grafikchip im Wii höchstens leicht modernisiert worden. Up-to-date würde ich ihn aber nicht nennen. Leider gibt es ja kaum brauchbare Informationen.
Wow, also Cooking Mama und... und Big Brain Acadamy und und... und.. äääh... ah stimmt, gibt ja keine weiteren mehr.McJohny schrieb:die sind auch up-to-date: sprich alles nongames
[removed pic from quote]
sponk schrieb:und was ist mit den spielen?
Suntiago schrieb:... sagen dir 3 MB GPU Textur-Speicher etwas .. danke fürs Gespräch.. 19 Watt Verlustleistung , 3 MB Textur Speicher , 88 MB Hauptspeicher ...
Wer da noch viel erwartet hat eindeutig eine Brille auf.. Wii ist technisch absolut up-2-date aber grafisch werden wir nicht mehr viel sehen
Captain Smoker schrieb:Wow, also Cooking Mama und... und Big Brain Acadamy und und... und.. äääh... ah stimmt, gibt ja keine weiteren mehr.![]()