Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
Woher stammen den die Vermutungen, diese Zahl 2, gab es da genauere Auszüge oder reine Spekulation?
Wen dann spekuliere ich auch mal, laut der Seite wo ja bislang sehr genaue Info hatte, soll ja eine HD4850 drin sein..

Die eben folgende Daten hat, 5x so viele Shadereinheiten (X360 GPU), 256Bit Speicheranbindung (128Bit X360) und zu guter Letzt, gute 625MHZ (500MHZ X360)...
Könnt euch daraus ja mal was draus reimen aber die Quelle die bislang alles richtig erkannte, glaub ich mehr als Aussagen von Patcher und co.

Nehmen wir an, das die finale GPU so aussehen wird:

256Bit
800SP
GDDR5 (statt GDDR3)
800MHZ Core Takt (gegenüber 625MHZ)
28nm


Wäre imo ganz ordentlich dagegen kann eine X720 nicht viel mehr rausholen, wen die 2013 erscheinen soll, was so viel heist wie der Unterschied wird kleiner ausfallen.
Was daraus schliest, das selbst die WiiU mit PS720 Games abbekommt, also die 3rd Party Spiele, versteht sich ;)

Deine Werte stimmen ja schon mal nicht.
Eine HD4850 besitzt lediglich 800 Shadereinheiten und damit nur 3,3 Mal mehr als die 360 (240 Shadereinheiten)
Mit dem höheren Takt von 625 anstatt 500 MHz käme man dann auf die vierfache Shaderleistung der 360.

Und davon gehe ich auch aus.
Ca. vierfache 360 Shaderleistung und ebenso eine Erhöhung bei der CPU Leistung.
Würde für Nindendo am meisten Sinn machen.
So eine Kiste könnten sie vermutlich für um die 200 Dollar inklusive des Pads zusammen schrauben und für 300 Dollar dann verkaufen.

Beim 360 Nachfolger gehe ich dann von einer ähnlichen Steigerung ggü. der Wii-U aus.
Also ca. vierfache Wii-U Leistung was gleichbedeutend 16facher 360 Leistung bedeuten würde.

PS.
800Mhz Coretakt ist natürlich Unsinn und wird nie und nimmer in einer Konsole Verwendung finden.
 
Zuletzt bearbeitet:
Das mit der HD 4850er ist doch das Gerücht aus dem frühen Devkit, nichts dergleichen ist bestätigt, der bisher einzige Anhaltspunkt ist die von IBM bestätigte Watson-Technologie, sprich irgendetwas Power7-artiges, da von 45nm gesprochen wurde, und der einzige IBM-Chip mit 45nm ist Power7. ;-)

Selbst wenn die R700-Technologie verwendet wird, wird ein spezeiller Custom-Chip entwickelt, und AMD wird die brauchbaren Aspekte mitnehmen, und Nachteile entfernen und durch neue, effiziente Technologien ersetzen.

Ich mein die sind derzeit doch immernoch am Fertigstellen, also ob die jetzt nicht aus ihrer Erfahrung schöpfen könnten, um ein solides Ergebnis hinzukriegen, lächerlich. ;-)
 
Das mit der HD 4850er ist doch das Gerücht aus dem frühen Devkit, nichts dergleichen ist bestätigt, der bisher einzige Anhaltspunkt ist die von IBM bestätigte Watson-Technologie, sprich irgendetwas Power7-artiges, da von 45nm gesprochen wurde, und der einzige IBM-Chip mit 45nm ist Power7. ;-)

Selbst wenn die R700-Technologie verwendet wird, wird ein spezeiller Custom-Chip entwickelt, und AMD wird die brauchbaren Aspekte mitnehmen, und Nachteile entfernen und durch neue, effiziente Technologien ersetzen.

Ich mein die sind derzeit doch immernoch am Fertigstellen, also ob die jetzt nicht aus ihrer Erfahrung schöpfen könnten, um ein solides Ergebnis hinzukriegen, lächerlich. ;-)

Wir wissen es ja.
Nindento hat alle auf der E3 verarscht indem sie Techdemos zeigten, die ohne Probleme mit PS360 dargestellt werden hätten könnten mit ihrer niedrigen Auflösung, Framerate und fehlendem AA.
In Wirklichkeit liefen die nur auf einem der 16 Cores der CPU und ihrer GPU mit 95% abgeschalteten Shadern ;)
 
Welche Techdemos hatten denn niedrige Auflösung, Framerate und fehlendes AA von Nintendo auf der E3?
 
Bis dato hat noch kein Entwickler finale Devkits, wie kommst du drauf, das sie das zur E3 hatten?

Es wurde von Entwicklern von "early Devkits" gesprochen, die sie zum Teil schon 2 Jahre hatten, nur so als Denkansatz.

Desweiteren sind die gezeigten Games, allesamt auf Ps360-Hardware gelaufen, da Nintendo kein Devkit bereitgestellt hatte, nur die beiden Techdemos liefen auf einer unbekannten Hardware, ob es Devkits waren, ist auch nicht bekannt.

Es war Nichts verfügbar, deshalb sind Spekulationen genau was sie sind, Spekulationen. ;-)
 
Ich gehe auch davon aus, dass die 3. Xbox und die PS4 um einiges stärker als die Wii U werden.

Nur ist es für mich nicht wirklich sooo relevant, da ich Nintendo mit Sony/MS nicht wirklich vergleiche, da jeder auf andere Gebiete stärker ist bzw. sich bewusst auf andere Bereiche konzentriert - was ich auch gut finde, da so die Abwechslung garantiert ist.

Jo, sehe ich auch so. Mir gehts auch bei BigN nicht um die Technik, da haben andere Dinge Priorität ;)

Eben nicht, eine HD4850, etwas unter einer HD5770, ist nur um den Fakto 3 langsamer als eine HD6990, Dual GPU die in keiner PS4/X720 verwendet wird:

http://www.computerbase.de/artikel/...6990/21/#abschnitt_performancerating_mit_aaaf


Klar sind das PC Komponenten und die Konsolen GPus sind da noch etwas angepasst was aber eben keine Wunder vollbracht ;)
Selbst mit der HD7970 (Singel GPU) ungefähr die selbe Leistung wie die einer HD6990, nur mit weniger Stromverbrauch..
Und sowas wird wohl dann im Auge von MS/Sony liegen, wobei ich annehme, das sie nicht das Top Modell reinbauen, den diese sind teuer und haben hohe Verlustwerte aber selbst wen, wie oben gezeigt Faktor 4 wäre das maximal schneller, nicht mehr^^

Ähm, das sind Theoretisch Werte, in der Praxis ist ein Sprung von der HD 4850 sehr groß auf eine HD6990 ;)
 
Wir wissen es ja.
Nindento hat alle auf der E3 verarscht indem sie Techdemos zeigten, die ohne Probleme mit PS360 dargestellt werden hätten könnten mit ihrer niedrigen Auflösung, Framerate und fehlendem AA.
In Wirklichkeit liefen die nur auf einem der 16 Cores der CPU und ihrer GPU mit 95% abgeschalteten Shadern ;)

Du neigst heute ein wenig zur Übertreibung, erinnert mich an Pitti ;) Factor 16 wirds 2013 nicht für eine Konsole geben, die Demos liefen auf nem alten Devkit und wurden schnell gebastelt, zumindest die zeldademo (ok, auch die Vogeldemo, gab nicht umsonst 2 Versionen), alles schnell zusammengeschustert, daraus würde ich keine Rückschlüsse ziehen, was am Ende möglich ist, Nintendo ist zur zeit nicht so drauf wie Sony zur PS3 Vorstellung, mit ihren Rendern, die teils bis heute unerreicht sind.

Einzig bei der WiiU gebe ich dir recht, halte da den Faktor 4 durchaus für möglich, nur eben insgesamt noch weit moderner von der Architektur. Im Grunde wäre ich sehr zufrieden damit, was die Konkurrenz dann am Ende reisst muss man natürlich abwarten, aber ich glaube dass es wenig zu meckern geben wird, außer bei den PC Fritzen :)
 
Zuletzt bearbeitet:
Du neigst heute ein wenig zur Übertreibung, erinnert mich an Pitti ;) Factor 16 wirds 2013 nicht für eine Konsole geben, die Demos liefen auf nem alten Devkit und wurden schnell gebastelt, zumindest die zeldademo, alles schnell zusammengeschustert, daraus würde ich keine Rückschlüsse ziehen, was am Ende möglich ist, Nintendo ist zur zeit nicht so drauf wie Sony zur PS3 Vorstellung, mit ihren Rendern, die bis heute unerreicht sind.
Davon völlig abgesehen ist die Zelda-Demo sicher nichts, was "ohne Probleme" von PS360 dargestellt werden könnte... nach der Grafik von Uncharted 3 zu urteilen zumindest.
 
Deine Werte stimmen ja schon mal nicht.
Eine HD4850 besitzt lediglich 800 Shadereinheiten und damit nur 3,3 Mal mehr als die 360 (240 Shadereinheiten)
Mit dem höheren Takt von 625 anstatt 500 MHz käme man dann auf die vierfache Shaderleistung der 360.

Und davon gehe ich auch aus.
Ca. vierfache 360 Shaderleistung und ebenso eine Erhöhung bei der CPU Leistung.
Würde für Nindendo am meisten Sinn machen.
So eine Kiste könnten sie vermutlich für um die 200 Dollar inklusive des Pads zusammen schrauben und für 300 Dollar dann verkaufen.

Beim 360 Nachfolger gehe ich dann von einer ähnlichen Steigerung ggü. der Wii-U aus.
Also ca. vierfache Wii-U Leistung was gleichbedeutend 16facher 360 Leistung bedeuten würde.

PS.
800Mhz Coretakt ist natürlich Unsinn und wird nie und nimmer in einer Konsole Verwendung finden.

Im NeoGAF wird gerade über eine 4870 in 40 nm für die Wii U spekuliert:

Radeon HD 4870 (19. Jun. 2008) RV770 16 ROP's 10 Shader Cluster 800 Streamprozessoren 40 TAUs 40 TMUs 750 MHz GPU 512 1800 (900 MHz) GDDR5 Speicher 256 Bit Interface

Wenn das so stimmt, dann wäre das Ding in 40 statt 55 nm schon eine interessante Wahl

Wenn man das mal mit einem aktuellen 6850 vergleicht

http://www.hwcompare.com/5933/radeon-hd-4870-512mb-vs-radeon-hd-6850/

Dann sieht man, dass die Dinger praktisch gleich sind bis auf Applikationen, die eine hohe Speicherbandbreite brauchen (z.B. AA) und da hilft ja gerade das eDRAM. Anders formuliert, AMD nimmt aktuell im wesentlichen die Gewinne mit, die sich aus der höheren Auflösung ergeben. Das bedeutet, wenn man wirklich von der 3-4 fachen Leistung bei der PS4/720 ausgeht, dann müssten diese schon in der Grafikleistung einer 6990 (=dual 6970) entsprechen, was aktuell immer noch echtes Ultra Highend darstellen würde...

Naja mal sehen, sind ja alles nur Gerüchte, seufz...
 
Zuletzt bearbeitet:
Wir werden Wohl oder Übel abwarten müssen, was denn nun wirklich Sache ist, aber vielleicht überrascht uns Rockstar ja mit einem Wii-U-Trailer bezüglich GTA5, mal sehen. ;-)

Allein schon die Shadercores sind interessant, VLIW4, VLIW5, oder gar SIMD-Cores(das wärs 800 davon, Sony und MS könnten einpacken, wegen Übertreffen is nich) sind so unterschiedlich, das es Fakten bedarf, um irgendwelche Urteile zu bilden. ;-)
 
Zuletzt bearbeitet:
Das war doch nicht böse gemeint, sondern ein vollkommen wertfreies Statement. Sei also nicht beleidigt, nur weil ich Recht habe (ein Umstand, der mich grundlegend von JD unterscheidet).

Zwischen beleidigt und amüsiert liegen einige Low Level Bashes von dir ;)

Ich denke eher darin, dass JD langfristiges Engagement in puncto Humor beweist, was man von dir nach 2-3 sinnfreien Beiträgen nicht mehr behaupten kann. :p
 
Sinnfrei? Wenn irgendetwas an meiner Aussage nicht stimmen sollte, könntest du ja so frei sein, einfach mal wieder ontopic zu kommen und mir die Fehler in meinem Beitrag aufzeigen, sofern du dazu in der Lage bist und es nicht vorziehst, hier weiter gegen mich zu hetzen.

Die Zelda-Demo sieht meiner Ansicht nach klar besser als Uncharted 3 aus, welches die PS3 bekanntlich ziemlich auslastet. Davon ausgehend ist die Schlussfolgerung, dass Zelda WU für PS360 sicher nicht völlig problemlos darstellbar ist, vollkommen korrekt (ist ja naheliegend, angeblich überfordert Uncharted 3 ja sogar schon die Xbox 360). Wo liegt also nun genau dein Problem?
 

Und was daran ist jetzt falsch? Alleine das Lighting würde eine der aktuellen konsolen so schaffen, vorallem nicht in Echtzeit (und die WiiU wird das in 1080P darstellen können). Ihr lasst euch halt vom "Comic-Look" von Zelda schnell ablenken und verliert somit den Blick für das technisch aufwändige.

Nicht das es mir wichtig wäre, von mir aus könnte auf dem Blatt Papier diese Zelda Demo weniger Polygone und ein schlechteres Lighting als UC3 haben, aber dann wäre es doch trotzdem noch beeindruckend das die Demo mit "weniger" einen technisch "aufwändigereren" Eindruck hinterlässt, sofern man sich nicht vom Comic-Look blenden lässt.
 
Zumal die Zelda Demo eben nur vorberechnet ist, hatten diese Diskussion bereits mit dem MGS4 Bsp. von 2005. Vom Hocker gehauen hat mich das btw auch nicht mehr. :nix:
 
äh lol?

davon abgesehen, techdemos sind absolut nichtssagend.
Da stimme ich dir zwar zu, allerdings ist ja die Aussage gefallen, dass eben jene Techdemo problemlos laufen würde, also habe ich mich darauf bezogen, weil ich gerade das in Zweifel ziehe. Was Uncharted betrifft... lass dich nicht von den zahlreichen Online-Videos täuschen. Die fand ich auch immer ziemlich beeindruckend, in natura ist das Spiel dann aber nicht das, was ich erwartet hätte.
Wie gesagt, Zelda macht mehr her. Mal sehen, was die Wii U aus der Techdemo dann in spielbarer Form machen wird.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom