Xbox One Der Xbox One Thread

Wrdet ihr euch den XBOX360 Nachfolger kaufen?

  • Ja, mich hat die XBOX360 berzeugt!

    Stimmen: 198 70,2%
  • Nein, ich bin von der XBOX360 enttuscht!

    Stimmen: 29 10,3%
  • Vielleicht!

    Stimmen: 55 19,5%

  • Stimmen insgesamt
    282
  • Poll closed .
Status
Nicht offen für weitere Antworten.
Die ATI 1800 war in etwa gleichwertig. In Sachen CPU hatte es meines Wissens noch keine besseren. Die 10mb Cache der Xbox360 waren auch ihrer Zeit voraus.
 
Wenns na nur so wäre...

Weist du was die einzelnen Hersteller an so einer Highend Grafikkarte verdienen? So gut wie nichts.

50 Dollar für einen Highend Grafikchip ist reinstes Wunschdenken. Leg nochmal ~150 Dollar drauf und es wird schon realistischer.

MS lässt die GPU selber Herstellen. Folglich entfallen natürlich die Entwicklungskosten bei der Berechnung der reinen Herstellungskosten die natürlich ein Kartenhersteller, der bei Chiphersteller X die Chips kauft, mitbezahlen muss. Und den Gewinn des Chipherstellers muss er auch bezahlen.

Eine GPU, für die der Kartenhersteller 100 Dollar bezahlt bekommt MS für 50. Ist doch wohl logisch.
Habe ich aber alles schon mal detailiert aufgeführt.
Und selbst wenn der Kartenhersteller 150 Dollar bezahlt, mehr wird es auf keinen Fall sein, wären das dann vielleicht 75 für MS. Also kein Problem.

Du glaubst wirklich das die X3/PS4 GPU einer GTX680 überlegen sein wird? Viel Spass beim enttäuscht werden :)

Wie gesagt, eine GTX670 wird das maximum sein, wobei ich selbst das für zu hoch gegriffen halte.

Wir werden sehen. Rein von der Rechenleistung ist das überhaupt kein Problem aus finanzieller Sicht.


ATI Radeon X1800/X1900.


Der Xenos ist der X1800 haushoch überlegen.
Die stärkste Ausführung leistet gerade mal 134Gflops und das auch noch mit alter getrennter Shader Architektur.

Die X1900 kam erst im Januar 2006 raus, wenn die Einträge in Wiki stimmen.
Und hier hat das Flagschiff mit seinen 374 GFlops ca. die gleiche Leistung wie der Xenos.
Der hat zwar nur 240 Gflops, aber eben Unified Shader.

Also, es gab zum Zeitpunkt des 360 Release keine schnellere Gamergrafikkarte als den Xenos.
 
Die ATI 1800 war in etwa gleichwertig. In Sachen CPU hatte es meines Wissens noch keine besseren. Die 10mb Cache der Xbox360 waren auch ihrer Zeit voraus.

Wie gesagt, die X1800 war unterlegen, erst die X1900 konnte aufschließen. Und da musste es dann auch schon das Topmodell sein.
Ist so wie mit dem RSX.
Der hat auf dem Blatt seine 400 Gflops. Aber durch seine veraltete Architektur kommt er nicht mal an die 240 Gflops des Xenos ran.
 
Ich rechne nicht vor 2014 mit einer neuen Hardewaregeneration von Sony und MS, warum auch?
Auch glaube ich nicht das sie nochmal die Obermonsterhardware verbauen werden,allein aus Kostengründen.
 
Moin,

Laut EA sind „Watch Dogs“ und „1313“ tatsächlich Spiele für Next Gen. So habe die E3 2012 inoffiziell die nächste Spielgeneration eingeleitet, ohne offizielle Ankündigung von MS und Sony. Deshalb sei es nur eine „halbe Show“, jedoch hätte man schon selbst Next-Gen Titel zeigen können (http://www.computerandvideogames.com/352410/ea-e3-is-half-a-show-thanks-to-next-gen-no-show/). Desweiteren arbeite EA an 3-5 neue Marken für die X3/PS4 (http://www.computerandvideogames.com/352434/ea-working-on-3-to-5-original-next-gen-games/)
Stellt Epic nicht auch noch die UE 4 vor? Vllt. lässt man da ja noch ein Bombe platzen :-D.
P.S.: „E3 2012: 6 Secret Next Gen Announcements Being Shown At E3“ (http://www.computerandvideogames.co...ncements-being-shown-at-e3/?page=1#top_banner)
 
Zuletzt bearbeitet:
Das hat Gibeau nur als Beispiel genommen: "Many publishers have seemingly jumped the gun on their next-gen projects at E3 2012, most notably Ubisoft's stunning Watch Dogs and LucasArts' Star Wars 1313."
Er meint damit schlicht, dass die Hersteller nun die nächste Gen geheim eingeläutet haben.
 
Also Watch Dogs und Star Wars 1313 sind in der Gesamtkomposition aller Effekte definitiv über allem was man bisher auf PS360 gesehen hat.

Diese Spiele zum Launch der XBox 3, warum nicht?
Man bedenke wie "mies" XBox 360 Launchspiele aussahen und wie gut heutige Spiele aussehen.
 
Also Watch Dogs und Star Wars 1313 sind in der Gesamtkomposition aller Effekte definitiv über allem was man bisher auf PS360 gesehen hat.


das Problem bei den jetzigen Konsolen ist einfach das fehlen von richtigen AA. Meistens sehen die games damit weit besser aus als sie eigentlich sind. Hoffe das wird standard in der nächsten Gen.
 
Der Xenos ist der X1800 haushoch überlegen.
Die stärkste Ausführung leistet gerade mal 134Gflops und das auch noch mit alter getrennter Shader Architektur.

Die X1900 kam erst im Januar 2006 raus, wenn die Einträge in Wiki stimmen.
Und hier hat das Flagschiff mit seinen 374 GFlops ca. die gleiche Leistung wie der Xenos.
Der hat zwar nur 240 Gflops, aber eben Unified Shader.

Also, es gab zum Zeitpunkt des 360 Release keine schnellere Gamergrafikkarte als den Xenos.
Wie bitte soll Unified Shader 60% mehr Leistung bringen? Schon mal drüber nachgedacht? Die Radeon X1900 hatte einen Vertexshader für jeden sechsten Pixelshader und selbst da waren die Vertexshader fast nie ausgelastet. Selbst wenn man in einer Szene keine einzige Vertexpipeline brauchen würde, was freilich nahezu ausgeschlossen ist, kann man damit höchsten 1/6 an Leistung gewinnen, weil nur 1/6 wegen Dedicated Shadern brach liegt, das sind 17%. R580 war schon deutlich stärker als Xenos. Davon abgesehen hatte die Radeon X1800XT (R520) mit den allermeisten Xbox 360 Spielen am Anfang kein Problem, dank stärkeren Fixed-Function Einheiten und mehr Bandbreite, was selbstverständlich auch auf R580 zutraf.

Dass diese Karten nichtmal die Stromaufnahme einer Mittelklassekarte heute hatten, muss ich wohl nicht weiter erwähnen. Eine Karte mit einer TDP von 113 Watt (R520) bzw. 135 Watt (R580) zu übertreffen war ja noch machbar. GK110 und Sea Islands werden die stärksten Karten zum Launch der nächsten Xbox sein und die saugen mit Sicherheit beide 200 - 250 Watt. Das kann man in einer Konsole einfach nicht unterbringen, zumal der Kühler alleine so viel kosten würde wie der Chip, wie es bei vielen PC-Grafikkarten in der Tat schon heute ist.
 
Star Wars 1313 next gen? Ja sieht geil aus aber:

Epic Games has confirmed to CVG that the incredible 'next-gen' Star Wars 1313 demo shown at E3 this week is running on Unreal Engine 3 - not the next-gen-specific UE4.

:D

http://www.computerandvideogames.com/352406/confirmed-next-gen-star-wars-1313-is-unreal-engine-3/

wann ist eigentlich die E3 Unreal ENgine 4 Vorstellung?

Und wo it das problem?
EPIC meinte doch die UE3 wird die ersten jahre die nextGen bedienen, sie kann mittlerweile alles was man für die nextgen braucht (Samaritan) ;)
 
Zuletzt bearbeitet:
Der Punkt an der Next-Gen ist, dass die meisten Grafikkarten durch immer weiter ansteigende Flexibilität fett und ineffizient geworden sind. Diese Ineffizienz zahlt sich aber aus wenn man die Flexibilität nutzt, den Code neu schreibt und die Berechnungen damit vereinfacht. Die meisten Engines sind da noch immer ganz am Anfang. Diese Eigenschaft trifft zusammen mit der Tatsache, dass niemand mehr Engines primär für den PC schreibt - und selbst am PC kann man nicht unbedingt alle diese Features voraussetzen weil sie relativ neu sind. Ich erwarte daher einen ziemlich überwältigenden Sprung zwischen den First-Gen Spielen und den letzten Titeln der neuen Konsolen.

Im Grunde werden die ersten Vorzeigeprojekte für Next-Gen Konsolen nicht sonderlich überzeugen, es wird besser Texturen geben, besser IQ-Setting, mehr Polygone, eine höhere Effektdichte, aber der wirkliche Sprung wird ne Weile dauern. Vermutlich bis Unreal 4, Frostbite 3, CryEngine 4 & Co. breitflächgig genutzt werden. Deshalb wird nächste Gen vermutlich auch ziemlich lange andauern. ;-)

*Glaskugel wieder einpack*
 
Zuletzt bearbeitet:
was soll denn an starwars next gen verdächtig sein ? :ugly:
naja sah zumindest besser aus als alle wiiu titel zusammen :v:

ist das grade so ne frust sache das nin fans jetzt in alle bereiche gehen und dort versuchen alles schlecht zu reden oder kommt mir das nur so vor
und was die vergleiche angeht bitte vergleicht das doch anhand der chipd nicht der grafikkarten
X1900 GT R580 248 bei 575 MHz Mai2006
X1900 XT R580 360 bei 625 MHz Jan2006
X1900 XTX R580 374 bei 650 MHz Jan2006
360 Xenos 240 bei 500 MHz Sep2005(produktion zeit meiner ersten box genauer zu sein 28.sep)
HD 2900GT R600 288 bei 600 MHz Nov2007

warum ich den r600 hier rein nehme der hat als erster ati gpu 8 ROPs die der xenos schon hast 2 jahre vorher
nebenbei hat der xenos den geringst takt und kann trotzdem mit den weit stärker getakteten mithalten

um meinen der wäre nicht stark genug oder veraltet ist lächerlich der war eine generation voraus
 
Wie bitte soll Unified Shader 60% mehr Leistung bringen? Schon mal drüber nachgedacht? Die Radeon X1900 hatte einen Vertexshader für jeden sechsten Pixelshader und selbst da waren die Vertexshader fast nie ausgelastet. Selbst wenn man in einer Szene keine einzige Vertexpipeline brauchen würde, was freilich nahezu ausgeschlossen ist, kann man damit höchsten 1/6 an Leistung gewinnen, weil nur 1/6 wegen Dedicated Shadern brach liegt, das sind 17%. R580 war schon deutlich stärker als Xenos. Davon abgesehen hatte die Radeon X1800XT (R520) mit den allermeisten Xbox 360 Spielen am Anfang kein Problem, dank stärkeren Fixed-Function Einheiten und mehr Bandbreite, was selbstverständlich auch auf R580 zutraf.

Dass diese Karten nichtmal die Stromaufnahme einer Mittelklassekarte heute hatten, muss ich wohl nicht weiter erwähnen. Eine Karte mit einer TDP von 113 Watt (R520) bzw. 135 Watt (R580) zu übertreffen war ja noch machbar. GK110 und Sea Islands werden die stärksten Karten zum Launch der nächsten Xbox sein und die saugen mit Sicherheit beide 200 - 250 Watt. Das kann man in einer Konsole einfach nicht unterbringen, zumal der Kühler alleine so viel kosten würde wie der Chip, wie es bei vielen PC-Grafikkarten in der Tat schon heute ist.

Es gibt aber auch den anderen Fall, dass in einer Szene mehr Vertexpower genutzt wird. Und dann drehen die Pixel-Shader Däumchen.
In verschiedenen Interviews konnte man jedenfalls lesen, dass bei "alter" Technik die GPUs eine Effizienz von ca. 60 bis maximal 70% besaßen. Der Xenons soll eine von über 90% besitzen.
Und das spiegelt sich ja auch in den Aussagen über den Vergleich RSX und Xenos wieder.

Wieso attestieren durch die Bank alle Entwickler dem Xenos mehr Power als dem RSX, wenn das so nicht zutreffen sollte ?
Denn die GigaFlopwerte sind in beiden Fällen offen einsehbar.
240 bei Xenos und 400 beim RSX.
Nach deiner Begründung kann der RSX nicht schlechter als der Xenos sein :)

Was die Stromaufnahme angeht, ist das ja mein Reden.
Wenn die X3 nicht so viel GPU Power unter der Haube haben sollte wie aktuelle High-End GPUs, dann eben aufgrund der hohen Verlustleistung. Aber nicht wegen des Preises. Denn der dürfte wie erwähnt bereits jetzt für den Einsatz in eine Konsole bezahlbar sein und erst recht, Ende nächsten Jahres oder gar erst Anfang 2014.

Ich könnte mir ja vorstellen, dass MS auch deshalb noch etwas wartet bis der 28nm Prozess, indem wohl höchstwahrscheinlich die X3 GPU gefertigt wird, weniger Verlustleistung produziert.

In dem Zusammenhang wäre es mal interessant zu erfahren, in welchem Verfahren jetzt letztendlich die Wii-U Chips gefertigt werden.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom