• Leider ist es in letzter Zeit wiederholt vorgekommen, dass Newsartikel von anderen Seiten als Ganzes im Forum gepostet wurden. Weil dies in dieser Form gegen das Urheberrecht verstößt und uns als Seite rechtliche Probleme beschert, werden wir von nun an verstärkt dagegen vorgehen und die entsprechend Benutzer verwarnen. Bitte verzichtet fortan auf das Kopieren von ganzen Newsartikeln und meldet diese über die Report-Funktion, falls euch ein entsprechender Artikel auffallen sollte. Vielen Dank!

Xbox One Der Xbox One Thread

  • Thread-Ersteller Thread-Ersteller finley
  • Erstellungsdatum Erstellungsdatum

Wrdet ihr euch den XBOX360 Nachfolger kaufen?

  • Ja, mich hat die XBOX360 berzeugt!

    Stimmen: 198 70,2%
  • Nein, ich bin von der XBOX360 enttuscht!

    Stimmen: 29 10,3%
  • Vielleicht!

    Stimmen: 55 19,5%

  • Stimmen insgesamt
    282
  • Poll closed .
Status
Nicht offen für weitere Antworten.
[video=youtube;ALKm0Leuc7c]http://www.youtube.com/watch?v=ALKm0Leuc7c&feature=player_embedded[/video]

deal-with-it.gif


http://firemint.com/2011/watch-real-racing-2-hd-in-gorgeous-1080p-on-ipad-2/

Jetzt komm mir nicht das das vielleicht nicht nativ ist bei der Box ist die Hälfte der Games auch nicht nativ.

Man kann eine Zitrone bis auf letzte ausquetschen aber nach vorne bringt einen das nicht wirklich. Besonders wenn man nicht bereit ist alles dafür zu geben das noch etwas gutes dabei raus kommt.

Ich kenne die Videos und sage ja, Ersteindruck ganz nett.
Aber du willst so ein Game doch nicht wirklich mit einem Forza, Shift oder Dirt vergleichen ?
Technisch liegen da Welten zwischen.
 
Bis 2014 werden die Entwickler nicht warten wollen. Diverse Paper & Präsentationen bestätigen, dass Epic, DICE, Crytek, id Software & Co zwischen 2012 und 2013 mit der Next-Gen rechnen. Die Sci-Fi Demo von Epic zeigt neue Engine-Features die bereits sehr speziell auf ein gewisses Art-Design abgestimmt sind, das Spiel dazu wird also schon länger in Entwicklung sein. Außerdem sehen die Assets zu gut aus um mal eben schnell für eine Demo erschaffen worden zu sein.

Im ersten Jahr nach Launch bringt man grundsätzlich keine neue große IP, das wird von 3rd Party Entwicklern bewusst vermieden. Epic wird also ziemlich angepisst sein falls Microsoft sie tatsächlich bis 2015 warten lassen sollte. Bis dahin könnte schon Samaritan 2 fertig sein. Ich persönlich habe eigentlich nichts dagegen. Je länger eine Gen dauert, desto besser werden die Spiele i.d.R. - außerdem gehört dieser Zyklus, bei dem nur am Anfang einer Gen neue IPs vorgestellt werden langsam mal durchbrochen.
 
Zuletzt bearbeitet:
Bis 2014 werden die Entwickler nicht warten wollen. Diverse Paper & Präsentationen bestätigen, dass Epic, DICE, Crytek, id Software & Co zwischen 2012 und 2013 mit der Next-Gen rechnen. Die Sci-Fi Demo von Epic zeigt neue Engine-Features die bereits sehr speziell auf ein gewisses Art-Design abgestimmt sind, das Spiel dazu wird also schon länger in Entwicklung sein. Außerdem sehen die Assets zu gut aus um mal eben schnell für eine Demo erschaffen worden zu sein.

Im ersten Jahr nach Launch bringt man grundsätzlich keine neue große IP, das wird von 3rd Party Entwicklern bewusst vermieden. Epic wird also ziemlich angepisst sein falls Microsoft sie tatsächlich bis 2015 warten lassen sollte. Bis dahin könnte schon Samaritan 2 fertig sein. Ich persönlich habe eigentlich nichts dagegen. Je länger eine Gen dauert, desto besser werden die Spiele i.d.R. - außerdem gehört dieser Zyklus, bei dem nur am Anfang einer Gen neue IPs vorgestellt werden langsam mal durchbrochen.

Sollte MS wirklich jetzt erst mit der konkreten Planung des Nachfolgers anfangen werden sie wohl frühestens Ende 2013 launchen können wenn man die letzen Gen bzgl. der Entwicklungszeit verfolgt.
Es müssen ja zuerst einmal Verträge mit den entsprechenden CPU und GPU Herstellern ausgehandelt werden. Die jeweilige Entwicklung der speziellen Chips wird dann sicherlich auch ein Jahr brauchen sollte man nicht auf totale Standardkost zurück greifen was ich allerdings zumindest bei der 720 nicht denke.
Bis dahin haben wird schon Mitte 2012.
Und dann kommt ja erst die Alpha Testphase.

Die GPU der 360 war Ende 2014 fertig designed. Die Konsole selber erschien dann über ein Jahr später
Sollte also bereits Ende 2012 eine neue Box erscheinen müssten zumindest die Verträge hierfür schon stehen.
Da man bisher aber noch nichts gehört hat ist das eher unwahrscheinlich.
Natürlich nur meine persönliche Prognose :)
 
@Mellace

ich kann nur bestätigen das Real Racing 2 mit meinem Ipad 2 und dem HDMI Adapter auf meinem TV in ECHTEN 1080p, ruckelfrei mit 16 Autos gleichzeitig läuft und fantastisch aussieht und klingt.

Beeindruckend für ein so flaches Gerät das kaum Wärme erzeugt und mit Akku läuft.

Aber natürlich ist da noch immer ein meilenweiterunterschied zu Forza oder GT5.....bis aufs echte FullHD ;-)
 
Sollte MS wirklich jetzt erst mit der konkreten Planung des Nachfolgers anfangen werden sie wohl frühestens Ende 2013 launchen können wenn man die letzen Gen bzgl. der Entwicklungszeit verfolgt.
Gibt es einen Anlass davon auszugehen? Die Stellenausschreibungen bedeuten gar nichts. Microsoft sucht auch jetzt noch immer neue Leute für's Windows 8 Team.

Mell@ce schrieb:
Sollte also bereits Ende 2012 eine neue Box erscheinen müssten zumindest die Verträge hierfür schon stehen.
Da man bisher aber noch nichts gehört hat ist das eher unwahrscheinlich.
Natürlich nur meine persönliche Prognose :)
Ich gehe nach wie vor von 2013 aus. Ist einfach der technologisch und strategisch beste Zeitpunk, sofern man das heute schon abschätzen kann.
 
Hmm ob aber MS wirklich 2013 eine Konsole rausbringt? Ich mein bei Office haben sie auch die Version 13 übersprungen :coolface:

Für mich stand deshalb schon lange fest entweder 2012 oder 2014. 2012 wäre aber wegen Kinect zu früh deshalb läuft wohl wirklich alles auf 2014 hinaus. Außerdem glaube ich das MS in der Tat erst so langsam anfängt überhaupt an die NextGen zu denken.

2013 wäre aber in der Tat ein eigentlich guter Zeitpunkt. Aber naja... abwarten :D
Weil 2 Jahre nach Wii2 Launch stelle ich mir problematisch vor noch Marktführer werden zu wollen.
 
Zuletzt bearbeitet:
Der Releas einer Konsole hängt immer davon ab wie gut/schlecht sich die Konkurrenz verkauft! Wird die neue Nintendo Maschine gut abgehen werden Sony und Microsoft schnell nachziehen! Wird sie sich schlecht verkaufen, werden sie warten.
 
Der Releas einer Konsole hängt immer davon ab wie gut/schlecht sich die Konkurrenz verkauft! Wird die neue Nintendo Maschine gut abgehen werden Sony und Microsoft schnell nachziehen! Wird sie sich schlecht verkaufen, werden sie warten.


Blödsinn
als wenn sony und microsoft schnell was zusammenbauen würden ......pfff
 
Der Releas einer Konsole hängt immer davon ab wie gut/schlecht sich die Konkurrenz verkauft! Wird die neue Nintendo Maschine gut abgehen werden Sony und Microsoft schnell nachziehen! Wird sie sich schlecht verkaufen, werden sie warten.
korrekt. die haben schon ihre pläne fertig in der schublade. einzig die gewinnprognose muss passen. bauteile werden jahr zu jahr billiger.
 
korrekt. die haben schon ihre pläne fertig in der schublade. einzig die gewinnprognose muss passen. bauteile werden jahr zu jahr billiger.



Ich glaube kaum dass man einfach mal einen fertigen Plan einer Konsole haben kann der schon Jahre in der Schublade liegt. Eine Konsole zu planen ist sehr aufwändig, insbesondere dann wenn es eine topaktuelle Hardware zum Launch sein soll. Vor allem spielt da jeder Cent eine Rolle der hier kalkuliert werden muss - der sonst ein Millionen- oder Milliardenschweres Loch in den Geldbeutel reißen kann. Für eine Konsole braucht man einen ausgeklügelten Zeit- und Kostenplan und man kann das ganze dann nicht einfach mal ein Jahr vorziehen.
 
Zuletzt bearbeitet:
Ich glaube kaum dass man einfach mal einen fertigen Plan einer Konsole haben kann der schon Jahre in der Schublade liegt. Eine Konsole zu planen ist sehr aufwändig, insbesondere dann wenn es eine topaktuelle Hardware zum Launch sein soll. Vor allem spielt da jeder Cent eine Rolle der hier kalkuliert werden muss - der sonst ein Millionen- oder Milliardenschweres Loch in den Geldbeutel reißen kann. Für eine Konsole braucht man einen ausgeklügelten Zeit- und Kostenplan und man kann das ganze dann nicht einfach mal ein Jahr vorziehen.

So schauts aus.
Die Technik entwickelt sich auch immer weiter so dass man heute z.B. gar nicht sagen kann was in einem, zwei oder gar drei Jahren für neue Techniken erfunden werden. Und damit ziele ich nicht auf profane Takterhöhungen oder Schrumpfung des Shrink-Prozesses ab.
Eher so etwas wie die Unified-Shader der aktuellen GPUs oder Tesselationseinheiten.

Vor allem müsste MS es geschafft haben ihre Sicherheitsvorkehrungen bzgl. leaks drastisch zu erhöhen. Denn bisher gelangte von jeder XBOX jahrelang im Vorraus die ersten Details, die auch zutrafen, in die Öffentlichkeit.
So war es bei der XBOX und erst recht bei der 360 von der ja bereits zwei Jahre vorher das exakte Blockschaltbild sich im Netz befand.
 
Ok, dann habe ich dich bzgl. des Geschwindigkeitsfaktor missverstanden :)
Aber in den anderen Punkten sind wir nicht auf einer Linie.
Klar ist die CPU fixer als die Bandbreite eines normalen Hauptspeichers.
Aber dafür hat sie ja nun mal eben ihre First-, Second- und neuerdings auch Third-Caches um dort ihre Zwischenergebnisse abzulegen. Ansonsten ist gerade der Speicher der 360 so ausgelegt, dass die Bandbreite passt. In der 360 werkelt sogar nur ein 128bit breiter Bus und nicht wie bei vielen Grafikkarten ein 256 oder gar 384bit breiter. Die Nachteile hätten hier die Vorteile überwogen.
Weiterhin hat die 360 eben ihr eDRAM, was Bandbreitenprobleme der GPU zum Speicher so gut wie eleminiert und dort als Cache fungiert.
Die Bandbreite des gemeinsamen Hauptspeichers beträgt ca. 25GB und ist für das System XBOX 360 mit dem eDRAM ausreichend.

Ausreichend in dem veranschlagten Budget, das hat aber nichts mit optimal zu tun ;-)
Wenn zwischen den Hauptspeicher und der CPU solch eine Geschwindigkeitsdifferenz herrscht, ergeben sich zwangsläufig Wartezyklen, also Taktleerläufe. Beim der Speicherung kannst du diese noch umgehen, indem die CPU nur die Information zur Speicherung abgibt, sich beim Speichvorgang selbst aber schon anderen Dingen widmet. Beim Lesezugriff sieht die Sache schon anderes aus, wenn der Speicher nunmal nur ein Zehntel der Geschwindigkeit des Speicher hat, muss er bei einer Anfrage auch entsprechend warten bis der Speicher aus den Knick kommt und die gewünschte Information bereitstellt, daran ändert auch nichts der eDRAM des Xenos nichts.
Um solche Wartezyklen zu verringern gibt es ja überhaupt den Cache, und wie wichtig dieser ist zeigt schon dass heutige CPUs zur Hälfte aus Cachespeicher bestehen. Weil SRAM ( Cache ), welcher mit dem Takt der CPU läuft, aber sackteuer ist und SDRAM ( Main-RAM ) nicht mehr mit der Geschwindigkeit der CPUs mithalten kann, führte man ja überhaupt den L2, und neuerdings zusätzlich noch den L3 Cache ein, welche selbst aber nicht mehr mit dem CPU Takt laufen, sonder selbst mindestens 2 Wartezyklen verbraten. Im Endeffekt alles ein Kompromis, weil SDRAM zu langsam ist, gleichzeitig aber so billig dass man nicht daraf verzichten kann :-)


Keine Sorge. Ich habe das mal gelernt und weiß wie ein PC-System tickt, auch auf unterster Hardwareebene :)
Es ist aber utopisch, die Ramgeschwindigkeit an die des Prozessors anzugleichen. Das geht aus kosten uund physikalischen Gründen nicht. Schreibst du ja selber. Bei 4GB hätte man einen genügen großen Streamingpuffer. Es ist ja nicht so, dass die Daten direkt vom Laufwerk in die CPU/GPU gelangen. Zuerst kommen sie ins RAM und dort bei Verlangen in die Prozessoren. Ein Teil des RAM wird eben abgezwackt für die vom Laufwerk gestreamten Daten. Der Rest fungiert als permanentes RAM wo Dinge untergebracht sind, die während des ganzen Spiels oder Level andauernd benötigt werden. Dazu gehört natürlich ein vorrausschauendes Streaming. Wird dieses ordendlich umgesetzt dreht die CPU auch keine Däumchen.
Wie ich schon erwähnte heißt Streaming ja nicht, dass die CPU/GPU sich nur aus den gestreamten Daten bedient. Dann hättest du natürlich recht und die Prozessoren würden Däumchen drehen. Aber so ist es ja nicht. Sie bedienen sich aus dem von mir oben genannten "permanennten" Ram und eben aus dem Streamingpuffer. Heute haben sie für beide Speicherbereiche nur maximal 512MB zur Verfügung und es funktioniert ja auch tadellos wie z.B. Bei Uncharted 2 und das bei einem relativ lahmen Laufwerk.

Wie geschrieben, ich gehe nicht davon aus dass in der nächsten Gen 8GiB eingebaut sind, was aber nicht bedeutet dass es schlecht wäre, wenn sie es hätten. Man muss bedenken, wenn die Platformen 2013/14 erscheinen, sind sie nicht nur für das Jahr aktiv, sondern sollen mindestens bis 2020 halten, eher noch eine ganze Ecke mehr. Um die zukunftssicherheit zu gewährleisten, ist mehr RAM immer gut, weil es einige Daten gibt, welche einfach schnell zur Verfügung stehen müssen. Soundfiles, Texturen ( verschiedene Layer, Mid Maps ), Animationen etc sind Daten welche nicht erst vom Datenträger gelesen werden können, wenn sie gebraucht werden, sondern müssen schon vorhanden sein, wenn sie gebraucht werden. Bei einen sehr linearen Spiel wie Uncharted möge dies noch gut gehen, aber selbst dies lädt in den Sequenzen weiter Teile nach, so tadellos funkt es also nicht ;-)
Gleichzeitig könnte sich MS und Sony mehr für das OS aufheben, um im Laufe der Jahre und technologischen Entwicklung mehr Möglichkeiten haben zusätzliche Dienste zu integrieren. Natürlich ging dies jetzt schon mit PS360, und bei beiden ist der RAM Bedarf des OS im Laufe der Zeit gar gesunken, aber man weiß ja nie............. ;-)
 
Zuletzt bearbeitet:
@squalldestiny.

Ich sehe schon, wir reden von der gleichen Sache setzen nur unterschiedliche Prioritäten :)
Die Wartezyklen der CPU kannst du ja nicht durch größeren Speicher verkleinern. Das geht eben nur durch schnelleren.
Der ist aber auch teurer bringt aber meiner Ansicht nach mehr als größerer langsamer Speicher.

Dazu muss man auch die Relation von der derzeitigen Speichergröße zur angenommenen 4GB Größe bedenken.
4GB ist ne Menge Holz. Der reine Gamecode ist da ja fast zu vernachlässigen mit seinen wenigen Megabyte.
Auch Animationen mögen bei der derzeitigen Größe ins Gewicht fallen wo man vielleicht 20-50MB dafür zur Verfügung hat.
Aber bei 4GB könnte man den Speicher hierfür auch problemlos vergrößern.
Soundfiles nehmen relativ zur Speichergröße auch nur wenig Platz weg.
Insbesondere liegen die ja nicht im Mehrkanalton vor sondern es handelt sich um Mono (eventuell Stereo ?) Signale die erst je nach Spielsituation in Echtzeit in ein Mehrkanalsignal umgewandelt werden.
Und wenn man weiß, dass ein hochwertiges Soundfile von einer Stunde Länge (in Stereo) gerade mal um die 100-150 MB in Anspruch nimmt ist das doch zu vernachlässigen. Die Soundfiles eines normalen Spieles sind alle zusammen gerechnet auch weit von einer Stunde Spielzeit entfernt.
Anders die Hintergrundmusik, die schon länger ausfallen könnte. Aber die kann problemlos aufgrund ihrer geringen Datenrage gestreamt werden.

Bleiben eigentlich nur die Texturen, die richtig Platz verbrauchen, und nach Abzug der oben genannten Faktoren und des Streamingspeichers dürfte hierfür wohl locker noch 2-2,5 GB übrig bleiben. Da darf dann sogar das Betriebssystem von 16/32MB sich ruhig auf 128 oder gar 256MB aufblähen :)

2GB ist ne Menge Holz. Selbst die meisten PC Spiele besitzen nicht mal mehr als 2GB an Texturen für das ganze Spiel. Die Texturen liegen zwar gepackt auf dem Datenträger werden aber zum größten Teil auch im Speicher gepackt gehalten und erst bei ihrer Verwendung on-the-Fly dekomprimiert.
Klar werden Texturen immer aufwändiger und verbrauchen mehr Platz. Stichwort Megatexturen.
Aber hier kommt eben wieder das Streaming zum Zuge was ja selbst bei Open-World Spielen funktioniert.
GTA4 und RDR sind ja hier klassische Beispiele. Selbst Oblivion, was ja bereits zum Anfang der Generation erschien machte davon Gebrauch.

Auch finden Entwickler immer wieder Tricks die Kompression ohne sichtbare Verluste zu erhöhen
Ich sprach ja schon von der neuen Lionhead Engine. Dort werden Texturen 10-13 mal stärker komprimiert (der vorher von mir genannte Faktor 30 ist quatsch sorry :) ) als es die Directx Kompressionsalgorithmen können.
Hier das dazugehörige PDF. Seite 33 die Zusammenfassung
http://miciwan.com/GDC2011/GDC2011_Mega_Meshes.pdf

2GB Texturen in herkömmlicher Kompression nehmen somit bei dem erwähnten Kompressionsalgorithmus nur noch ca. 200MB ein.
Man merkt, die Technik schreitet auch im Softwarebereich rasend schnell vorran.
Und dank immer schnellerer Hardware fällt auch die vermutlich längere Dekompressionszeit für diese neue Technik nicht ins Gewicht.
Sie soll ja schon für die nächsten 360 Spiele von Lionhead eingesetzt werden weshalb man wohl davon ausgehen kann dass die Mehrarbeit bei der Dekompression schon jetzt nicht ins Gewicht fällt.

Jedenfalls würden 8GB schneller Hauptspeicher das Gerät entweder verteuern oder es müsste an CPU/GPU Leistung gepart werden.
Einen kleineren Speicher wird man meiner Ansicht nach durch intelligente Programmierung/Streaming ausgleichen können, langsamere Prozessoren aber wohl kaum.
 
Zuletzt bearbeitet:
Offtopic: Super Diskussion, wäre schön wenn es in jedem Thread so ablaufen würde ^^ Mell@ce und Squall :goodwork:

Wenn Ihr euch nicht einigen könnt, wir wäre es mit 6GB? Somit hätte mann "imo" genug für das jetzige und das morgige!
 
@Mall@ce

Ist halt immer so eine Sache mit dem Speicher, entweder billig und viel, dafür aber langsam, oder schnell, dafür wenig und teuer :-(

Allgemein gehe ich aber davon aus, dass auch den aktuelle Platformen mehr Speicher besser zu Gesicht stehen wurde, als wenn sie schnellere CPUs/GPUs hätten. Gerade Multicore/ threading CPUs lassen sich mit guter Programmierung wohl schneller mit Dingen beschäftigen, wenn sie einen schnellen Zugriff darauf haben, ansatt neue Daten erst quälent vom Datenträge geladen werden müssten.
Der PS2 und der 360 hätte ein größerer eDRAM mehr gebracht als wenn sie schnellere Prozessoren gehabt hätten, auch eine PS3 hätte von mehr VRAM profitiert. Generell war der RAM immer die Achillisferse der Konsolen, an CPU/GPU Leistung mangelte es selten.

Bei solchen Techniken wie der von Lionhead bin ich immer sehr skeptisch, das ganze erinnert mich zu sehr an die unlimited Technik. Wirkt in einer Techdemo immer ganz hübsch, gleichzeitig aber extrem statisch, was auch der Nacheil dieser Technik zu sein scheint. Ich weiß, das ganz ist nicht das Gleiche, aber ich will davon erst was in einen Spiel sehen, bevor ich irgedwas darauf gebe.
Natürlich steht aber nicht außer Frage, dass die Softwareoptimierung einen noch weit größeren Teil in Zukunft einnehmen wird, weit vor der Hardwareoptimierung ( die Zeiten sind imo seit der letzten Gen vorbei ) und neue Techniken Speicher, wie auch Rechenschritte einsparen werden, gleichzeitig steigen damit aber immer die Anforderungen. Texturen werden in der nächsten Gen ja nicht einfach nur schärfer, sie werden auch mehr Lighting-, Höhen-Tiefeninformationen enthalten, oder generell unterschiedlichen Zustände in mehreren Layern, in denen wiederum mehrere Informationen gespeichert sind. Heute reicht auch nicht mehr ein Buffer, es müssen schon mehrere sein, am besten 3 und nicht zu vergessen das ganze Post processing welches sich nochmal über alles legen will, und so weiter und so fort......du weißt auf was ich hinaus will :-)

Ich bin mal gespannt wie es MS und Sony in der nächsten Gen deigseln werden, und das beste Mittelmaß bei Größe und Schnelligkeit des RAMs finden. Bei MS gehe ich davon aus, dass sie an der 360 Architektur festhalten werden: Unified RAM für GPU/CPU und einen eDRAM für die GPU. Vielleicht 4GiB und 64MiB, aber das sind Zahlenspielerein, wäre definitiv aber ein guter Brocken.
Bei Sony ist es unsicherer. Ich gehe davon aus, dass sie auch bei der PS3 auf einen eDRAM gesetzt hätten, wenn sie mehr Vorlaufzeit für die GPU gehabt hätten, und nicht zu lange an "Cell als vollwertigen GPU Ersatz" rumgewerkelt hätten, bei PS2 und PSP sind sie auch damit gut gefahren, aber für ein ordentliches ummodifizieren eines nVidia Chips war dann wohl keine Zeit mehr......und das Geld alle xD
Wovon ich aber ausgehe ist, dass Sony bei der PS4 wieder auf Rambus setzen wird, wie schon bei PS2 und PS3. Sony sind wohl mit Abstand der größte Abnehmer bei denen, und können mit der langjähigen Geschäftsbeziehung den höheren Preis der Speicherchips entgegenwirken, gleichzeitig spart man auch einige Pins bei der Bandbreite, bei der PS3 kommt der XDR trotz 64bit Anbindung auf stolze 25,6GB/s. XDR2 wäre auch als VRAM bei der PS4 eine klasse Angelegenheit, mal schauen ob Sony auch wieder auf eine unified Architekur setzt, wenn ja, wird man wohl auch wieder auf einen eDRAM setzen.Kann also gut sein das MS und Sony sich bei der nächsten Gen angleichen werden, was die Archtitekturen angeht.

@Vati

Danke. Klar wäre das auch gut :-) Das einzige was den endgegenspricht ist immer der höhere Preis. Ich gehe auch davon aus, dass es 4GiB sein werden, aber 6GiB bei gleicher Geschwindigkeit wären natürlich besser, und 8GiB noch besser ;-)
 
Zuletzt bearbeitet:
Alles zwischen 2 - 4 GB ist denke ich realistisch. Viel wichtiger ist ohnehin die Bandbreite. Idealerweise hat man für jeden Flop Rechenleistung 1 Byte Bandbreite pro Sekunde. Bei 2 TFLOPs wären das gigantische 2 Terabyte/Sekunde. Ist natürlich total unrealistisch. Es ist schon heute eine der größten Herausforderungen mit der vorhandenen Bandbreite so gut wie möglich auszukommen und ein großer Teil der Anstrengungen im Prozessor-Bereich basiert auf Kompressionen und effizienten Cache-Systemen die Bandbreite sparen. Selbst damit erreicht man aber kein magisches Wunder mit dem man 2 Terabyte/Sekunde an effektivem Bandbreitenbedarf auf 90 GByte/Sekunde quetschen kann.

Bandbreite wächst leider auch in Zukunft langsamer als Rechenleistung. EDRAM als Backbuffer und hoch getakteter Speicher mit 256Bit MI wäre daher anzuraten. Das ist leider so teuer, dass für 8GB Speicher kein Geld mehr da sein wird. In der Tat würden die meisten Entwickler sogar eher 2GB mit 170 GB/s und 80 MiB eDRAM (genug für 1080p/4xAA) nehmen als 8GB mit 85 GB/s. Beides wird einfach zu teuer werden und ich fürchte sogar, dass ein 256 Bit MI alleine zu teuer ist.
 
Zuletzt bearbeitet:
Alles zwischen 2 - 4 GB ist denke ich realistisch. Viel wichtiger ist ohnehin die Bandbreite. Idealerweise hat man für jeden Flop Rechenleistung 1 Byte Bandbreite pro Sekunde. Bei 2 TFLOPs wären das gigantische 2 Terabyte/Sekunde. Ist natürlich total unrealistisch. Es ist schon heute eine der größten Herausforderungen mit der vorhandenen Bandbreite so gut wie möglich auszukommen und ein großer Teil der Anstrengungen im Prozessor-Bereich basiert auf Kompressionen und effizienten Cache-Systemen die Bandbreite sparen. Selbst damit erreicht man aber kein magisches Wunder mit dem man 2 Terabyte/Sekunde an effektivem Bandbreitenbedarf auf 90 GByte/Sekunde quetschen kann.

Bandbreite wächst leider auch in Zukunft langsamer als Rechenleistung. EDRAM als Backbuffer und hoch getakteter Speicher mit 256Bit MI wäre daher anzuraten. Das ist leider so teuer, dass für 8GB Speicher kein Geld mehr da sein wird. In der Tat würden die meisten Entwickler sogar eher 2GB mit 170 GB/s und 80 MiB eDRAM (genug für 1080p/4xAA) nehmen als 8GB mit 85 GB/s. Beides wird einfach zu teuer werden und ich fürchte sogar, dass ein 256 Bit MI alleine zu teuer ist.

Das ist eigentlich das was ich ausdrücken wollte. Am liebsten hätte man es wenn man großen Speicher in der Geschwindigkeit eines Cachs hätte, da dies in den gleichen Größenordungen wie heutiger verbauter RAM unmöglich ist zu bezahlen, muss man sich auf Kompromisse verlassen.
Gleichzeitig bringen diese Kompromisse, welche sich in verschiedenen Cache und RAM Hirachien äußern, wiederum Probleme bei der Datenkohärenz mit sich, gerade bei solchen SMP Systemen, welche gleichzeitig noch SMT Systeme sind, wie PS360.
 
Neues Bungie Spiel EXKLUSIV für PS3 !!!


http://ne0r.consolewars.de/post/139641/neues_bungie_spiel_exklusiv_fuer_ps3_



EDIT:

oops sorry falscher thread

Darf ich mal fragen, wie du anhand dieser Quelle bzw. Stellenanzeige darauf kommst, dass Bungie ein Exklusivspiel entwickeln möchte? Das ist eine sehr fantasievolle Interpretation dieser Stellenanzeige, muss ich schon sagen. :uglygw:

Bungie hat sich entschieden Multiplattform Titel zu entwickeln, da ist es ja wohl logisch, dass sie nach und nach das Sony Team aufbauen bzw. verstärken. Woran man da jetzt erkennen soll, dass es ein exklusives Spiel werden soll, ist mir schleierhaft. Vielleicht bin ich auch einfach zu alt für dieses Hobby und bin nicht mehr so fantasievoll :-P
 
Moin,


mal wieder ein paar Stellenangebote, diesmal aber vielleicht etwas aussagekräftiger:

Program Manager, Senior-IEB-MGS (753696) Job


IEB Studios is looking for an experienced, technical program manager to build and manage a prototyping program for cloud gaming that uniquely leverage the technical assets - hardware, software, and service platforms - of Microsoft’s Interactive Entertainment Business (IEB). You will be partnering with rock star developers („Rockstar“ ?) to create prototypes to incubate our technical strategy, validate our product roadmap, and produce content that seeds the 1st and 3rd party ecosystems with tools and technology to get a head start („headstart“ = Vorsprung) on future content experiences.

This role specifically will be chartered with defining and managing our console prototyping program to find new ways to add value to the gaming experience and our business. Your ability to stay focused, fail fast, and keep the team moving forward will be critical to your success in this role.

Specific accountabilities and expectations for this role are:

- Manage the evolution of multiple prototypes from conception to implementation.

- Collaborate with creative and technical leaders and individual contributors to deliver spectacular proofs-of-concept that bring new ideas and gaming innovations to life.

- Work beyond traditional discipline boundaries to do what is needed to make progress and deliver results.

- Build excitement for the prototypes and status to all stakeholders, highlight progress toward goals and manage risks and roadblocks.

Minimum qualifications:

- A Bachelor’s degree in Computer Science or a related discipline or equivalent work experience.

- 3+ years experience working as a program manager across a minimum of two release cycles.

- Experience with the creative process and production process for building blockbuster games.

- A demonstrated ability to come up-to-speed quickly on new technical domains.

- Demonstrated ability to work and thrive within a cross-group collaboration heavy environment.

- Outstanding written and verbal communication.

- History of shipping services software on an aggressive cadence.

Software Design Engineer, Senior-IEB-MGS (753578) Job



IEB Studios is looking for an experienced Software Engineer to prototype gaming experiences that uniquely leverage the technical assets - hardware, software, and service platforms - of Microsoft’s Interactive Entertainment Business (IEB). This role will be hands on in creating prototypes to incubate our technical strategy, validate our product roadmap, and produce content that seeds the 1st and 3rd party ecosystems with tools and technology to get a head start on future content experiences.

This role specifically will draw heavily on your experience building games or applications that rely on the cloud for primary functionality. You will be tasked with inventing new ways to make the cloud an even more valuable part of the gaming experience for both customers and our business. Your ability to deliver spectacular results on continually evolving hardware, software, and service platforms will be critical to your success in this role.

Specific accountabilities and expectations are:

- Researching and developing technology and systems that will be at the core of our next wave of innovation.

- Design and oversee the development of solid, well-architected systems that allow for fast iteration.

- Lead the architecture and implementation of core technology.

- Take the lead in delivering key game play features in cooperation with other developers, designers, and program managers.

Minimum Qualifications:

- A Bachelor’s degree in Computer Science or a related discipline or equivalent work experience

- 5+ years of professional experience working as a senior software engineer

- Strong technical background in services

- Demonstrated experience designing scale distributed systems

- Experience with Azure or other cloud computing systems

- Excellent design, implementation, and debugging skills

- Outstanding written and verbal communication abilities

- History of shipping services software on an aggressive cadence



Das alles heißt für mich dreierlei.

  1. MS will in der Lage sein schnell auf Veränderungen zu reagieren („Shipping […] on an aggressive cadence“).
  2. Die X3 wird verstärkt auf die „Cloud“ setzen
  3. MS ist dabei Dev. Kits herzustellen
Quellen: http://www.microsoft-careers.com/job/Redmond-Program-Manager,-Senior-IEB-MGS-%28753696%29-Job-WA-98052/1233788/
http://www.microsoft-careers.com/jo...Senior-IEB-MGS-(753578)-Job-WA-98052/1235581/
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom