Next Gen Konsolen und die Technik dahinter

Status
Nicht offen für weitere Antworten.
denke aufjeden fall das es daran liegen wird das DICE über die 4 GB grenze am PC schießen will, BF3 verwendet nur etwa 40% von meinem CPU und Ram da es mehr GPU lastig ist.
Bin mal gespannt was DICE aus der Frostbite 2.0 noch rausholt in der Next Gen :D

Ist halt die Frage, wie es anders aussehen würde, wenn es nur auf 64Bit-System erschienen wäre, ka :D Aber BF3 ist auch CPU-Lastig, speziell der MP mit 64 Mitspielern. Da kacken zum Beispiel die 2Kern-Prozessoren ab, sprich 4Kern bei 64Map kommen besser an :D Aber wie gesagt, ich will hier an meiner Behauptung nicht festhalten, war einfach eine Verknüpfung dieser Information mit den vorherigen Aussagen von Engine-Entwicklern und mehr auch nicht :D
 
Zuletzt bearbeitet:
Ich habe auch "nur" 4 Gbyte RAM in meinem PC... und alles läuft perfekt, kein aktuelles Spiel braucht mehr und ich glaube auch nicht, dass sich das so schnell ändern wird.
 
Was ich aber verpeilt hab, dass Win 32Bit doch nur 3Gb verwendet oder? da war doch was :D hab eigentlich nur 64Bit-Systeme gehabt, daher ka was mit Win 32Bit ist :D Aber ich glaube das es nur 3 von 4Gb verwenden kann. Daher könnte es dann auf eine mindestens 4GB-NextGen hinauslaufen. Aber wie gesagt, ich will und wollte hier nichts ins rollen bringen :D
 
OT:
thraker könntest du bitte mit den Smileys aufhören. Die Texte erscheinen so ziemlich lächerlich und verlieren jegliche Ernsthaftigkeit.
 
Ich habe auch "nur" 4 Gbyte RAM in meinem PC... und alles läuft perfekt, kein aktuelles Spiel braucht mehr und ich glaube auch nicht, dass sich das so schnell ändern wird.

Ist ja auch kein wunder da 32bit systeme noch häufig im umlauf sind hat es kein entwickler richtig gewagt über die 4GB RAM grenze zu gehen , da dort das 32bit system der flaschenhals ist.
Win 9 wird nur noch 64bit sein und das ist gut so, denn dan geht es wieder in der spieleentwicklung vorran und du kannst dir denken wie schnell man dann kein game mehr mit nur 4GB zocken werden kann ;) viele entwickler wünschten sich das MS schon bei Win8 64bit als standart eingeführt hätte, aber gut das DICE als erster die Eier hat nur auf 64bit zu setzen :D
 
OT:
thraker könntest du bitte mit den Smileys aufhören. Die Texte erscheinen so ziemlich lächerlich und verlieren jegliche Ernsthaftigkeit.

Ich lache eben viel :D hehe
Ok, ich werde es bei tiefgründigen Gesprächen sein lassen :coolface: :D hehe und das war nicht ironisch, hehe
 
Ist ja auch kein wunder da 32bit systeme noch häufig im umlauf sind hat es kein entwickler richtig gewagt über die 4GB RAM grenze zu gehen , da dort das 32bit system der flaschenhals ist.
Win 9 wird nur noch 64bit sein und das ist gut so, denn dan geht es wieder in der spieleentwicklung vorran und du kannst dir denken wie schnell man dann kein game mehr mit nur 4GB zocken werden kann ;) viele entwickler wünschten sich das MS schon bei Win8 64bit als standart eingeführt hätte, aber gut das DICE als erster die Eier hat nur auf 64bit zu setzen :D

Beim Umstieg von 32 auf 64bit braucht man ja eh schon ca. 50% mehr Speicher aufgrund des Overheads ohne dass man hierdurch effektiv mehr Speicher zur Verfügung hätte.
8GB auf deinem 64Bit System entspricht also ca. 5.3GB auf einem 32Bit (auch wenn man dort logischerweise keine 5.3GB ansprechen kann :) )
 
Weiss garnicht was ihr alle habt
Ich hab 32gb ram und kann grad ma die haelfte ansprechen weil ich nur windows home edition habe :coolface:
 
Wurde jetzt wegen der 64bit Mindestandorderung nicht darauf schließen, dass damit die neuen Konsolen über die 4GB Grenze hinaus gehen. Beim PC werden generell mehr Ressourcen im Betrieb gebraucht. Mit einen 512MB RAM ( Main und VRAM zusammen ) wie bei den Konsolen, bekommt man heute auf dem PC auch nichts mehr gebacken, und eigentlich schon 2005/6 eher wenig ;-)
Die Anforderungen aller Anwedungen inkl. dem OS auf dem PC steigen ja ebenfalls mit der Zeit, da ist es nicht verwundernd, dass die Mindestanforderung sich höher einpendelt.
 
Zuletzt bearbeitet:
Beim Umstieg von 32 auf 64bit braucht man ja eh schon ca. 50% mehr Speicher aufgrund des Overheads ohne dass man hierdurch effektiv mehr Speicher zur Verfügung hätte.
8GB auf deinem 64Bit System entspricht also ca. 5.3GB auf einem 32Bit (auch wenn man dort logischerweise keine 5.3GB ansprechen kann :) )
Binaries sind in 64bit idR etwas größer, aber die machen nur einen winzigen Bruchteil des Speicherbedarfs eines Programms aus.
 
Binaries sind in 64bit idR etwas größer, aber die machen nur einen winzigen Bruchteil des Speicherbedarfs eines Programms aus.

Es geht ja nicht nur um Binärdateien.
Bei 64bit Programmen werden ja nicht nur die Adressbreiten verdoppelt sondern auch viele Datentypen erhalten die doppelte Bit-Länge.
 
Es geht ja nicht nur um Binärdateien.
Bei 64bit Programmen werden ja nicht nur die Adressbreiten verdoppelt sondern auch viele Datentypen erhalten die doppelte Bit-Länge.
Nur wenn die Entwickler schlampen. Ich habe seinerzeit als Early Adopter selbst eine Reihe von Linux-Programmen für amd64 portiert, ich ziehe mir das also nicht aus dem Popo. ;)
 
Ich glaube aber auch, dass es nichts Grundsätzliches ist. Es hängt einfach auch von Anwendungen ab. Wenn man z.B 64Bit Datentyp(bzw. Werte) haben möchte, so muss man 2 x 32Bit nehmen und somit entsteht eine zusätzliche Vermüllung :D 1 x 64Bit ist schon von der Reservierung vorteilhafter(wodurch man z.b auch schneller bei Berechnungen ist) ). Also was ich sagen will, ist, dass je nach Verwendung(Anwendung) ein Vorteil oder Nachteil in Overhead entsteht und es nicht pauschal zu deuten ist.
 
Zuletzt bearbeitet:
Beim Umstieg von 32 auf 64bit braucht man ja eh schon ca. 50% mehr Speicher aufgrund des Overheads ohne dass man hierdurch effektiv mehr Speicher zur Verfügung hätte.
8GB auf deinem 64Bit System entspricht also ca. 5.3GB auf einem 32Bit (auch wenn man dort logischerweise keine 5.3GB ansprechen kann :) )

Huh ??

Was ist das denn für eine Arithmetik, warum soll das denn sein. Zunächst einmal werden nur die Adressen länger. Das würde ja voraussetzen, dass 30 % der Obkjekte Pointer sind, was für ein Programm soll das denn sein.

Der größere Platzbedarf für 64 Bit Systeme kommt zu einem großen Teil aus der größeren PageSize (= die kleinste Einheit an von einem Programm allokierbaren Speicher). Die PageSize ist für 64 Bit Systeme im allgemeinen größer, einfach weil es bei 64 Bit deutlich mehr Seiten zu verwalten gibt.
Zweitens sind die Pointer doppelt so groß, OK das macht vielleicht 5% aus.

Ansonsten gibt es in allen Betrienssystemen die ich kenne, nicht INT, sondern korrekt heißt der Typ signed int8, oder unsigned int32. Richtig ist, dass der Default Typ int = signed int32 entspricht, aber ich kenne keine 64 Bit Betriebssystem-Implementierung, wo das geändert wurde. Warum auch...

Und außerdem nutzen nur Newbies die Default-Implementierung :coolface:
 
Zuletzt bearbeitet:
Huh ??

Was ist das denn für eine Arithmetik, warum soll das denn sein. Zunächst einmal werden nur die Adressen länger. Das würde ja voraussetzen, dass 30 % der Obkjekte Pointer sind, was für ein Programm soll das denn sein.

Der größere Platzbedarf für 64 Bit Systeme kommt zu einem großen Teil aus der größeren PageSize (= die kleinste Einheit an von einem Programm allokierbaren Speicher). Die PageSize ist für 64 Bit Systeme im allgemeinen größer, einfach weil es bei 64 Bit deutlich mehr Seiten zu verwalten gibt.
Zweitens sind die Pointer doppelt so groß, OK das macht vielleicht 5% aus.

Ansonsten gibt es in allen Betrienssystemen die ich kenne, nicht INT, sondern korrekt heißt der Typ signed int8, oder unsigned int32. Richtig ist, dass der Default Typ int = signed int32 entspricht, aber ich kenne keine 64 Bit Betriebssystem-Implementierung, wo das geändert wurde. Warum auch...

Und außerdem nutzen nur Newbies die Default-Implementierung :coolface:
Ich bin mir nicht mehr ganz sicher, weil's auch schon Jahre her ist, aber ich meine, gcc hätte auf amd64 'ne Weile lang tatsächlich bestimmte Datentypen grundlos größer definiert. Was massiv Kopfzerbrechen bereitet hat, aber am Ende zu klarerer Programmierung zwang.
 
Ich bin mir nicht mehr ganz sicher, weil's auch schon Jahre her ist, aber ich meine, gcc hätte auf amd64 'ne Weile lang tatsächlich bestimmte Datentypen grundlos größer definiert. Was massiv Kopfzerbrechen bereitet hat, aber am Ende zu klarerer Programmierung zwang.

Würde mich zwar wundern, aber ich benutze schon viele Jahre nicht mehr die Defaults, sondern immer die Langnamen. Wenn du Programme schreiben willst, die auf mehreren Betriebssystemen arbeiten, spart das einigen Ärger.

Die meisten Probleme mit 64 Bit kommen eigentlich gar nicht von den Datentypen, sondern von den Typecasts, der Klassiker ist ein Typecast nach (void) um Pointer mit unterschiedlichen Typen zu übergeben und schon macht es auf 64 Bit Bumm...
 
Eurogamer: Vigil and an Anonymous Developer comment on final Wii U devkits

Originally Posted by Eurogamer:
Wii U Darksiders 2 graphics "at least as good" as PS3, Xbox 360 versions'
By Wesley Yin-Poole Published 23 May, 2012
Having inventory, map on the controller "will change people's perceptions".

The graphics of the Wii U version of Darksiders 2 are "at least as good" as the PlayStation 3 and Xbox 360 versions', developer Vigil has said.

Game companies and developers are under strict orders not to discuss the Wii U in detail publicly, a directive that has led to speculation about the horsepower of Nintendo's Wi successor. Indeed one report from earlier this year claimed the Wii U was "not as capable" as the PS3 and Xbox 360.

But with final developer kits now with engineers, and Nintendo just two weeks away from unveiling the final version of the hardware at E3, Vigil has insisted Wii U owners will see visual parity when it comes to multiplatform games.

"The visuals will be the same," associate producer Jay Fitzloff told Eurogamer. "It's still a work in progress. But I know, at least as good is the way to say it."


In July last Vigil told Eurogamer it spent just five weeks in the run up to E3 2011 creating a working version of the action adventure game on Wii U. Then, Vigil said the Wii U had "plenty of horsepower", "so we're not going to have to make any visual concessions at all".

At that time developers were working off of second generation Wii U dev kits - early versions of the console - and its horsepower was in flux. Then, game director Marvin Donald said, "If the Wii U turns out to be this ridiculously powerful machine, we will probably make changes to our budget and scope to take advantage of that." This hasn't happened.

"[Getting Darksiders 2 working on Wii U] is not as challenging as you might think," Fitzloff said. "Getting it working was not any issue on the Wii U. It's just the control scheme. It's new territory. It's a new frontier. The Wii, after a while, there's a lot you could have done with the Wii controls, but everybody kind of got into a groove, and it became, here's how you handle this or here's how you handle this. Now it's the wild frontier. There's no set system. You've got to think outside the box because there's no precedence.

"It's not getting the game working on the system. It's getting a cool control system that feels correct. And that's where we're at now."

Vigil was even able to quickly get Darksiders 2 running with the Wii U controller, which can stream gameplay from the console.

"When we first got it up and running, you can have the game download to and run on the pad, and everybody was like, that could take a while, little worried," Fitzloff explained. "It took a programmer two lines of code and five minutes. Working with it is not difficult."

Darksiders 2 will use the Wii U controller in obvious ways - for inventory and map use - but the impact of these "no brainers" on gameplay is, according to Fitzloff, huge.

"Any game would have their inventory on the controller screen," he said. "But even that little simple thing is a big difference because you never have to stop the game on the main screen. That will change people's perceptions because you've never had a game where you didn't have to.

"They take you out [of the experience], whereas this just goes."

He added: "And you're talking about the low hanging fruit. You're talking about the easy stuff. The rest of it is where the challenge comes in. What do we do beyond that that makes it feel natural and integral?"

One developer working on Wii U, who wished to remain anonymous, told Eurogamer Wii U ports will at best look as good as PS3 and Xbox 360 games. However, he indicated gamers will only see its true graphics capabilities with games built from the ground up for Wii U later in its life cycle.

For its part, Nintendo has said its focus with the Wii U is gameplay, not graphics. "We do not focus on technology specs," Nintendo said in March of this year. "We understand that people like to dissect graphics and processing power, but the experience of playing will always be more important than raw numbers."

http://www.neogaf.com/forum/showthread.php?t=475212
 
Klingt schon eher nach Nintendo. :rolleyes:

Na ja, noch ist nichts verloren. Aber wenn Nintendo wirklich die nächsten Jahre mit 3rd Parties zusammenarbeiten möchte, muss die Wii U genug Power haben um die nächsten 6 Jahre zu überstehen. Ich hoffe nicht, dass Nintendo so blöd ist nicht so vorausschauend zu planen. :blushed:
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom