N-Rev - Hardware Spekulationen

  • Thread-Ersteller Thread-Ersteller nighty
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
Master H schrieb:
/ajk schrieb:
flo88 schrieb:
Ist der Prozessor der Xbox nicht deutlich schneller als der des Cubes?
Ich glaube mal gelsen zu haben das der der Xbox 733 Mhz draufhat, der Gekko jedoch nur 485 Mhz? Gut kommt natürlich nicht nur auf die Taktrate an...

Weil man die Taktrate nicht vergleichen kann. Die 485Mhz eines PowerPCs leisten mehr als die 733 eines kastrierten Celeron Prozessors. Im Grunde ist der Prozessor vom Cube ein tick besser als der von der Xbox.


@riptor
Wegen dem Marketing: Die Folge daraus ist, das die dritthersteller nicht an das Produkt "glauben" und nicht dafür produzieren.
Ich denke eben das ist das Problem des Cubes.

Der GCN Prozi is nich nur en Tick schneller, sondern zum das 3 fache (glaub ich).... jedenfalls laut Benchmarks (laut MIPS und GFLOPS). Und bringen tuts dem Cube nicht viel. Das beste beispiel dafür, dass man auch in dieser Gen nicht (!!) auf die GFLOPS der CPU achten soll (!)

@Justy: Guck mal in den GamePlan... Da stehen die Daten

DC (360 MIPS) vs GC (1125 MIPS) vs Xbox (1985 MIPS)

Noch fragen? http://www.segatech.com/technical/consolecompare/

cpu.gif
 
subba.... wir preisen dich alle die xbox is stärker....
na haste deine genugtuung???
machts spaß??
so und jetzt sollte man wieder zum nrev zurückkommen...
 
@ ajk:

"The Xbox does indeed feature a 32-bit CPU; this CPU has actually been the topic of much controversy surrounding the Xbox. Not too long ago, Microsoft was looking for a CPU manufacturer to supply the Xbox with CPUs and of course the top runners were the CPU manufacturers that Microsoft was most friendly to: AMD and Intel. AMD was supposedly offering a K7 derived part while Intel had a Coppermine based solution. Supposedly as a surprise to everyone at AMD, Intel won the bid for the Xbox and was allowed to produce a derivative of the 0.18-micron Coppermine core for the console."

Vllt glaubste uns jetzt. ;)

Thema NRev:

NES -> konnte mit Master System mithalten
SNES -> konnte Mega Drive übertrumpfen (außer bei CPU)
N64 -> konnte Konkurrenz davonfliegen
Cube -> konnte mit Konkurrenz mithalten und PS2 davonziehen
NRev?

Dazu sei gesagt, dass Nintendo es bisher immer verstanden hat, sich mit Top-Hardware-Partnern zusammenzuschließen (ArtX, SG, ATI, IBM,...). Bisher war es immer eine sehr effiziente Hardware und der Fokus lag jedesmal auf der Grafikeinheit, die das wichtigste Technik-Element in der Konsole darstellt. Ich denke, ATI wird die effizienste Möglichkeit Nintendo anbieten, die im NRev verbaut werden kann. CPU-Power wird seit dem Cell IMO überbewertet...
 
Starlord schrieb:
Moses schrieb:
shadowman schrieb:
Moses schrieb:
Stimmt schon. Der Cube hat ja nicht mal Bump Mapping :shakehead: aber es gibt dennoch sehr schöne Titel.

sogar final fantasy cc hat bump mapping...

sag ma wo :o ich hab das Spiel ich hab noch nichts gesehn

Hab sogar ich schon gesagt. ^^
Wenn man in einem Miasma Sturm geht, kommt so eine Blase um den Kelch.
Die ist ge-bump-mapped.

Echt? Ich dachte immer das wäre so ein einfacher WAbbeleffeckt wie auch oft beim Wasser benutzt wird... :suprised:

MfG
 
nightelve schrieb:
ajk : die GPU hat Spiele wie Halo2, Riddick, Doom3, Farcry, Fable, Ninja Gaiden, PDO, Morrowind... usw usf erst auf der Xbox ermöglicht!

Und grafisch sucht man vergeblich seinesgleichen am Cube imo

du findest Morrowind hat ne gute grafik :lol: und ninja gaiden is auch nich so die grafik kanone wenn man sich die weitläufigen areale anschaut is die grafik recht mau imo
 
Link's adventure schrieb:
und ninja gaiden is auch nich so die grafik kanone wenn man sich die weitläufigen areale anschaut is die grafik recht mau imo

Ninja Gaiden sieht durchweg fantastisch aus... Da gibts nix zu meckern.

bin mal gespannt, wieviel GHz der IBM Dual Core haben wird. :)
 
@Moses:
der erste boss hatte auf dem kopf bump mapping
und das beste gab es im pilzwald-level. :)
 
Starlord schrieb:
Moses schrieb:
shadowman schrieb:
Moses schrieb:
Stimmt schon. Der Cube hat ja nicht mal Bump Mapping :shakehead: aber es gibt dennoch sehr schöne Titel.

sogar final fantasy cc hat bump mapping...

sag ma wo :o ich hab das Spiel ich hab noch nichts gesehn

Hab sogar ich schon gesagt. ^^
Wenn man in einem Miasma Sturm geht, kommt so eine Blase um den Kelch.
Die ist ge-bump-mapped.

Bei den größeren Gegnern/Bossen ist es auch sehr schön zu sehn...
 
Also viele GameCube SPiele haben BumpMapping... Die PS2 kan Hardwareseitig kein BumpMapping -> Muss alles manuell geproggt werden. Der GameCube beherrscht die meisten Hardwareseitgigen Effekt (auch mehr wie die Box)
 
Wenn ich mir God of War anschau, dann bin ich schon beeindruckt, was aus einer Non-Bumbmapping-Hardware alles rausgekitzelt werden kann. Schön, wenn die Entwickler sich so viel Mühe gebene wie bei solchen Spielen. Ich denke dabei auch an das grandiose Resident Evil 4... :)
 
Riptor schrieb:
Wenn ich mir God of War anschau, dann bin ich schon beeindruckt, was aus einer Non-Bumbmapping-Hardware alles rausgekitzelt werden kann. Schön, wenn die Entwickler sich so viel Mühe gebene wie bei solchen Spielen. Ich denke dabei auch an das grandiose Resident Evil 4... :)

Eben, wenn man sich genug mühe gibt, dann wirds auch was. Duck z.B. auch bei Nanostray beim Ds. Bei einem Interview haben die Entwickler gesagt, dass sie nur soviel rausholen konnten, weil die Programmierer und Grafiker einfach aus einer Zeit ohne viele Tools kommen und so sehr viel aus einer Hardware herausholen können.
 
ne riptor, ich glaub es nicht :)

Überall steht "celeron" und das schon die ganze Zeit. Egal welchen "Kern" der celeron hat.

Ich dachte das ist schon längst geklärt??

Und justy, diese blödsinnigen Karten sage nix aus. ^^
 
/ajk schrieb:
Und justy, diese blödsinnigen Karten sage nix aus. ^^
die karte nicht... aber der link den er gepostet hatte.

will damit nicht zu einer diskussion anstossen, da die performance reihenfolge nun wirklich schon klar sein sollte und ebenfalls schon x-mal durchdiskutiert wurde.

zudem isses ja hier nicht das thema.
leider gibts aber ja immernoch nix zu dem nrev...
 
/ajk schrieb:
ne riptor, ich glaub es nicht :) Überall steht "celeron" und das schon die ganze Zeit. Egal welchen "Kern" der celeron hat.

Also nochmal für dich, in Häppchen-Form, damit auch der letzte Anti-Xbox-Mensch versteht, was da an Technik drin ist:

Hier der Link:

"The Coppermine core was left with an 8-way set associative L2 cache instead of the 4-way set associative cache of the Celeron. [...] The fact that Intel decided to go with a 128KB version of the Coppermine core indicates that there is a way of disabling half of the L2 cache without modifying the mapping associativity. We fully expect the Xbox's CPUs to be nothing more than Coppermine processors with half of their 256KB L2 cache disabled."

Hier ein Vergleich:
Pentium III (Coppermine):
733 MHz || 8-way L2 Cache || 256KB

Xbox-CPU:
733 MHz || 8-way L2 Cache || 128KB

Celeron (Coppermine):
733 MHz || 4-way L2 Cache || 128KB

Hast du es jetzt vllt verstanden, dass der Celeron vom Pentium abstammt, aber nur über einen 4-way L2 Cache verfügt und der Cache halbiert wurde? Die Xbox-CPU ist ein Copperminde PIII, aber nur mit halb so viel Cache, deshalb liegt er zwischen den beiden CPU, ist damit aber eben kein Celeron... Kann ich doch nix dafür, wenn diverse Seiten/Mags das nicht verstehen (wollen) und immer noch über einen Celeron reden. Wenn du es jetzt nicht verstehst(en willst), bleib halt stur. :rolleyes:

Mal was zur GPU, die ja primär für die Darstellung zuständig sein wird:

- Codename 'Hollywood'
- gefertigt von ATI

So weit, so gut, keine neuen Erkenntnisse. Interessant ist aber, wie eine leistungsfähige GPU in ein 3-DVD-Hüllen schmales Gehäuse rein soll. Zudem sollte die Abwärme nicht zu groß werden und die GPU somit recht stromsparend sein. Mögliche Lösung: Eine 'RV5X0' GPU!



  • ATi RV530
  • 90 oder 110nm bei TSMC, schätzungsweise Richtung 220 Millionen Transistoren
  • DirectX 9.0 Shader Model 3.0
  • basierend auf dem R520-Design, mit höchstwahrscheinlich vier Quads
    16 (?) Pipelines, Varianten mit nur 12 Pipelines durch Deaktivierung möglich
  • 256 Bit DDR Speicherinterface
  • Zielmarkt: mittlerer/oberer Mainstream-Markt (200-300 € Klasse)
  • Launch: September/Oktober 2005

Welche Performance-Marken ATi mit dem RV530 setzen wird können, ist derzeit noch nicht abzusehen, aber zumindestens erscheint ATi mit diesem Chip im Mainstream-Segment für das Ende des Jahres 2005 ziemlich gut aufgestellt - immer gesetzt den Punkt, jener verfügt wirklich über 16 Pipelines und ein 256bittiges Speicherinterface.

Die RV-GPU gibts u.a. bei der R9600 Pro. Unterschiede bzw. Fertigungsweise:

Meist wird ein großer Chip (beim RV350 wars der R300/350 Chip) genommen und z.B. die Bandbreite geschmälert, was Kosten und Abwärme spart. Genau so eine GPU bräuchste der NRev und wenn aufgrund halbierter Pipelines die Füllrate weniger wäre, könnten alle Effekte dargestellt werden und bei der Auflösung will man ja sowieso nur bis 480p gehen und könnte damit technisch ebenso beeindruckende Spiel wie bei der Konkurrenz herausbringen.
Ich kann mir jedenfalls kaum vorstellen, dass ATI einen exklusiv-Chip rausbringt, denn sie werden sich zumindest an vorhandene GPU-Entwicklungen richten. Ob dies eine Anlehnung an die RV530 sein wird oder eher eine weitere RV-GPU des Jahres 2006, kann man natürlich noch nicht absehen. Es spricht aber viel dafür, dass Nintendo nicht versuchen wird, eine High-End-GPU in ihr Gehäuse zu packen, denn damit hätte man ein Konzept-Problem. Lassen wir uns überraschen.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom