Nvidia's HighEnd-GPU G100 - angebliche Specs

  • Thread-Ersteller Thread-Ersteller Taddl
  • Erstellungsdatum Erstellungsdatum

Taddl

L16: Sensei
Thread-Ersteller
Seit
13 Feb 2004
Beiträge
10.701
Im Forum von VR-Zone sind erste, wie immer angeblich „echte Spezifikationen“ zum G100, dem Next-Generation-Grafikchip von Nvidia, aufgetaucht. Jene klingen jedoch so unrealistisch und übertrieben, dass sie eher zu einem G200 passen dürften.

Neben den überaus hohen Taktraten und der Verwendung von GDDR5-Speicher soll auch ein Fertigungsprozess mit 65 nm zum Einsatz kommen. Deshalb klingen die weiteren Daten basierend auf dem Herstellungsprozess noch weitaus unrealistischer, wenn man unter anderem betrachtet, dass bereits der G92 im gleichen Herstellungsprozess bereits über 750 Millionen Transistoren sein Eigen nennt. Eine Erhöhung dieser Anzahl der Transistoren für die neuen Features, die zweifelsohne nötig sein dürfte, bei einer gleichzeitig um bis zu 25 Prozent gesenkten TDP gegenüber der GeForce 8800 GTS dürfte auch angesichts des Chiptaktes von 780 MHz und dem Einsatz von 2.048 MB GDDR5-Speicher kaum möglich sein. Zwar wird GDDR5 weniger stromhungrig als seine Vorgänger sein, jedoch macht die Menge von 2 Gigabyte diesen Vorteil wohl wieder zu Nichte.

Die weiteren Daten klingen ebenso abenteuerlich, liegen aber wenigstens im Bereich des möglichen. Die auf 256 erhöhte Anzahl an Stream-Prozessoren (Shader-Einheiten) stellt zwar eine Verdoppelung der aktuellen Bestände dar, dürften für ein neues Flaggschiff aber nicht unmöglich sein. Dass das Speicherinterface wieder auf 512 Bit verbreitert wird, ist abzusehen, da man bereits bei den heutigen Karten die Probleme eines zu kleinen Speicherinterface zu spüren bekommt. Mit einer derartigen Ausstattung und Menge an Grafikspeicher wirken aber selbst die 512 Bit vergleichsweise unterdimensioniert. Die Speicherbandbreite, die sich aus dem angeblichen Speichertakt und dem Interface ergibt, ist mit knappen 205.000 MB/s schier unglaublich hoch.

Alle weiteren Daten, die bisher als Gerücht vermeldet wurden, haben wir wie folgt aufgelistet. Betrachtet man alleine den GDDR5-Speicher, der gerade als erstes Testmuster von einem großen Hersteller bereitsteht, dürfte ein Erscheinen einer Grafikkarte mit den genannten Spezifikationen in sehr ferner Zukunft liegen. Und bis dahin ändern sich bekanntlich ja noch einige Merkmale, so dass man diese Spezifikationen wohl als letztes großes Gerücht des Jahres 2007 abhaken kann.

* Codename: G100
* Herstellung in 65 nm
* 256 Stream-Prozessoren
* 780 MHz Chiptakt
* 3.200 MHz Speichertakt
* 512 Bit Speicherinterface
* 2.048 MB (256X8 ) GDDR5 (0.25-0.5 ns)
* Dual DVI
* Unterstützung für DirectX 10.1, VP3
* 15–25 Prozent geringere TDP als GeForce 8800 GTS
http://www.computerbase.de/news/har...ezember/angebliche_spezifikationen_g100_g200/


holy f*ck! :o Dies scheint leider wirklich ziemlich abenteuerlich zu sein, da es durch die 2GB VRAM und doppelter Shader-Anzahl gegenüber den 8800-HighEnd-Modellen ein Transistorenmonster ohne Gleichen wäre bei "nur" 65nm Fertigungsprozess. Und ein 512 Bit SI wäre da noch zu wenig. Als Faustregel gilt doch immer genauso oder halb so viel Bit an SI wie MB an RAM vorhanden sind, oder nicht? Also hier müssten es dann schon satte 1024 Bit dieses extrem teuren Speichers sein.

Nun ja, die Daten oben sind leider sehr spekulativ und ebenso unwahrscheinlich (vielleicht bei der darauffolgenden Gen). Hab aber trotzdem mal einen Thread dafür erstellt, weil diese Specs einfach zu lecker sind. *habenwill* :lick: :-D Der G100 wird auf jeden Fall im Auge behalten. Wird auch höchste Eisenbahn, dass mal jemand die über ein Jahr alte 8800 Ultra vom Leistungsthron stößt. Die für Februar erwartete 9800 GX2 scheint mir wie schon die 7950GX2 wieder zu ineffizient zu werden...
 
Hört sich schon cool an... nur gibt´s (abgesehen von Crysis) auch Spiele, die davon profitieren? :-?
 
Hört sich schon cool an... nur gibt´s (abgesehen von Crysis) auch Spiele, die davon profitieren? :-?
Mehr Leistung kann man immer gebrauchen. Bei einer Auflösung von 1920x1200 und vollem AA/AF sind die heutigen High-End Karten schon bei vielen Spielen zu langsam.
 
Hört sich schon cool an... nur gibt´s (abgesehen von Crysis) auch Spiele, die davon profitieren? :-?
Eigentlich nicht. Vielleicht solche Hardwarefresser wie World in Conflict im DX10-Mode oder Anno 1701, wobei es bei diesen Games eh nicht so sehr um hohe zweistellige fps-Bereiche geht. ;)

Aber ist doch immer so, dass erst die Hardware verfügbar und ausreichend verbreitet sein muss, damit die Softwareindustrie nachzieht. Wenn leistungsmäßig sowas wie die 8800GT als Standard betrachtet werden kann (dauert sicher noch 'ne ganze Weile), dann bekommen auch die Spiele grafisch wieder einen ordentlichen Schub - sofern sie nicht durch die Konsolen als Leadplattformen zu sehr ausgebremst werden. :cry:
 
aber, da frag ich mich jetzt etwas :

Lohnt es sich überhaupt so eine Grafikkarte

1)rauszubringen und
2)zu kaufen?

Keine Ahnung, aber die PC Gamingindustrie...ist ja eher am absteigenden Ast, oder?
 
aber, da frag ich mich jetzt etwas :

Lohnt es sich überhaupt so eine Grafikkarte

1)rauszubringen und
2)zu kaufen?

Keine Ahnung, aber die PC Gamingindustrie...ist ja eher am absteigenden Ast, oder?
Also, speziell *diese* Grafikkarte zu kaufen eher nicht. Sie fungiert im absoluten HighEnd-Bereich mehr als Prestige-Objekt für Nvidia, die sich nur die absoluten Benchmark-Freaks zulegen, denen sowas auch entsprechend viel Kleingeld wert ist. Raten würde ich dir eher auf eine "Unteres-HighEnd-Segment"-Karte zu warten, welche bisschen später erscheinen und ein bedeutend besseres Preisleistungsverhältnis bieten sollte. So eine Karte dürfte ebenfalls genug Saft für die kommenden Spiele in höchsten Einstellung und guter Bildqualität übrig haben (es sei denn du willst in astronomischen Auflösung wie 2560x1600 spielen ;)).

Vielleicht sowas wie eine 9800GT, falls sie der gleiche Preisleistungshammer wie die 8800GT wird. :)
 
Mit crysis ist es wie mit far Cry und Fear. Die richtige Hardware kommt erst ca. ein halbes bs ein ganzes Jahr später fü das Spiel raus.
 
hmmm...nächstes Jahr brauch ich ein neuen PC. Soll sie dann bitte mal erscheinen :P


Du willst 700 euro für ne GRAFIKKARTE ausgeben? hallo? Für 700 Euro bau ich mir nen ganzen Gaming PC!

Ok meiner wird ca. 900-1000 Euro kosten, weil ich etwas anspruchsvoller bin, aber 700 euro für eine Grafikkarte? So irre bin ich noch nicht...

Zu den Specs: Alles fake, da träumt mal wieder nen Nvidia Fanboy feucht :shakehead:

Könnte mir aber auch egal sein, ich interessiere mich da eher für die Preis Leistungsklasse im Bereich bis 300 Euro und ich hab das Gefühl, dass die Radeon HD 3870X2 da ordentlich punkten wird in nem halben jahr ca.
 
Zuletzt bearbeitet:
Vorausgesetzt, die erscheint dann... rechne mal lieber noch ein halbes Jahr drauf ;)
 
Wieso ist die Speicherbandbreite unglaublich hoch?
Schon die PS2 hat eine Speicheranbindung mit 48 GB/s. (Zwar andere Technik, aber von den Zahlen her dann nichts mehr besonderes...)
 
Wieso ist die Speicherbandbreite unglaublich hoch?
Schon die PS2 hat eine Speicheranbindung mit 48 GB/s. (Zwar andere Technik, aber von den Zahlen her dann nichts mehr besonderes...)
Eine Geforce 8800GTX hat 86GB/sec und damit würde der G100 die Speicherbandbreite eben mal um den Faktor ~2,5 steigern. Der Vergleich mit der PS2 ist sinnlos, da sie erstens eine vollkommen andere Architektur hat und zweitens diese Bandbreiten auch zwingend braucht. Die X360 hat bloß 22,4GB/sec welche sie auch noch mit der CPU teilen muss. Die Tatsache, dass man diesen Bus aufgrund der Verbindung zum Daughter-Die etwas entlasten kann bringt da auch nicht viel. Unglaublich hoch trifft es daher recht gut.
 
hm, irgendwie haben mich solche brachialen zahlen in jüngeren jahren mehr beeindruckt.

mal ehrlich:

welche spiele für den pc sind angekündigt, die sowas brauchen?

welche kommen in den nächsten jahren raus?

fühlt sich durch sowas nicht jeder pc-käufer verarscht?

habe lange genug in den pc eingesteckt und gehypet. im endeffekt ist man der dumme, wenn man solche luxusobjekte kauft. lieber auf die midrange warten, dann noch etwas gras drüber wachsen lassen bis die software nachzieht und erst dann kaufen.
 
Was auch noch nicht angesprochen wurde ist die Leistungsaufnahme. Auch wenn diese unglaublich seriöse Quelle eine TDP unter 8800GTS-Niveau angibt muss man kein Prophet sein um vorherzusehen, dass es sich hier nur um Wunschdenken handeln kann.

Die Entwicklung der letzten 3 Jahre im GPU-Sektor spricht eine deutliche Sprache, skaliert wird über die Anzahl der Recheneinheiten und über den Takt. Viel mehr an Effizienz ist aus den Karten wohl nicht mehr herauszuholen. Die Fertigung hält allerdings nicht annähernd mit den gewünschten Performanceverbesserungen Schritt.

PCI-Express 2.0 spezifiziert jetzt schon eine maximale Leistungsaufnahme von 300 Watt. Während das anfangs noch als "Sicherheitsfeature" abgetan wurde um sich im Notfall Luft nach oben freizuhalten (im Endeffekt ist diese Angabe sowieso nicht bindend) wird jetzt immer klarer, dass ATI und Nvidia tatsächlich vorhaben GPUs mit etwa 250 Watt Leistungsaufnahme auf den Markt zu bringen.

Der Einwand, dass man die Power nicht braucht kann ich da auch nur vollkommen unterstreichen. Außer Crysis gibt es kein Spiel bei dem ein derartiger Hardwarehunger vertretbar wäre. Mittelfristig wird wohl auch keines erscheinen. Irgendwo muss dieser Grafikwahn ja auch mal aufhören. Der Industrie tut es sicher nicht schlecht sich zunächst mal um wichtigere Aspekte zu kümmern.
 
250 Watt nur für die Grafikkarte...man, die GraKa Hersteller müssen die Umwelt echt hassen. Das ist mehr verbrauch als die PS3 und Xbox360 als Gesamtsystem unter Volllast konsumieren, und die sind wahrlich keine Effizienzmonster.
 
@NewLife:
Dein Avatar erinnert mich an

anders.gif
 
Tja..ob das stimmt ist eine andere Frage aber genau wegen diesen "neuen" High-End Chip muss ich auf eine Übergangslösung finden(!)
ATi ist mit dem R700 auch schon durch und soll im April/Mai kommen^^
 
Hier eine Tabelle zu dem Stromverbrauch von High End Grafikkarten, Ist echt unglaublich.

Was ist daran unglaublich? Da wird nicht der Verbrauch der Graka alleine sondern der des gesamten PCs gerechnet(da drinnen ist ne quadcore cpu am werken)!

http://www.computerbase.de/artikel/...on_hd_3870_x2/28/#abschnitt_leistungsaufnahme

hier etwas aktueller. AMD machts eigentlich ziemlich gut vor wie es werden wird. Im Idle ist die Radeon 3870X2 genügsam wie eine midrange karte und das ist immerhin ne dual GPU Lösung! Im Betrieb unter last schnellt der Wert zu einem neuen Rekordwert hoch. Dennoch: Für ne dual GPU lösung ist das recht gering(und es ist immerhin die schnellste Karte am Markt derzeit!). Die neuen Karten werden wieder auf Single GPUs aufbauen und kleinere Fertigungsprozesse haben, ich zweifle daran, dass die Leistungsaufnahme arg nach oben schnellen wird.
 
Zurück
Top Bottom