Next-Gen-Konsolen und ihre Technik dahinter - Teil 2

  • Thread-Ersteller Thread-Ersteller Calvin
  • Erstellungsdatum Erstellungsdatum
Status
Nicht offen für weitere Antworten.
AMD-Roadmap_1.jpg

Eine offizielle AMD Roadmap würde ich nicht gerade als Indikator für Leistungsvergleiche nehmen. :kruemel:
Es gibt genug Test und Benchmarks wo die GTX 680 fast immer schneller ist. Es gibt hier und da ein paar Ausreisser, aber diese kommen meistens durch den grösseren VRAM der HD 7970 oder durch AMD optimierte Spiele zu Stande.
 
Eine offizielle AMD Roadmap würde ich nicht gerade als Indikator für Leistungsvergleiche nehmen. :kruemel:
Es gibt genug Test und Benchmarks wo die GTX 680 fast immer schneller ist. Es gibt hier und da ein paar Ausreisser, aber diese kommen meistens durch den grösseren VRAM der HD 7970 oder durch AMD optimierte Spiele zu Stande.

Aktuell von Dez. 2012 bzw. Feb. 2013

PCGH-Grafikkarten-Leistungsindex.inkl.-7870-Boost_20121221102656.png


Und hier nochmal die Quelle: http://www.pcgameshardware.de/Grafi...-Tests-Bestenliste-Radeon-und-Geforce-678322/
 
Zuletzt bearbeitet:
LOL. Seit wann gibt es eine "neue" HD 7970???
Ohne Witz, ich habe gerade erst von dieser GHZ Edition erfahren. Meine Vergleiche bezogen sich auf die normale HD 7970.
Aber das ist imo keine wirkliche Kunst. Mit bruteforce den Takt und Stromverbrauch anheben ist die Holzhammermethode. Die bessere Architektur hat trotzdem immernoch Nvidia.
 
LOL. Seit wann gibt es eine "neue" HD 7970???
Ohne Witz, ich habe gerade erst von dieser GHZ Edition erfahren. Meine Vergleiche bezogen sich auf die normale HD 7970.
Aber das ist imo keine wirkliche Kunst. Mit bruteforce den Takt und Stromverbrauch anheben ist die Holzhammermethode. Die bessere Architektur hat trotzdem immernoch Nvidia.

2013 Januar(andere Quelle) mit der normalen 7970.


http://ht4u.net/reviews/2013/50_directx_11_grafikkarten_im_test/index31.php

Ich glaube, dass du die neue Treiber Optimierung bei AMD verpasst hast. Seit dem die Treiber halbwegs optimiert wurden, rennen die Karten schon effizienter.

Die Ghz Edition ist keine Spezielle Karte sondern halt die Chips von späteren Produktion, welche weniger Strom Verbrauchen im Vergleich zu den normalen 7970 bei gleichem Takt und da die 7970 ausläuft ist die Ghz die Standardkarte mittlerweile. Und da die ganzen alten AMD-Karten extrem untergetaktet liefen, laufen sie jetzt mit normalen Takt. Die GCN-Architektur war für AMD der richtige Schritt, da gibts nicht zu deuten. (für mich sind die Karten(7970) zwar nichts, da sie mir zu groß sind aber schlecht sind sie wie du sie hier darstellst auf keinem Fall)
 
Danke für die Aufklärung. Stimmt, ich sollte mich wohl wieder etwas mehr über die AMD Karten und Treiber informieren. Habe mich nur über Titan informiert, weil ich überlege ob ich meine 2 GTX670s verkaufen und mir die Titan holen soll. Aber sehr gut, dass AMD doch wieder gut zu Nvidia aufschliessen konnte. Sah anfangs noch ganz anders aus.
 
Danke für die Aufklärung. Stimmt, ich sollte mich wohl wieder etwas mehr über die AMD Karten und Treiber informieren. Habe mich nur über Titan informiert, weil ich überlege ob ich meine 2 GTX670s verkaufen und mir die Titan holen soll. Aber sehr gut, dass AMD doch wieder gut zu Nvidia aufschliessen konnte. Sah anfangs noch ganz anders aus.

Titan ist ein Monster, wenn die Karte so kommen sollte wie vermutet. Mir würde eigentlich eine 680 mit 2048Alus ausreíchen. Sprich, 1/4 mehr Leistung im Vergleich zu 680, da ich dem GPGPU-Kram von Titan nicht brauche. Aber da jetzt alle Karten bis auf Titan später kommen, muss ich halt mal schauen. Denn durch den GPGPU-Kram wird sie halt auch etwas mehr Schlucken^^
 
Zuletzt bearbeitet:
AMD muss umdenken. Sie können nicht mehr mit Intel oder NVIDIA konkurrieren.
Einer GeForce Titan kann AMD nichts entgegensetzen. Und kommt bloss nicht mit ner HD 7990. Crossfire ist der grösste Müll überhaupt. Ist sogar dilletantisch, im Vergleich zu SLI.
AMD weiss, dass sie eine Generation hinter Nvidia hängen. Sie wissen genau, wie stark Titan ist und dass ihre HD 8970 von dieser komplett zerstört wird. Daher müssen sie wohl wieder an den Entwicklungstisch, um nicht komplett ins Hintertreffen zu geraten und nie wieder aufschliessen zu können. Bei den CPUs ist das schon vor Jahren geschehen.

Der Titanchip ist mit 7,1Mrd Transistoren und einer Die Fläche von 550mm^2 auch um 50% größer und damit rein rechnerisch um 125% teurer als der dickste AMD Chip.
Ist also keine Kunst, hier stärker zu sein.
Deshalb kostet das Teil auch 900 Dollar, nicht weil AMD nicht nachziehen kann, sondern weil die Ausbeute so gering ist.
 
@Konsolenbaby

Verstehst du, warum kein Konsolenhersteller auf Nvidia setzte?

Ganz ehrlich, ich nicht.

Bei der Leistung pro Watt sind sie State of the Art, naja was solls zu teuer, glaub ich ehrlich gesagt weniger, aber wer weiss. ;-)

Wär ich Konsolenhersteller-Chef, wissend das Nvidia derzeit den Ton angibt, und das seit ca. 2-3Jahren, ich hätts getan, und das best mögliche für Konsolen bekommen. ;-)
 
Zuletzt bearbeitet:
@Konsolenbaby

Verstehst du, warum kein Konsolenhersteller auf Nvidia setzte?

Ganz ehrlich, ich nicht.

Bei der Leistung pro Watt sind sie State of the Art, naja was solls zu teuer, glaub ich ehrlich gesagt weniger, aber wer weiss. ;-)

Weil Nvidia wohl ein miserabler partner sein soll, sehr unflexibel etc zb wenn man ne revision machen will, dann darf man warten bis nvidia lust dazu hat
 
Weisst dus, oder glaubst dus zu wissen, das ist hier die Frage? ;-)

Ich hörte im Wald da steht ein Hexenhaus, und die Alte frisst Kinder, frisch gebacken, bevorzugt Bruder und Schwester.

Hey Gretel, nimm Hensel mit und geh mal gucken, obs stimmt. :lol:

Hab auch nen Erlebnisbericht dabei:

http://www.youtube.com/watch?v=-yfT-TdtKwc
 
Zuletzt bearbeitet:
Weisst dus, oder glaubst dus zu wissen, das ist hier die Frage? ;-)

Ich hörte im Wald da steht ein Hexenhaus, und die Alte frisst Kinder, frisch gebacken, bevorzugt Bruder und Schwester.

MS und nVidia sind bei ihrer Partnerschaft vor Gericht gelandet, da nVidia die Kostensenkungen durch feinere Fertigung nicht an MS weitergegeben hat. Durch diese gemeinsam Vergangenheit hat MS schonmal gar keinen Bock auf nVidia und ist mit AMD klasse gefahren. Nach Schätzungen war RSX für Sony nach dem Bluray Laufwerk die teuerste Komponente, 50% mehr als Cell, und es ist nicht bekannt was Sony abdrücken musste um die Rechte an den Chip zu bekommen um ihn selbst fertigen zu dürfen. Einige Zeit vor der Veröffentlichung des 3DS galt es auch eigentlich als trockendes Tuch, dass Nintendo Tegra nutzen wird, soll hinter den Kulissen aber geknallt haben.
Sony ist nun auch wieder von nVidia weg.
Ende der Geschichte, nVidia scheint hier der Miesepeter zu sein :-P
 
@squallsdestiny

Achso, nicht etwas der Cell und die Bluray-Dioden warn das Problem, sondern Nvidia, mit dem RSX?

Mmh ich hatte da andere in Verdacht, wie etwa das Cell-Konsortium, das einen auf Cell basierten Grafikchip bei NEC entwickeln wollte, und nicht rechtzeitig fertig wurde, deshalb hatt man Nvidia im letzten Moment engagiert, um die Kohlen aus dem Feurer zu holen, aber so sind sie, die Haluzinationen. :lol:
 
Zuletzt bearbeitet:
@squallsdestiny

Achso, nicht etwas der Cell und die Bluray-Dioden warn das Problem, sondern Nvidia, mit dem RSX?

Mmh ich hatte da andere in Verdacht, wie etwa das Cell-Konsortium, das einen auf Cell basierten Grafikchip bei NEC entwickeln wollte, und nicht rechtzeitig fertig wurde, deshalb hatt man Nvidia im letzten Moment engagiert, um die Kohlen aus dem Feurer zu holen, aber so sind sie, die Haluzinationen. :lol:

Cell als alleinige Grafiklösung wurde eingestampft, weil es schlicht nicht praktikabel war, fertig hin oder her, das wäre in einen Desaster geendet. Der RSX war natürlich nicht der Hauptgrund, aber definitiv ein Mitübeltäter, und war wie geschrieben nach Schätzungen nach dem Bluray Laufwerk die teuerste Komponente. Mit der enttäuschenden Leistung noch schlimmer.
Aber aber, nVidia.
 
Bezüglich der Titan. Gibt böse Zungen die behaupten, dass Nvidia quasi ihre gesamte Produktpalette eine Stufe im Preis erhöht hat. Sprich, die eigentlichen Highend-Chips der x80 Karten werden ab sofort als Titan XY bezeichnet und dementsprechend im knapp vierstelligen $/€ Bereich verkauft werden. Die Midrangechips der ursprünglichen x60 Reihe sollen in die x80 Stufe gesetzt worden sein. Sprich, 200-250$ Karten werden zu 450-500$ Karten und so weiter. Titan soll unter anderem auch Nvidias neue Singleflagschiff-Reihe sein, weil die Dualkarten (x90) nicht mehr mit den schnellsten Chips machbar/kühlbar sind. Deswegen werden die ursprünglichen x60 Midrangechips für die x90 Karten verwendet. Ein verdammt raffinierter Schachzug. Muss man zugeben.
 
Zuletzt bearbeitet:
@player one

Ähm ich bin nicht der Held vom Zirkuszelt, aber ich lerne sehr schnell, und belese mich, ergo attestiere ich dir bezüglich Titan und Nvidia eingeschränktes Wissen.
aha und jeden seine beiträge mit einem :lol: ;-) macht die aussagen besser?
egal

wie konsolenbaby schon schreibt großer chip kleine ausbeute = teurer preis

zudem deine quelle was die leistungnvidia/amd angeht veraltet ist(March 17th, 2012) und die sache mit der überkarte(titan) war scheinbar auch fake (3d mark aus china)
mittlerweile geht man schon davon aus das die karte nur 30%-40% schneller ist als ne hd7970
was kostet ne 7970ghz 370$? da würde ne 40% schnellere karte die 900$ kostet sicher die konkurenz sein :neutral:

naja das die gpu entwicklung nen jahr pause macht finde ich ok
könnte im schlimsten fall für den kunden bedeuten das man nicht do schnell aufrüsten braucht oder im besten fall das es bei der richtigen neuen generation mal wieder nen sprung gibt aller gf2 --> 3
mir recht warte eh auf ddr4 system um auf zu rüsten
 
@Konsolenbaby

Verstehst du, warum kein Konsolenhersteller auf Nvidia setzte?

Ganz ehrlich, ich nicht.

Bei der Leistung pro Watt sind sie State of the Art, naja was solls zu teuer, glaub ich ehrlich gesagt weniger, aber wer weiss. ;-)

Wär ich Konsolenhersteller-Chef, wissend das Nvidia derzeit den Ton angibt, und das seit ca. 2-3Jahren, ich hätts getan, und das best mögliche für Konsolen bekommen. ;-)

Wurde ja hier schon besprochen.
Nvidia scheint für Konsolenhersteller ein schlechter Geschäftspartner zu sein.

Ich denke aber auch, dass sich die Unterschiede der Chips hauptsächlich im PC Bereich bemerkbar machen.
Dort gibts keine festen Vorgaben, was die GPU nun genau leisten soll. Hauptsächlich gehts wohl darum, in Benchmarks besser abzuschneiden als die Konkurrenz. Dazu spielen hier auch die Treiber eine große Rolle, die hier viel ausmachen.
Bei den aktuellen Modellen von AMD und Nvidia hat Nvidia ja z.B. die GPGPU Fähigkeit drastisch zurück gefahren umd in der normalen Grafikperformance mehr Leistung zu erreichen. Bei GPGPU liegt die HD 7970 bis zu Faktor vier vor der 680.
Nvidia kocht also auch nur mit Wasser.

Beides hat man im Konsolensektor aber nicht.
Bei einer Konsolen GPU gehts nicht darum, bei irgend welchen Benchmarks in Führung zu liegen. Dort will man die GPU optimal an das Gesamtsystem anpassen. Weiterhin sind auch Treiber hier kein Thema.
Deshalb denke ich nicht, dass hier Nivida bessere Ergebnisse erzielen würde als AMD.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom