PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Ob es von Nvidia oder Intel kommt ist eh egal, entscheidend ist das es sehr wohl realistisch ist das die tablets in der nächsten gen eine ähnliche grafik liefern werden können. Ob das dann nur für zb 2h ohne stromstecker geht ist dann auch nebensächlich.

PS360 sind gute sieben Jahre auf dem Markt, und jetzt erst kommt ARM und IMG in die Bereiche der beiden, da wirst du es nicht so schnell sehen dass PS4 und Bone erreicht werden. Generell entscheidet in der Leistungsklasse verstärkt der Content, und hier sind Studios bei den Verkaufspreisen der Games in App-Shops arg begrenzt. Man tut sich ja trotz guter Leistung der mobilen Chips schon mit der Contentfülle der Konsolenspiele letzter Generation schwer.
 
Das ist nicht einmal ansatzweise vergleichbar.

Die flops zusammen zu rechnen ist auch nicht einmal ansatzweise sinvoll. HSA ist vielleicht im einstelligen prozent bereich der rechenprobleme sinvoll einsetzbar. Selbst amd tut sich schwer da mehr wie zwei drei beispiele zu nennen.

PS360 sind gute sieben Jahre auf dem Markt, und jetzt erst kommt ARM und IMG in die Bereiche der beiden, da wirst du es nicht so schnell sehen dass PS4 und Bone erreicht werden. Generell entscheidet in der Leistungsklasse verstärkt der Content, und hier sind Studios bei den Verkaufspreisen der Games in App-Shops arg begrenzt. Man tut sich ja trotz guter Leistung der mobilen Chips schon mit der Contentfülle der Konsolenspiele letzter Generation schwer.
Tegra 2 ist 2010 erschienen und war langsamer wie die xbox1. Tortzdem kommen sie nächstes jahr in die xbox 360er bereiche. Ihr müßt natürlich die entwicklung beobachten und nicht nur ein produkt. ;)

Der Content entscheidet? Du meinst wohl die Einnahmen der Entwickler, destso mehr einnahmen destso mehr Konkurenz, destso schwieriger ist es sich abzugrenzen, destso eher setzt man auf gute Grafik um sich abzugrenzen. -> Man braucht mehr Leistung.
Denkst du die handys haben jetzt quad cores weil das Telefonieren so rechenaufwendig ist?
 
Tegra 2 ist 2010 erschienen und war langsamer wie die xbox1. Tortzdem kommen sie nächstes jahr in die xbox 360er bereiche. Ihr müßt natürlich die entwicklung beobachten und nicht nur ein produkt. ;)

Vier Jahre später also, so wie die 360 vier Jahre nach der XB kam, danke für die Bestätigung. Und wenn du schon von High-End GPUs im Bereich der Smartphones und Tablets redest, dann nimm den Primus IMG als Beispiel, nicht nVidia :wink3:

Der Content entscheidet? Du meinst wohl die Einnahmen der Entwickler, destso mehr einnahmen destso mehr Konkurenz, destso schwieriger ist es sich abzugrenzen, destso eher setzt man auf gute Grafik um sich abzugrenzen. -> Man braucht mehr Leistung.
Denkst du die handys haben jetzt quad cores weil das Telefonieren so rechenaufwendig ist?

Ne, zum Mail schicken :rolleyes:
Der Content entscheidet für die grafische Qualität und Content kostet. Glaubst du echt ein Publisher nimmt in nächster Zeit zweistelligen Millionenbeträge in die Hand um Ergebnisse von AAA Titeln auf Tablets zu erreichen? Man beißt sich schon an Handheldtiteln die Zähne aus.
 
Vier Jahre später also, so wie die 360 vier Jahre nach der XB kam, danke für die Bestätigung.
Tegra 2 war unter der xbox 1.
Nochmal für dich zum mitschreiben. ;)
Tegra 2 2010: 4.8gflops
Tegra 5 2014: ~200gflops

-> 4 jahre für faktor 40

xbox 1 2001: 21gflops
xbox 360 2006: 240gflops

-> 5 jahre für faktor 12


Glaubst du echt ein Publisher nimmt in nächster Zeit zweistelligen Millionenbeträge in die Hand um Ergebnisse von AAA Titeln auf Tablets zu erreichen?
Ich rede ja nicht von den AAA titeln welche zwei drittel oder mehr schon für Werbung verbraten. Nicht jedes spiel auf der Konsole welches brauchbar ausschaut hat ein zweistelliges millionen budget. :nix:
 
Tegra 2 war unter der xbox 1.
Nochmal für dich zum mitschreiben. ;)
Tegra 2 2010: 4.8gflops
Tegra 5 2014: ~200gflops

-> 4 jahre für faktor 40

xbox 1 2001: 21gflops
xbox 360 2006: 240gflops

-> 5 jahre für faktor 12

1. Sind bei der 360 noch immer vier Jahre ( 2005 ).
2. Solltest erstmal warten bis das Ding draußen ist.
3. Nach dem Gesetz vom abnehmenden Grenzproduktes geht diese Entwicklung im mobilen Sektor auch nicht linear weiter.

Ich rede ja nicht von den AAA titeln welche zwei drittel oder mehr schon für Werbung verbraten. Nicht jedes spiel auf der Konsole welches brauchbar ausschaut hat ein zweistelliges millionen budget. :nix:

Das ändert herzlich wenig, da das Verhältnis auf Tablets zwischen big Budget und low Budget noch stärker im low Bereich liegen wird.
 
1. Sind bei der 360 noch immer vier Jahre ( 2005 ).
2. Solltest erstmal warten bis das Ding draußen ist.
3. Nach dem Gesetz vom abnehmenden Grenzproduktes geht diese Entwicklung im mobilen Sektor auch nicht linear weiter.

Das ändert herzlich wenig, da das Verhältnis auf Tablets zwischen big Budget und low Budget noch stärker im low Bereich liegen wird.
1. 2005 ändert nichts am faktor 12 vs 40.
2. Wir argumentieren ja über die Zukunft, da ist es etwas schwer zu diskutieren wenn man das nicht beachten soll was noch nicht erhältlich aber mit werten angekündigt ist (next gen konsole ;) ).
3. Wir wissen nicht wie es weiter geht, nach dem Trend wäre jedoch faktor 10 in 7 jahren gut machbar.

Viele Konsolen spieler geilen sich auch an einer handvoll AAA exklusives auf. Da muß es reichen wenn die tablets auch eine Handvoll big budget bekommen die gute Grafik haben. :D
 
Die flops zusammen zu rechnen ist auch nicht einmal ansatzweise sinvoll. HSA ist vielleicht im einstelligen prozent bereich der rechenprobleme sinvoll einsetzbar. Selbst amd tut sich schwer da mehr wie zwei drei beispiele zu nennen.
Wie viele "Rechenprobleme" kennst du denn und wie kommst du zu dieser Schlussfolgerung? :ugly:

Übrigens hat AMD nur 2 Beispiele genannt weil so eine Keynote zeitlich begrenzt ist, kannst du das eventuell nachvollziehen? Dir ist glaube ich wirklich nicht bewusst wie kurzsichtig deine Kommentare sind. Ohne HSA kannst du bald überhaupt nichts mehr herstellen was man als kosteneffiziente Lösung bezeichnen könnte, jedenfalls nicht für Heimanwender.
 
Faktor 40 also, dann haben wir in 4 Jahren sicher tablets mit mehrfacher Titan Power und das alles akkubetrieben, sehr schön...
 
1. 2005 ändert nichts am faktor 12 vs 40.
2. Wir argumentieren ja über die Zukunft, da ist es etwas schwer zu diskutieren wenn man das nicht beachten soll was noch nicht erhältlich aber mit werten angekündigt ist (next gen konsole ;) ).
3. Wir wissen nicht wie es weiter geht, nach dem Trend wäre jedoch faktor 10 in 7 jahren gut machbar.

Wie zaubert denn nVidia das Problem der Leistungsaufnahme und Kühlung in Tablets weg, vor denen Ingenieure bei weit größeren Volumen im stationären Bereich haben?
Und überhaupt, in sieben Jahre klopft schon längst die nächste Konsolengeneration an die Tür, da hast du vorhin noch ganz anders gesprochen :wink2:
 
Zuletzt bearbeitet:
Wie viele "Rechenprobleme" kennst du denn und wie kommst du zu dieser Schlussfolgerung? :ugly:

Übrigens hat AMD nur 2 Beispiele genannt weil so eine Keynote zeitlich begrenzt ist, kannst du das eventuell nachvollziehen? Dir ist glaube ich wirklich nicht bewusst wie kurzsichtig deine Kommentare sind. Ohne HSA kannst du bald überhaupt nichts mehr herstellen was man als kosteneffiziente Lösung bezeichnen könnte, jedenfalls nicht für Heimanwender.
Ich komm zu dieser Schlussfolgerung weil man meistens dazu zwei drei beispiele hört und dann gesagt wird das die Entwickler da sicher noch super weitere ideen haben werden (weil einem selbst nichts mehr einfällt ;) ).
Ausserdem komme ich dazu weil die Grafikkarte interne caches hat und der weg zum ram sehr weit ist um sachen auszutauschen.
Sie haben da die angeblich super neue technologie und bringen es nicht zustande mehr wie zwei drei randprobleme zu nennen. Für mich schaut das ganze einfach wie das cell gehype aus was vor einigen jahren auch das große ding sein sollte weil es ja in den konsolen war. Alle paar jahre das selbe gehype um nichts. :ugly:
 
Ich verrate dir jetzt mal nen Geheimnis:

Es ist immer, absolut immer billiger und einfacher wenn man nicht so sehr auf die Größe, Wärmeentwicklung bzw. Kühlung und den Stromverbrauch achten muss.
Und genau deshalb wird stationäre Hardware immer deutlich Leistungsfähiger als mobile sein und das noch zu einem deutlich günstigeren Preis.
 
Wie zaubert denn nVidia das Problem der Leistungsaufnahme und Kühlung in Tablets weg, vor denen Ingenieure bei weit größeren Volumen im stationären Bereich haben?
Über die jahre gibt es shrinking und höhere leistung trotz gleichem leistungsverbrauch. Schau dir einmal an was intel mit silvermont macht. Das ist eine normale Entwicklung. Nur die Konsolen stehen still. ;)
 
Über die jahre gibt es shrinking und höhere leistung trotz gleichem leistungsverbrauch. Schau dir einmal an was intel mit silvermont macht. Das ist eine normale Entwicklung.

nVidia ist aber nicht auf Intelniveau. Aktuell bist du bei nVidia in 28nm für ~2TF bei >100Watt, da fehlt noch einiges um auf ein Niveau für Tablets zu schrumpfen.
Und deine sieben Jahre für die Leistung der nächsten Konsolen sind schonmal ganz andere Worte als zu Anfang :wink2:
 
nVidia ist aber nicht auf Intelniveau. Aktuell bist du bei nVidia in 28nm für ~2TF bei >100Watt, da fehlt noch einiges um auf ein Niveau für Tablets zu schrumpfen.
Und deine sieben Jahre für die Leistung der nächsten Konsolen sind schonmal ganz andere Worte als zu Anfang :wink2:

Wiso andere worte? Ich habe von ähnlicher grafik geredet in der nächsten gen. Ich gehe davon aus das die gen 7-8 jahre hält.

Zum einen braucht es nicht 2TF da die xbox 1.2 hat und für ähnliche grafik braucht es auch nicht exakt 1.2TF, da erkennt man auf zb 10" eher weniger wie auf dem Fernseher.

Eine 500gflops notebook grafikkarte bekommt man heute zb schon mit 30 watt tdp von nvidia (645m). Wiso soll da in ein paar jahren nicht mehr leistung für weniger watt möglich sein? Notfalls geht dann halt die top grafik nur länger wie 1-2h wenn man den strom angesteckt läst.
Sehe das Problem nicht. :nix:
 
Ich komm zu dieser Schlussfolgerung weil man meistens dazu zwei drei beispiele hört und dann gesagt wird das die Entwickler da sicher noch super weitere ideen haben werden (weil einem selbst nichts mehr einfällt ;) ).
Ausserdem komme ich dazu weil die Grafikkarte interne caches hat und der weg zum ram sehr weit ist um sachen auszutauschen.
Sie haben da die angeblich super neue technologie und bringen es nicht zustande mehr wie zwei drei randprobleme zu nennen. Für mich schaut das ganze einfach wie das cell gehype aus was vor einigen jahren auch das große ding sein sollte weil es ja in den konsolen war. Alle paar jahre das selbe gehype um nichts. :ugly:
"Man hört" impliziert aber schon, dass du dich darüber nur passiv informierst. Selbstverständlich erwarte ich von niemandem AMDs Marketing blind Glauben zu schenken aber das ist eben keine Thema für die Gamestar oder consolewars. Wenn du solche Informationen willst brauchst du wissenschaftliche Literatur.

Es gibt eine Menge Anwendungen, bei denen Kommunikation, Latenz, dynamisches load-balancing, cross-thread communication, branching- und exception-handling einer HSA deutliche Vorteile bringen. Eine HSA eröffnet einfach wesentlich mehr Möglichkeiten Code zu parallelisieren. Du erwartest doch nicht ernsthaft, dass AMD eine Marketingkampagne startet um dir die Vorzüge ihrere Prozessoren bei Supervised Semantic Indexing oder Conjugate Gradients zu erklären? Den Kunden interessiert das doch nicht.

Es gibt nebenbei auch viele Vorteile bei der Fertigung eines SoCs gegenüber einzelnen Komponenten, welche man anschließend aufwändig zusammenfügen muss. Beispielsweise die Tatsache, dass Interfaces immer mehr Geld kosten weil sie nicht mit Moore's Law skalieren oder die Möglichkeit einzelne Teile des Chips mit unterschiedlichen aber optimierten Fertigungsverfahren herzustellen.
 
"Man hört" impliziert aber schon, dass du dich darüber nur passiv informierst. Selbstverständlich erwarte ich von niemandem AMDs Marketing blind Glauben zu schenken aber das ist eben keine Thema für die Gamestar oder consolewars. Wenn du solche Informationen willst brauchst du wissenschaftliche Literatur.

Es gibt eine Menge Anwendungen, bei denen Kommunikation, Latenz, dynamisches load-balancing, cross-thread communication, branching- und exception-handling einer HSA deutliche Vorteile bringen. Eine HSA eröffnet einfach wesentlich mehr Möglichkeiten Code zu parallelisieren. Du erwartest doch nicht ernsthaft, dass AMD eine Marketingkampagne startet um dir die Vorzüge ihrere Prozessoren bei Supervised Semantic Indexing oder Conjugate Gradients zu erklären? Den Kunden interessiert das doch nicht.

Es gibt nebenbei auch viele Vorteile bei der Fertigung eines SoCs gegenüber einzelnen Komponenten, welche man anschließend aufwändig zusammenfügen muss. Beispielsweise die Tatsache, dass Interfaces immer mehr Geld kosten weil sie nicht mit Moore's Law skalieren oder die Möglichkeit einzelne Teile des Chips mit unterschiedlichen aber optimierten Fertigungsverfahren herzustellen.
Ja ich informiere mich nur passiv bezüglich hsa. Ich kenne ein bischen cuda von früher und dort wurde einem als entwickler ziemlich klar vermittelt das man Speicherzugriffe (gpu speicher) wie die pest vermeiden soll da Zugriffe für die gpu eine ewigkeit (nach rechen takten) dauern. Auf den gpu speicher greift man möglichst nur zu wenn man wirklich neue daten benötigt oder die daten einfach zu groß sind. Arbeiten sollte man immer wenn möglich auf den internen speichern welche nächer am gpu kern und um einiges schneller sind. Und jetzt kommt amd und sagt arbeiten auf dem speicher ist super. :ugly:

Die sache ist natürlich um einiges komplexer bezüglich laden von daten während die gpu andere sachen berechnet, berechnungen wo die cpu nichts zu tun hat, spezial probleme welche die gpu nur schlecht brechnen kann und ähnliches. Aber prinzipiel glaube ich amd nicht das es das nächste große ding ist wenn es um leistung geht solange sie keine stichfesten Daten dazu zeigen.
Das es für sparsame systeme die billig sein sollen super ist glaube ich aber gleich.
 
Wiso andere worte? Ich habe von ähnlicher grafik geredet in der nächsten gen. Ich gehe davon aus das die gen 7-8 jahre hält.

Welchen Schwanz juckt es dann noch?

Zum einen braucht es nicht 2TF da die xbox 1.2 hat und für ähnliche grafik braucht es auch nicht exakt 1.2TF, da erkennt man auf zb 10" eher weniger wie auf dem Fernseher.

Allein mit der GPU Leistung hast du noch nicht die Bandbreite, die benötigst du aber um die grafische Qualität der heute bandbreitenintensiven Spiele zu erreichen.
Und ich erkenne durchaus ob ein Spielt einfach nur PS2/XB Grafik in scharfer Optik hat, oder technisch wirklich beeindruckend ist, deswegen macht auch bisher kein Tablet/Smartphonegame einen Stich gegen Uncharted GA oder Wipeout 2048.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom