Konsolenbaby
L14: Freak
- Seit
- 9 Dez 2010
- Beiträge
- 6.602
Mindestens so viel Sinn wie 'ne 1000W-Konsole mit Peltier-Kühlung.
In der Vita (und den Devkits) ist auch 'ne SGX543MP4 drin. Warum keine viermal so hoch getaktete Singlecore GPU? Weil's eben durchaus einen Unterschied macht. Für mehr Shaderunits mit niedrigerem Takt entwickelt man anders als für wenige Units mit höherem Takt. Baut Microsoft also breiter statt höher (mehr Execution Units bei geringerem Takt), was ich mal annehmen würde, sollte das in den Devkits reflektiert werden. Was genau für GPUs drin stecken ist natürlich irrelevant. Können auch massiv untertaktete Top-Modelle sein. Aber anzunehmen, die Leistung entspräche dem aktuellen Spitzenmodell in Crossfire-Konfiguration... Eher nicht.
Das ist doch kompletter Unsinn was du da schreibst.
Handheld mit Standkonsole zu vergleichen.
Handhelds werden mit modularen und skalierbaren Standardchips betrieben.
Der Chip in der Vita befindet sich auch im Ipad 2 und in vielen anderen Handys wieder. Nur eben in verschiedenen Ausführungen.
Das Ipad 3 oder zukünftige Handys nutzen dann eben die Achtfachvariante.
Diese Chips sind auch auf niedrigen Stromverbrauch getrimmt. Deshalb auch der niedrige Takt.
Solche Handhelds oder Handys dürfen maximal 2-3 Watt verbrauchen.
Bei einer Standkonsole sieht das doch völlig anders aus.
Eine Konsole darf locker das fünfzigfache an Strom schlucken wenn sie nicht gerade Wii heißt.
Zumal du mir mal erklären solltest warum gerade Nintendo dann auf eine niedrig getaktete Mehrchiplösung setzen sollte und in den Dev-Kits aber hochgetaktete Einchip-GPUs einbaut.
Das macht ja überhaupt keinen Sinn.
Außerdem verbrauchen Mittelklasse GPUs nicht weniger Strom als High-End GPUs weil sie niedriger getaktet werden sondern weniger Shader- und Textureneinheiten sowie ROPs besitzen.
Natürlich steigt auch der Strombedarf mit höherem Takt aber niemand zwingt einen ja die Karte mit einem Mindesttakt zu betreiben.
Denn im Gegensatz zum Mobilmarkt gibt es GPUs mit einer breit gefächerten Shaderanzahl
Im Mobilmarkt muss man mehrere Module zusammen schalten um auf die gewünschte Anzahl von Streamingeinheiten zu kommen. Bei PC GPUs ist das nur auf der höchsten Ebene nötig.
Völlig unsinnig ist es aber wie erwähnt zwei HD 6570 Karten zu nehmen anstelle einer HD 6850 um bei deinem Beispiel zu bleiben.
Denn bei gleichem Takt verbrauchen beide Konstellationen ziemlich genau die gleiche Leistung.
Dein Vergleich kommt erst wieder zum Tragen wenn man die maximale Anzahl von Shadereinheiten pro Chip ausgeschöpft hat. Dann taktet man die Karte nicht einfach höher, da sich hier die Verlustleistung dann quadrieren und man wirklich eine Stickstoffkühlung benötigen würde, sondern nimmt eine zweite Karte.
Bis dahin aber nimmt man folglich nur eine Karte.
Also kann man definitiv ausschließen, dass sich in den X3 Dev-Kits zwei Luschenkarten befinden.
Die HD 7970 verbraucht unter Last ca. 200 Watt. Bei optimiertem Fertigungsprozess und Befreiung von Komponenten, die für eine Konsole-GPU nicht gebraucht werden, wird man die Verlustleistung sicherlich um einiges verringern können.
Die GPU der 360 hat ca. 120 Watt geschluckt. In diese Regionen würde auch ein Konsolen-Chip mit gleicher Leistung der HD 7970 kommen. Ich sehe da kein Problem.
Zuletzt bearbeitet: