DotProduct
L05: Lazy
- Seit
- 24 Mai 2005
- Beiträge
- 286
Fehlt da bei der Rechnung nicht noch die Farbtiefe, oder wird die bei der Darstellung gar nicht miteinberechnet? Also mein Pc läut auf einer 32-bit auflösung einiges langsamer als mit einer 16-bit Auflösung
Wieso sollte in der Rechnung die Farbtiefe auftauchen? Heute realistische Farbtiefen sind 32, 64 und 128Bit und die Wahl der Farbtiefe beeinflusst natürlich die Pixelshaderperformance. Aber wieviele Pixel auf ein Polygon kommen ist nur von der Auflösung abhängig.
Bemerkenswert ist ja auch, dass die nötige Pixelshaderleistung nur von der Auflösung, gegebenfalls Supersamplung und eben von der Farbtiefe abhängt und nicht von der Komplexität der Szene (Anzalh der Polygone).
-Abgesehen von Refractions Effekten-
Hat eine GPU genug Leistung um jeden Pixel mit einem durchschnittlichen Shader zu "shaden", dann ist für die entsprechende Auflösung und Farbtiefe das Maximum an nötiger Pixelshaderperformance erreicht - vollkommen unabhängig von der Komplexität der Szene.
Davon werden die neuen Konsolen, aber wohl noch ein gutes Stück entfernt sein.
Aber da die Entwicklung genau dahin geht, werden in Zukunft "unified shader" ein absolutes must-have sein.
Was ich bisher vollkommen unterschlagen habe ist die Anzahl/Komplexität der Lichtquellen. Die nötige Vertex/Pixelshader Performance ist genau proportional zur Anzahl der Lichtquellen und selbst 128 Lichtquellen oder mehr wären durchaus wünschenswert um endlich heutige CG Qualität zu erreichen. Allein dafür müsste sich die Leistung wohl noch um den Faktor 50 verbessern.