Ich sprach von Aliasing + Klarheit. Ich hoffe, wir können uns darauf einigen, dass das im Tandem bei kleineren Bildschirm mit höherer Pixeldichte zur objektiven Verbesserung führt.
8K auf 19 Zoll könnte kein Mensch wahrnehmen(außer mit Hilfsmiteln wie einer Lupe), so nahe kannst du gar nicht ran, weil das Auge eine zu große minimale Fokusdistanz hat, außerdem ist der hundertprozent Scharfe Raum den das Auge wahrnimmt sehr gering:
digitalkamera.de schrieb:
Horizontal umfasst das Blickfeld des Auges rund 170°, vertikal sind es 110°.
Aber wirklich scharf sehen wir nur mit einem ganz kleinen Bereich der Netzhaut, dem sogenannten gelben Fleck, der lediglich 2° des Blickwinkels abdeckt.
Unser Auge ist keineswegs eine perfekte Kamera mit schier endloser Auflösung. Effektiv bringt es das Auge gerade einmal auf 4,3 Megapixel. Berücksichtigt man, dass eine Digitalkamera als optisches System weniger Auflösung als Megapixel hat, sind doch 5,4-7,2 Megapixel völlig ausreichend – eine...
www.digitalkamera.de
Ui, sorry, dass ich einen wunden Punkt traf. Warum regst du dich über was auf, was gar nicht gesagt wurde? Ich sagte, dass es cool wäre und nicht, dass man das auf 19" "wahrnehmen" würde. Vielleicht können manche Leute halt auch einfach nicht so gut gucken und sind zu alt und brauchen eine Brille oder irgend welche Hilfen. Deswegen musst du dich nicht aufregen.
Du schreibst die ganze Zeit davon, dass das Bild sich verbessert, weil man die Pixeldichte steigert, das ist aber keine allgemeingültige Aussage, Bildqualität hängt primär von der Quelle ab, eine höherer Pixelcount macht nur Sinn, wenn man bei X Größe und X Sitzabstand einzelne Pixel erkennen kann(1080p vs 4k, wie in meinem Beispiel, ist das tatsächlich recht schnell gegeben). Ist das nicht der Fall wird ein 8K Signal auf einem 4K Bildschirm identisch zu einem 8K Bildschirm aussehen, wirklich relevant wird 8K erst bei enormen Größen von ca. 100 Zoll(besser: 150 Zoll).
Das größere Problem is, dass die Pixel nichts bringen, wenn die Quelle kein 8k ist, was sie auch erst in 20 Jahren sein wird, wenn überhaupt. Und selbst wenn die Quelle 8K ist, wir sehen ja was bei den aktuellen Konsolen als 4K verkauft wird: 1440p-1800p ist im "Resolution Mode" die echte Auflösung, von 8K brauchen wir nicht einmal zu träumen, außer bei Bauklötzchengames wie The Touryst(wo übrigens auch 4K Fernseher ein saubereres Bild als bei einer 4K Auflösung, dank Supersampling, darstellen) -Den Anti-Aliasing Vorteil von 8K kannst du auch auf 4K haben, sofern du hier eben supersampling nutzt.
Wo 8K durchaus Sinn macht(zumindest mehr als bei Monitoren) ist VR, weil man hier mit den Augen so nahe am Display ist und der Fokusabstand durch die Linsen verringert wird, hier muss aber dann auch die Optik entsprechend hohe Auflösungen überhaupt darstellen können, sonst bringen dir die 34 Millionen Bildpunkte nichts. Das ganze Unterfangen scheitert aktuell aber sowieso wieder daran, dass es keine Hardware gibt, die aktuelle Spiele in so einer Auflösung darstellen kann, vor allem nicht in den 90-120Hz(FPS) die für VR notwendig wären. In 20 Jahren können wir uns also über das Thema weiter unterhalten, aktuell ist es unnötige Geldverschwendung auf 8K zu setzen.
Trotzdem denke ich, wie du, dass man von 240hz Bildschirmen mehr hat, auch wenn ebenfalls viele Leute den Unterschied nicht bemerken würden.
Ich habe das selbst mit einem 160Hz Monitor ausgetestet, ab ca. 100Hz(wenn nicht 90Hz) merkt man nur noch sehr geringe Unterschiede, höher zu gehen macht dann beim esport Sinn, weil man den Inputlag weiter reduziert und da halt jede ms Vorteil zählt. In allen anderen Fällen würde ich immer die Grafikeinstellungen erhöhen.