Die Rückkehr der 30 FPS - Die Wiedergeburt

Obwohl sogar bei 19" 8k wahrscheinlich cool wäre, da man damit recht wenig Aliasing wahrnehmen würde.
Wie Ahnungslos kann man bitte sein, beschäftige dich mal lieber mit den Fähigkeiten des menschlichen Auges, 35 Megapixel kann es auf 19" definitiv nicht wahrnehmen, so nahe kann man gar nicht an die Augen ran.

Nur weil der Bildschirm 8k Auflösung schafft wird das Aliasing auch nicht besser, kommt immer darauf an was für ein Material zugespielt, zumal in der Größe auch 1440p vollkommen ausreichend wäre, die interne, berechnete Auflösung kann man auch ohne höheren Pixelcount erhöhen.

Hier werden sie geholfen, warum 8K völliger Blödsinn ist(passende Timestamp inklusive):

 
Zuletzt bearbeitet:
Wie Ahnungslos kann man bitte sein, beschäftige dich mal lieber mit den Fähigkeiten des menschlichen Auges, 35 Megapixel kann es auf 19" definitiv nicht wahrnehmen, so nahe kann man gar nicht an die Augen ran.

Nur weil der Bildschirm 8k Auflösung schafft wird das Aliasing auch nicht besser, kommt immer darauf an was für ein Material zugespielt, zumal in der Größe auch 1440p vollkommen ausreichend wäre, die interne, berechnete Auflösung kann man auch ohne höheren Pixelcount erhöhen.

Hier werden sie geholfen, warum 8K völliger Blödsinn ist(passende Timestamp inklusive):

Solche Faustregeln meist etwas ungeeignet für alle. Beweisstück A: Zwei Leute in dem Video sagen ungefragt, dass sie zu weit weg sind :ugly:
Für einen Gamer sind die Grunde für diese Faustregel auch nicht das ausschlaggebende. Ebenso hat sich die Behauptung dafür welche Auflösung man bei welchem Abstand nicht mehr erkennen kann als total für die Tonne herausgestellt :kruemel:
Beides zusammen sorgt einfach dafür, dass eine wirklich deutlich höhere Auflösung, als bei so einer Empfehlung rauskommt, noch Vorteile bringt.
Das heißt nicht, dass es nicht irgendeine Grenze gibt, ab der man den Unterschied nicht mehr erkennen kann und ich will da mit meiner limitierten Erfahrung keine Aussage treffen, ob sich ein 8k TV oder Monitor lohnt oder nicht :vv:
 
Beides zusammen sorgt einfach dafür, dass eine wirklich deutlich höhere Auflösung, als bei so einer Empfehlung rauskommt, noch Vorteile bringt.
Linus sagts ja im Video, daher der Timestamp du brauchst bei einem 88"(!) Bildschirm einen Sitzabstand von 1,75m, das heißt bei dem Abstand und der Größe hast du nicht einmal mehr das ganze Bild im Sichtfeld und musst dann den Kopf schwenken :ugly:

Ich sitze auch ca. 1,5m vom TV entfernt bei 4K content, das ist ein 65er näher macht keinen Sinn da ich nicht den gesamten TV im Blickfeld habe(im peripheren schon aber das bringt ja nichts) und auch auf diese Distanz sind einzelne Pixel nicht zu unterscheiden. Klar gibts gewisse feinheiten wie Stromleitungen in Videospielen, die mit 8K Auflösung weniger flimmern würden als mit 4K aber 1. schafft das keine Grafikkarte der Welt mit 60FPS und ansehnlicher Grafik und 2. würde man auch mit einem 4K Panel fast gleichermaßen davon profitieren, weil die interne Auflösung am wichtigsten ist, nicht die, die der TV anhand der Pixelzahl erreicht.
 
Zuletzt bearbeitet:
Linus sagts ja im Video, daher der Timestamp du brauchst bei einem 88"(!) Bildschirm einen Sitzabstand von 1,75m, das heißt bei dem Abstand und der Größe hast du nicht einmal mehr das ganze Bild im Sichtfeld und musst dann den Kopf schwenken :ugly:

Ich sitze auch ca. 1,5m vom TV entfernt bei 4K content, das ist ein 65er näher macht keinen Sinn da ich nicht den gesamten TV im Blickfeld habe(im peripheren schon aber das bringt ja nichts) und auch auf diese Distanz sind einzelne Pixel nicht zu unterscheiden. Klar gibts gewisse feinheiten wie Stromleitungen in Videospielen, die mit 8K Auflösung weniger flimmern würden als mit 4K aber 1. schafft das keine Grafikkarte der Welt mit 60FPS und ansehnlicher Grafik und 2. würde man auch mit einem 4K Panel fast gleichermaßen davon profitieren, weil die interne Auflösung am wichtigsten ist, nicht die, die der TV anhand der Pixelzahl erreicht.
Du hast seine Aussagen irgendwie nicht verstanden. 1,75m Entfernung um das gesamte Bild im Sichtfeld zu haben? Wtf, dein ernst xD Da musst du doch selbst merken, dass du was falsch verstanden hast.
Er nutzt genau die Formel, die ich vorhin angekreidet habe, als offensichtlichen Bullshit, weil die eigene Erfahrung etwas anderes zeigt. Demnach sollte ich etwas bei meinem Abstand zum TV keinen Benefit von 4k gegenüber 1080p(!) haben. In der Realität erkenne ich selbst bei 1440p vs 4k noch einen Unterschied auf die Distanz, wenn auch eher bei besagten Feinheiten.
Dass es ein teurer Spaß ist, für vergleichbar wenig Vorteil will ich gar nicht bestreiten. Die Argumentation von Linus, um 8k grundsätzlich als nicht wahrnehmbar zu bezeichnen ist aber zu kurz gedacht.
 
Die Argumentation von Linus, um 8k grundsätzlich als nicht wahrnehmbar zu bezeichnen ist aber zu kurz gedacht.
Sicher wenn du nahe genug ran gehst siehst du den Unterschied, wenn die Quelle entsprechend hochauflösend ist, Konsolenspieler bekommen heutzutage 1080p-1440p als Quelle damit im besten Fall nicht einmal die halbe 4K Auflösung -außer sie spielen mit 30FPS(und selbst da ists in der Regel keine volle 4K Auflösung) :ugly:

Und jetzt nochmal klartext: Wenn die 4K Hardware ein 8k Qualität eingespielt bekommt (sprich 8k Downsampled auf 4k) und du den gleichen TV daneben stehen hast der die echte 8K Auflösung 1:1 wiedergibt wirst du keinen unterschied merken, außer du gehst nahe genug ran um einzelne Pixel zu unterscheiden. Daher ist die 8K Auflösung völliger Unsinn und reinste Verschwendung, wenn deine Hardware es packt intern die 4k Auflösung zu supersamplen siehst du keinen Unterschied, es sei denn du sitzt so nahe dran, dass du bei 4K einzelne Pixel ausmachen kannst.

Das hatte ich noch nie, das war auch der große Unterschied als ich von meinem 1080p 50 Zöller mit 1,5m Abstand auf meinen 4k 65 Zöller gewechselt habe, bei gleichem Abstand waren die Pixel beim 1080p obwohl der deutlich kleiner war sehr deutlich erkennbar beim 4K absolut nicht mehr, obwohl er größer war. 8K bietet hier keinen Vorteil, außer man geht noch näher ran und erhöht die Displaygröße weiter. Ich habe damals am 50 Zöller den Witcher mit 1440p Auflösung gespielt, downsampled auf 1080p, das war eine deutlich bessere Bildqualität aber durch den Sitzabstand habe ich weiterhin einzelne Pixel ausgemacht. Sofern man das nicht hat, macht 8K absolut keinen Sinn. Weder von den Anschaffungskosten, noch von der Performance die die Signalquelle aufbringen muss um diese gigantische Pixelzahl zu pushen. Wie gesagt, dann lieber nen 240Hz 4K TV.
 
Wie Ahnungslos kann man bitte sein, beschäftige dich mal lieber mit den Fähigkeiten des menschlichen Auges, 35 Megapixel kann es auf 19" definitiv nicht wahrnehmen, so nahe kann man gar nicht an die Augen ran.

Ui, sorry, dass ich einen wunden Punkt traf. Warum regst du dich über was auf, was gar nicht gesagt wurde? Ich sagte, dass es cool wäre und nicht, dass man das auf 19" "wahrnehmen" würde. Vielleicht können manche Leute halt auch einfach nicht so gut gucken und sind zu alt und brauchen eine Brille oder irgend welche Hilfen. Deswegen musst du dich nicht aufregen.
Nur weil der Bildschirm 8k Auflösung schafft wird das Aliasing auch nicht besser,
Von "nur" sprach keiner.
kommt immer darauf an was für ein Material zugespielt,
Offensichtlich.
zumal in der Größe auch 1440p vollkommen ausreichend wäre,
Nö.
die interne, berechnete Auflösung kann man auch ohne höheren Pixelcount erhöhen.
Ja, aber im Tandem wäre es schon cool.
Hier werden sie geholfen, warum 8K völliger Blödsinn ist(passende Timestamp inklusive):

Danke.

Ich sprach von Aliasing + Klarheit. Ich hoffe, wir können uns darauf einigen, dass das im Tandem bei kleineren Bildschirm mit höherer Pixeldichte zur objektiven Verbesserung führt.

Hier werden sie geholfen, warum eine höhere Pixeldichte voll gut ist(passender Timestamp inklusive):


Wäre schön, wenn du einfach auf dem Teppich bleiben würdest. Mir kann man viel erzählen, aber wenn ich selbst schon bei 7" bei dem S22 Ultra einen Unterschied zwischen allen Auflösungen wahrnehme, dann kann es bei 19" eigentlich nicht anders sein. Ist aber sicher alles nur Einbildung ;)
 
Sicher wenn du nahe genug ran gehst siehst du den Unterschied
Das "nahe genug rangehen" könnte eben auch ein üblicher Abstand sein, den Gamer, gerade PC-Gamer einnehmen würden. Weiß ich nicht genau, das ich 8k selbst nicht einschätzen kann und die Berechnung, auf die Linus sich stützt, unbrauchbar ist, um das rauszufinden.
wenn die Quelle entsprechend hochauflösend ist, Konsolenspieler bekommen heutzutage 1080p-1440p als Quelle damit im besten Fall nicht einmal die halbe 4K Auflösung -außer sie spielen mit 30FPS(und selbst da ists in der Regel keine volle 4K Auflösung) :ugly:
Klar. Das Material müsste vorhanden sein. Dass es das jetzt, vor allem im Konsolenbereich noch nicht ist, sagt nichts darüber aus, ob man nicht von einem 8k mit 8k Material profitieren würde.
Und jetzt nochmal klartext: Wenn die 4K Hardware ein 8k Qualität eingespielt bekommt (sprich 8k Downsampled auf 4k) und du den gleichen TV daneben stehen hast der die echte 8K Auflösung 1:1 wiedergibt wirst du keinen unterschied merken, außer du gehst nahe genug ran um einzelne Pixel zu unterscheiden. Daher ist die 8K Auflösung völliger Unsinn und reinste Verschwendung, wenn deine Hardware es packt intern die 4k Auflösung zu supersamplen siehst du keinen Unterschied, es sei denn du sitzt so nahe dran, dass du bei 4K einzelne Pixel ausmachen kannst.
Mir ist bewusst, dass das Bild mit Supersampling nochmal deutlich besser aussieht als nativ. Aber auch hier gilt wieder, dass die Rechnung von Linus Quatsch ist, daher kann man keine klaren Rückschlüsse ziehen, ab welcher Grenze man den Unterschied nicht mehr sehen würde. Ich wäre mir da einfach nicht so sicher, dass Leute sich nicht TVs kaufen die groß genug sind und besonders Monitore mit der Auflösung, an denen man erfahrungsgemäß viel näher dran sitzt und den Unterschied sehen werden.
Trotzdem denke ich, wie du, dass man von 240hz Bildschirmen mehr hat, auch wenn ebenfalls viele Leute den Unterschied nicht bemerken würden.
 
Ich sprach von Aliasing + Klarheit. Ich hoffe, wir können uns darauf einigen, dass das im Tandem bei kleineren Bildschirm mit höherer Pixeldichte zur objektiven Verbesserung führt.
8K auf 19 Zoll könnte kein Mensch wahrnehmen(außer mit Hilfsmiteln wie einer Lupe), so nahe kannst du gar nicht ran, weil das Auge eine zu große minimale Fokusdistanz hat, außerdem ist der hundertprozent Scharfe Raum den das Auge wahrnimmt sehr gering:
digitalkamera.de schrieb:
Horizontal umfasst das Blickfeld des Auges rund 170°, vertikal sind es 110°.
Aber wirklich scharf sehen wir nur mit einem ganz kleinen Bereich der Netzhaut, dem sogenannten gelben Fleck, der lediglich 2° des Blickwinkels abdeckt.

Ui, sorry, dass ich einen wunden Punkt traf. Warum regst du dich über was auf, was gar nicht gesagt wurde? Ich sagte, dass es cool wäre und nicht, dass man das auf 19" "wahrnehmen" würde. Vielleicht können manche Leute halt auch einfach nicht so gut gucken und sind zu alt und brauchen eine Brille oder irgend welche Hilfen. Deswegen musst du dich nicht aufregen.
Du schreibst die ganze Zeit davon, dass das Bild sich verbessert, weil man die Pixeldichte steigert, das ist aber keine allgemeingültige Aussage, Bildqualität hängt primär von der Quelle ab, eine höherer Pixelcount macht nur Sinn, wenn man bei X Größe und X Sitzabstand einzelne Pixel erkennen kann(1080p vs 4k, wie in meinem Beispiel, ist das tatsächlich recht schnell gegeben). Ist das nicht der Fall wird ein 8K Signal auf einem 4K Bildschirm identisch zu einem 8K Bildschirm aussehen, wirklich relevant wird 8K erst bei enormen Größen von ca. 100 Zoll(besser: 150 Zoll).

Das größere Problem is, dass die Pixel nichts bringen, wenn die Quelle kein 8k ist, was sie auch erst in 20 Jahren sein wird, wenn überhaupt. Und selbst wenn die Quelle 8K ist, wir sehen ja was bei den aktuellen Konsolen als 4K verkauft wird: 1440p-1800p ist im "Resolution Mode" die echte Auflösung, von 8K brauchen wir nicht einmal zu träumen, außer bei Bauklötzchengames wie The Touryst(wo übrigens auch 4K Fernseher ein saubereres Bild als bei einer 4K Auflösung, dank Supersampling, darstellen) -Den Anti-Aliasing Vorteil von 8K kannst du auch auf 4K haben, sofern du hier eben supersampling nutzt.

Wo 8K durchaus Sinn macht(zumindest mehr als bei Monitoren) ist VR, weil man hier mit den Augen so nahe am Display ist und der Fokusabstand durch die Linsen verringert wird, hier muss aber dann auch die Optik entsprechend hohe Auflösungen überhaupt darstellen können, sonst bringen dir die 34 Millionen Bildpunkte nichts. Das ganze Unterfangen scheitert aktuell aber sowieso wieder daran, dass es keine Hardware gibt, die aktuelle Spiele in so einer Auflösung darstellen kann, vor allem nicht in den 90-120Hz(FPS) die für VR notwendig wären. In 20 Jahren können wir uns also über das Thema weiter unterhalten, aktuell ist es unnötige Geldverschwendung auf 8K zu setzen.

Trotzdem denke ich, wie du, dass man von 240hz Bildschirmen mehr hat, auch wenn ebenfalls viele Leute den Unterschied nicht bemerken würden.
Ich habe das selbst mit einem 160Hz Monitor ausgetestet, ab ca. 100Hz(wenn nicht 90Hz) merkt man nur noch sehr geringe Unterschiede, höher zu gehen macht dann beim esport Sinn, weil man den Inputlag weiter reduziert und da halt jede ms Vorteil zählt. In allen anderen Fällen würde ich immer die Grafikeinstellungen erhöhen.
 
@TheProphet Natürlich kommt es auf die Quelle an. Von aktuellen Spielen redete ich nicht. Dazu sagst du, dass

Du schreibst die ganze Zeit davon, dass das Bild sich verbessert, weil man die Pixeldichte steigert, das ist aber keine allgemeingültige Aussage, Bildqualität hängt fast ausschließlich von der Quelle ab,

und davor aber:

8K auf 19 Zoll könnte kein Mensch wahrnehmen(außer mit Hilfsmiteln wie einer Lupe), so nahe kannst du gar nicht ran, weil das Auge eine zu große minimale Fokusdistanz hat, außerdem ist der hundertprozent Scharfe Raum den das Auge wahrnimmt sehr gering
, wobei das auch nicht allgemeingültig ist. Wenn die Distanz wichtig ist, kann es nicht fast ausschließlich von der Quelle abhängen, vor allem bei solch einem generischen Eigenschaftsbezeichnungen wie "Bildqualität", welche entweder generische oder überkomplexe Prädikate erfordern.

Aber gut, dann belassen wir es dabei, dass du keinen Unterschied siehst, es sei denn, dein Abstand vom Bildschirm beträgt weniger als einen Zoll.

Du beziehst einfach deinen subjektiven Eindruck auf alle und das stimmt einfach nicht. Wenn du schon keinen Unterschied zwischen 100 und 240 Hz wahrnimmst, dann tut es mir leid und ich habe alles zum Thema gesagt.
 
Wenn du schon keinen Unterschied zwischen 100 und 240 Hz wahrnimmst, dann tut es mir leid und ich habe alles zum Thema gesagt.
Ja, nämlich dass du nicht richtig lesen kannst, alles Zeitverschwendung mit dir:
Ich habe das selbst mit einem 160Hz Monitor ausgetestet, ab ca. 100Hz(wenn nicht 90Hz) merkt man nur noch sehr geringe Unterschiede
Sehr geringe Unterschiede sind nicht keine Unterschiede und 160Hz sind nicht 240Hz.
 
Ja, nämlich dass du nicht richtig lesen kannst, alles Zeitverschwendung mit dir:

Sehr geringe Unterschiede sind nicht keine Unterschiede und 160Hz sind nicht 240Hz.
Ich erkläre dir dich mal:

Du erkennst ab ca. 100 Hz keinen Unterschied. (Für dich lasse ich mal die 90 Hz unter den Tisch fallen)

Das bedeutet, dass ab 100 Hz aufwärts keinen Unterschied mehr erkennst.

Das bedeutet, dass du keinen Unterschied bei allem ab 100 Hz nicht mehr wahrnimmst.

240 Hz > 100 Hz. 240 Hz sind mehr als 100 Hz. 240 Hz liegen in dem Bereich über 100 Hz. Den Bereich über 100 Hz nimmst du nicht mehr wahr. Du nimmst 240 Hz nicht wahr.

Ich hoffe, du kannst dich nun verstehen. Wenn du den Unterschied für sehr gering wahrnimmst, kannst du ja nichts damit anfangen. Das sagst du doch die ganze Zeit: Es sei es nicht wert. Damit existiert der ja nicht für dich.

Hätte nicht gedacht, dass man hier sogar 120 Hz verteidigen müsste.

Vielleicht wird's auch einfach Zeit für eine Sehhilfe. Das Stigma ist hoffentlich nicht mehr... wahrnehmbar...
 
Zuletzt bearbeitet:
Du erkennst ab ca. 100 Hz keinen Unterschied. (Für dich lasse ich mal die 90 Hz unter den Tisch fallen)
Und schon wieder falsch, mehr als die relevanten stellen in meiner Aussage fett drucken kann ich nicht, da steht nichts von "keinen Unterschied". Zwischen 60 und 100Hz gibt es einen großen Unterschied, je höher man geht desto geringer wird er, ist eigentlich nicht schwer zu verstehen, naja gut, für dich anscheinend schon :ugly:
 
Und schon wieder falsch, mehr als die relevanten stellen in meiner Aussage fett drucken kann ich nicht, da steht nichts von "keinen Unterschied". Zwischen 60 und 100Hz gibt es einen großen Unterschied, je höher man geht desto geringer wird er, ist eigentlich nicht schwer zu verstehen, naja gut, für dich anscheinend schon :ugly:
Wenn du den Unterschied für sehr gering wahrnimmst, kannst du ja nichts damit anfangen. Das sagst du doch die ganze Zeit: Es sei es nicht wert. Damit existiert der ja nicht für dich.
 
Ich dachte wir sind im Bereich 30fps Frameslock?!?.
@TheProphet ist halt grumpy und ich gebe kein Stück nach. Er hat natürlich recht, aber ich habe keinen Bock noch weiter zu relativieren. Es ging ja darum, dass Leute zu casual sind, einen Unterschied zwischen 30 und 60 FPS feststellen zu können. Dass das BS ist, sind sich alle einig. Bei 120 FPS zu 60 war das aber wieder was gaaanz anderes. Da muss man aber auch haargenau zitieren, sonst wird wer mächtig böse. TheProphet sieht halt keinen Unterschied zwischen 90 und 120 FPS, oder 4k zu 8k, wenn es nicht ein Scheunentor von Fernseher ist. Und da TheProphet Peak Human Chad, The Perfect Form (und das mit ca. mitte ende 40 / 50 Jahren) ist, gilt das im übertragenen Sinne für alle. Und da ich Vertreter von #notall bin, habe ich ihn gefoppt.

Daher.
 
Und es bleibt dabei. Hier wird eine Diskussion geführt, die 95 Prozent aller Konsolenkäufer da draußen nicht interessiert. Und deswegen werden wir auch auf Pro Konsolen und auf PS6 mit Rohleistung einer 4090 noch großteils 30fps sehen.
Die Hardware limitiert nicht bei Konsolen, sondern der Anspruch der Käufer.
 
Und es bleibt dabei. Hier wird eine Diskussion geführt, die 95 Prozent aller Konsolenkäufer da draußen nicht interessiert. Und deswegen werden wir auch auf Pro Konsolen und auf PS6 mit Rohleistung einer 4090 noch großteils 30fps sehen.
Die Hardware limitiert nicht bei Konsolen, sondern der Anspruch der Käufer.
Hätte man bei den Bitwars ebenso sagen können, oder teils auch bei den Auflösungungen. FPS kommen immer mehr in die Mode fürs Marketing und anders als bei Auflösung ist's für's Gameplay auch mal nützlich. Der ganze Brei mit DLSS, AMDDing, XESS hat praktisch nur FPS als Ziel, was sich nur so vermarkten lässt. Allermindestens kann man jetzt von einer konstanten FPS berichten, was traurigerweise noch immer nicht Standard ist.

Dann gibt's auf der anderen Seite Pokémon Kerosin und ich denke, dass du wahrscheinlich doch recht hast.
 
Hätte man bei den Bitwars ebenso sagen können, oder teils auch bei den Auflösungungen. FPS kommen immer mehr in die Mode fürs Marketing und anders als bei Auflösung ist's für's Gameplay auch mal nützlich. Der ganze Brei mit DLSS, AMDDing, XESS hat praktisch nur FPS als Ziel, was sich nur so vermarkten lässt. Allermindestens kann man jetzt von einer konstanten FPS berichten, was traurigerweise noch immer nicht Standard ist.

Dann gibt's auf der anderen Seite Pokémon Kerosin und ich denke, dass du wahrscheinlich doch recht hast.
Ich möchte in keinster Weise die Vorteile und den Mehrwert von mehr fps in Frage stellen. Ich gehöre selbstverständlich zu den 5 Prozent. Nur den Stellenwert für die Masse, der in Foren wie diesen teilweise gesehen wird, stelle ich in Frage.
 
Ich hab aktuell überall 60Hz TVs, perspektivisch werden es im Laufe der nächsten Jahre 100/120 Hz und dann reicht mir das auch völlig aus.

Mehr brauche ich nicht, genauso wenig wie 8K.

Selbst zwischen 4K und FHD fällt mir teils der Unterschied schon schwer bei 2-4m Abstand zum TV je nach Raum
 
Man kann gerne darüber debatieren aber ich finde beides ob 60fps oder 30fps hat seine Da seins Berechtigung. Ob es nun Genremäßig oder Technischer Grund ist. Man kann mit beiden spaß haben solange es keine Framedrops oder Lags passieren. Und wenn du mit hohen fps spielst und es passiert mal nen framedrop ist es eher Immersionsschädlich ;)

Wer eine Spielekonsole ohne Framelimit spielen möchte kann ich gerne diese Konsole empfehlen:

51MTQG93CXL.jpg


Eine Konsole aus einer Zeit in der man froh war das Spiele überhaupt liefen. Und dann kommt Nintendo mit einer 120fps Rakete.

f-zero-gx-TEST.jpg


Lol, ;) Nein nur spaß es lief auf 60fps aber wie!. Die 900km/h hast du gespürt. An alle Elden Ring und Demon Souls Befürworter können sich mal daran versuchen oder besser noch die Mega Man Serie 1-3 ohne Save State. :) hihihi .

Anderes Beispiel Doom 2016 auf der Switch hätte ich nicht gelesen das es mit 30fps läuft hätte ich es nie gedacht, auch mit 30fps läuft das Spiel flüssig und butterweich und auch noch einigermaßen schnell.
 
Zurück
Top Bottom