PC-Gaming-Hardware | Was gibt es neues auf dem Markt?

Nach etwas mehr als einer Woche möcht ich mal ein paar Eindrücke von meinem Samsung Odyssey G9 schildern. Längere Zeit ausprobiert habe ich bislang Red Dead Redemption 2, Fifa 20, Call of Duty Modern Warfare und Civilization 6.

Das offensichtlichste, das sehr breite 32:9-Verhältnis, kann, je nach Spiel, ein echter Mehrwert sein. Am meisten profitiert haben davon meiner Meinung nach Fifa und Cvilization. Ich habe beide die Tage auf meiner One S (Fifa) und auf der Switch (Civ 6) mal als Vergleich ausprobiert und speziell bei Fifa ist mir extrem aufgefallen, dass da links und rechts einfach was fehlt. Es ist nicht nur so, dass man halt einfach mehr sieht, sondern dass man auch einen wirklichen spielerischen Mehrwert hat, da man einen deutlich besseren Überblick über das Spielgeschehen hat. Bei Civilization 6 war es ähnlich. Auf der Switch fühlt es sich wahninnig eingeengt, weil quasi alles von diesen riesigen Menüs überdeckt wird. Man hat überhaupt keinen Überblick. Ein wirklicher spielerischer Mehrwert war nicht vorhanden aber es ist definitiv angenehmer mit dem großen Sichtfeld. Die Menüanzeigen, die sich bei Civ 6 an die Auflösung anpassen, empfand ich nicht als störend. Man hat mit der Maus in der Tat sehr weite Wege aber das geht so in Fleisch und Blut über, dass das kein Problem ist.

Red Dead Redemption hatte meiner Meinung nach im Vergleich zu 16:9 keinen wirklichen Vorteil. Das spielt sich in 16:9 genauso gut wie in 32:9. Bei RDR war nur das PRoblem, dass sich bspw. die Minimap und auch sonstige dynamische Bildschirmanzeigen nicht an die Auflösung anpassen. D.h. die verbleiben dort, wo sie es auch im Format 16:9 wären, was bedeutet, dass die Minimap quasi mittem im Bildschirm ist, obwohl links und rechts noch jede Menge Platz wäre. Dasselbe Problem übrigens bei Fifa, wo Spielstand, Uhrzeit und die Namen der aktiven Spieler leider auch nicht am Rand sind sondern dort, wo quasi der 16:9-Bereich aufhört.

Zu Call of Duty kann ich leider nur begrenzt Einblicke geben, da ich mir hier der direkte Vergleich zu 16:9 fehlt. Ich werde das Spiel am Wochenende mal am 16:9-Monitor betreiben und mir den Unterschied einprägen. Spontan würde ich aber sagen, dass hier der spielerische Mehrwert auch vorhanden sein sollte, da man einen viel besseren Rumdumblick hat und einfach mehr sieht. Eigentlich selbsterklärend.

Was ein klein wenig nervt ist, dass die Menüs und häufig auch Zwischensequenzen nicht in 32:9 sondern häufig nur in 16:9 sind. Da hat man bei Zwischensequenzen dann plötzlich links und rechts dicke Balken. Bei RDR funktioniert zudem leider die große Karte im Menü nicht. Die wird verzerrt, hat keinen Marker und ist völlig unbrauchbar. Man muss die Missionsziele über den Index anwählen und dann mit der Minimap hinnavigieren. Einmal hatte ich es, da wurde sie mir perfekt angezeigt, danach aber leider nicht wieder. Ich weiß nicht, wie ich das hinbekommen habe und was ich machen muss, dass ich das wieder hinbekomme. Bei RDR läuft auch leider der Kinomodus nur in 16:9.

D.h. je nach Genre würde ich sagen, dass Strategiespiele und Fifa extrem davon profitieren, bei 3rd-Person-Spielen wie RDR, The Witcher, AC etc. seh ich den Mehrwert jetzt nicht so richtig. Forza hab ich noch nicht so lange ausprobiert aber hier würde ich tippen, dass sich da der Mehrwert auch in Grenzen hält. Was ich aber sagen kann ist, dass es auf keinen Fall schadet. Also ich hatte jetzt noch nicht den Fall, dass ich lieber zurück auf 21:9 gegangen wäre. Echtzeitstrategiespiele wie Age of Empries oder Dawn of War muss ich noch ausprobieren.

Ansonsten hat mich die allgemeine Bildqualität jetzt nicht aus den Latschen gehauen aber ich bin was das Thema angeht eh etwas "nüchterner" und mir fallen auch viele kleine Dinge gar nicht so bewusst auf. Ich höre nicht das Gras wachsen bei der Technik, wenn ihr versteht, was ich meine. Gsync fand ich aber extrem gut bislang (ich hoffe, dass ich es zum Laufen bekommen habe :lol:) Zumindest war das Tearing weg und die Bildrate hatte sich gefühlt halbiert also gehe ich mal davon aus, dass es geklappt hat.

Bislang hatte ich auch kaum Probleme mit halbwegs aktuellen Spielen, die die Auflösung auch unterstützen. Selbst Dragon Age Origins von 2009 geht in 32:9. Dawn of War I ging nicht und Resident Evil 4 auch nicht. Die restlichen waren alle bislang kein Problem. Civilization 5 von 2010 ging auch. Bioshock von 2008 auch.

Was nur etwas schade ist, dass ich nicht über 60 Bilder komme. Wenn ich über den DPI-Eingang gehe, habe ich bei dunklen Stellen sehr starkes Flimmern. Ganz besonders extrem ist es z.B. bei Zwischensequenzen in 16:9 wenn der zusätzliche Bereich nicht ausgefüllt ist. Da flimmert es auf großen Flächen echt extrem. Zusätzlich haben bspw. bei Fifa die einzelnen Spieler so einen matschigen "Rahmen" um sich herum. Der Übergang von Spieler zu Rasen ist sehr verwaschen und eben sehr matschig, schwierig zu beschreiben. Mit HDMI gehen aber nur 60 Bilder und nicht mehr. Bei über 60 Bildern muss ich dann aber wirklich tatsächlich passen. Den Unterschied zwischen 30 und 60, ja, den sehe ich aber ob ich jetzt mit 60 oder 120 oder gar 240 Bildern spiele, macht für mich nun wirklich keinen Unterschied mehr.

Was noch ein bisschen blöd ist, dass durch die hohe Auflösung und das große Bild meine Grafikkarte endgültig an ihre Grenzen kommt. Wenn ich den Monitor richtig austesten möchte, werde ich da wohl um eine RTX 3080 Ti nicht herumkommen.

Ich würde ihn vermutlich nochmal kaufen aber ob er einem die 1700€ wert ist, muss natürlich jeder selber entscheiden. Ich hab ein sehr großes Faible für solche Technikspielereien und habe häufig mehr Freude mit der Technik selbst als mit dem tatsächlichen Zocken.
 
HUDs kann man in der Norm immer fixen.
Wie man hier sieht ist die Minimap schön am Rand:
Wie man zu den Infos einfach kommt habe ich schon einmal geschrieben.

Auf 60Hz limitiert zu sein würde ich übrigens nicht erdulden, das ist für mich ganz klar ein Retourniergrund. 120Hz ULMB ist die absolute Next Next Gen, solch ein Wow Erlebnis hat sonst nur VR.
 
HUDs kann man in der Norm immer fixen.
Wie man hier sieht ist die Minimap schön am Rand:
Wie man zu den Infos einfach kommt habe ich schon einmal geschrieben.

Auf 60Hz limitiert zu sein würde ich übrigens nicht erdulden, das ist für mich ganz klar ein Retourniergrund. 120Hz ULMB ist die absolute Next Next Gen, solch ein Wow Erlebnis hat sonst nur VR.

Danke für das Video. Werd es am Wochenende gleich mal ausprobieren.

Edit: Kannst du einen Beitrag nochmal posten wo du erklärst, wie man die Anzeige verschiebt? Muss ihn beim ersten Mal überlesen haben.

Das Geflimmer ist sicher eine reine Frickelgeschichte. Ich hab da nach wie vor immer mal wieder Probleme mit meiner Technik. Im Mai 2018 z.B. hatte ich plötzlich starkes Geflimmer bei The Witcher 3 bei bspw. den Strohdächern. 180h lief das Spiel ohne Probleme und dann plötzlich war das Geflimmer da und irgendwann war es dann auch wieder weg, ohne, dass ich sagen könnte, wo es herkam und wie es wieder ging. Problem bei der Fehlersuche ist halt nur, dass der Monitor noch nicht so verbreitet ist, dass schon andere das Problem hatten. Mein Monitor hat ja zwei DPI-Eingänge. Vllt geht der andere ja urplötzlich.

Ich hatte ja auch sehr lange das Problem, dass mein 65'' TV nur einen HDMI-Eingang hat, der 4k und 60fps gleichzeitig unterstützt. Anfangs hatte ich zufällig den richtigen Eingang erwischt und nach einem Wohnungsputz dann einen anderen genommen und plötzlich hatte ich nur noch 30fps und bin fast durchgedreht bei der Fehlersuche.

Und das Geflimmer krieg ich auch noch beseitigt.
 
Danke für das Video. Werd es am Wochenende gleich mal ausprobieren.

Edit: Kannst du einen Beitrag nochmal posten wo du erklärst, wie man die Anzeige verschiebt? Muss ihn beim ersten Mal überlesen haben.

Das Geflimmer ist sicher eine reine Frickelgeschichte. Ich hab da nach wie vor immer mal wieder Probleme mit meiner Technik. Im Mai 2018 z.B. hatte ich plötzlich starkes Geflimmer bei The Witcher 3 bei bspw. den Strohdächern. 180h lief das Spiel ohne Probleme und dann plötzlich war das Geflimmer da und irgendwann war es dann auch wieder weg, ohne, dass ich sagen könnte, wo es herkam und wie es wieder ging. Problem bei der Fehlersuche ist halt nur, dass der Monitor noch nicht so verbreitet ist, dass schon andere das Problem hatten. Mein Monitor hat ja zwei DPI-Eingänge. Vllt geht der andere ja urplötzlich.

Ich hatte ja auch sehr lange das Problem, dass mein 65'' TV nur einen HDMI-Eingang hat, der 4k und 60fps gleichzeitig unterstützt. Anfangs hatte ich zufällig den richtigen Eingang erwischt und nach einem Wohnungsputz dann einen anderen genommen und plötzlich hatte ich nur noch 30fps und bin fast durchgedreht bei der Fehlersuche.

Und das Geflimmer krieg ich auch noch beseitigt.
Immer auf PCGamingWiki schauen, sowohl dein RE4 als auch dein Red Dead 2 Problem wäre damit gelöst gewesen.
Auf PCGamingWiki sind zu nahezu jedem Spiel sämtliche wichtigen Verbesserungen & Optimierungen gelistet.
Hier ist auch der Eintrag zum Red Dead 2 Tool für Ultrawidescreen: https://community.pcgamingwiki.com/...-redemption-2-ultrawide-multimonitor-fov-mod/
Für simplen HUD Fix kann es je nach Spiel auch manchmal reichen einfach von Exclusive Fullscreen auf Borderless Fullscreen zu switchen.
 
Zuletzt bearbeitet:
Out of the Box 32:9 Unterstützung gibts leider für viele (ältere) Spiele nicht. Da musst du schon selbst aktiv werden und Hand anlegen. Resident Evil 4 geht sehr wohl in 32:9. Wie gesagt

pcgamingwiki.com und
wsgf.org

solltest du dir einspeichern. Auch die FoV musst du unbedingt anpassen, sonst wird das ganze sehr anstrengend. Optimal ist bei vertikalem FoV 72 und bei horizontalem FoV 137.

Schwarze Balken rechts und links sind nur etwas ungewohnt am Anfang. Später stören sie dich nicht mehr. Das HUD in 16:9 bleibt ist aber oft gewollt sonst geht der Überblick flöten. Charakterstats, Lebensenergie, Muni, ...... willst du im Blickfeld haben und nicht am Rand. Mir passierts oft das ich irgendeine Aktionstaste drücken muss aber das verpenne weil die Meldung rechts oder links im Eck klebt.

Aber abseits vom Spielen ist das Format auch spitze für Audio und Videobearbeitung.
 
Die "Tiger Lake"-Prozessoren werden zwar erst Anfang September offiziell vorgestellt, die ersten Infos von Intel gab es aber bereits heute vorab:


Angeblich soll Intels Tiger Lake eine schnellere Grafikeinheit als AMDs Renoir bieten. Der Vorgänger Ice Lake war da ja chancenlos. :neutral: Man hat zudem auch die drei weitere Generationen bereits angekündigt: Golden Cove – den Nachfolger von Willow Cove, Alder Lake - sozusagen Version 2.0 der Lakefield-Hybrid-Chips (Intels "ARM"-Alternative) und die eher schwächeren Gracemont-Prozessoren (Intel Atom-Architektur).
 
  • Lob
Reaktionen: New
Micron hat wohl die 3080/90 geleakt mit GDDRX6 Ram @21Gbps


Mittlerweile hat Micron auch alles entfernt ;)

Ne 3090 hätte somit 12GB GDDR6X @ ~1000GB/s :banderas:
 
3080 wohl mit 2.1Ghz Max-Turbo + 19 Gbps 10GB-Speicher
 
3080 wohl mit 2.1Ghz Max-Turbo + 19 Gbps 10GB-Speicher
ist das jetzt gut?
 
wenn das der baseclock ist, dann ja. aber extrem unwahrscheinlich, sonst wäre das Ding deutlich schneller als eine 2080ti. so werdens wohl nur 15-20%+

wird insgesamt wohl doch nicht so spannend, Nvidia muss eher mit DLSS und RTX punkten
 

Bedeutet nur, dass die vorherigen Leaks gestimmt haben, sprich 10GB bei der 3080 bei 320Bit Bus und dem schnellsten GDDR-Speicher(6X). Dabei soll es noch eine Variante mit 20GB geben. Dazu noch bei der 3090 eine 12Gb oder 24GB-Version. Der Takt hält sich in Rahmen dessen, schließlich ist es immer noch nicht die 7nm-Fertigung und zudem Samsung bei ihrer Fertigung nicht für die absoluten Taktraten bekannt ist. Bin gespannt auf dem Verbrauch, da Samsung dort auch ab einer gewissen Schwelle zu saufen anfängt. Mal gucken was die Architektur mit sich bringt.
 
Wenn die Samsung 8nm stimmen, haben sie aber eine bessere Packdichte als der 7nm prozess den AMD nutzt und somit würde stimmen das sie nen ordentlichen performance schub hin legen ;)
Weiß nicht mehr was Samsung angegeben hat, aber war ~20% bessere Packdichte und in 7nm erwaten sie 40% bessere Packdichte als TSMC.
NV wiegt so etwas immer gut ab wer wo gewisse vorteile hat, daher war auch die Entscheidung damals 16nm statt wie AMD 14nm am ende die richtige.
Wie gesagt, sofern es stimmt das sie bei Samsung fertigen.
 
woher hast du das mit der Dichte her? Der 8LPP soll doch 10% bessere Density als der 10nm Prozess haben und ist trotzdem noch weit zurück hinter 7nm-Prozess. Glaube es ist 61.2(8LPP) zu 91.2MTr/mm2(7nm) (wobei der verbesserte schon über 100 haben soll). Deswegen werden Nvidia's GPU's größer und die von AMD kleiner von der Chip-Größe.
 
Gelesen, im Reddit wurde das diskutiert als die ersten Gerüchte auf kamen. iirc hats sogar gestern einer im ERA nochmal erwähnt.
Wie gesagt, der 7nm Process ist ~40% effizienter, hab ich ja mal von Samsung damals gepostet und den wolte NV wohl zuerst, aber ist füpr High End noch nicht ready dieses Jahr.

Edit: im ERA meinten sie aber glaub 40% xD so viel war es vom Reddit damals nicht.

Edit2:
Und ja es wurde auch gemeint, das AMD aber beim Takt nen vorteil haben soll, da 8nm Samsung da nicht so toll ist. Aber schon lämger her und nur noch wage im Gedächtnis
 
Zuletzt bearbeitet:
Zurück
Top Bottom