PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Der PC Markt wächst ja auch viel schneller als der Konsolenmarkt, der eigentlich am stagnieren ist.
 
Weil man mit 1 Titan schon alles auf max. mit 60fps oder mehr spielen kann? In 2 Jahren gibts die gleiche Leistung für 3x weniger Geld.

Auch wenn man viel Geld hat, muss man vernünftig damit umgehen.
Kommt immer auf die Ansprüche an. Wenn man mit 120 fps, in 1440p oder ausgiebigen Gebrauch von leistungsforderndem AA und Downsampling machen möchte, reicht eine Titan auch nicht unbedingt aus. In Company of Heroes 2 z.B. komme ich mit meiner 780 Super Jet Stream in 1440p und max nicht auf 120 fps (zu Beginn 90 fps, in der Mitte der Partie 60 fps, bei vollem Kampfgeschehen in 3vs3 oder 4vs4 auch gerne unter 30fps).
 
Der PC Markt wächst ja auch viel schneller als der Konsolenmarkt, der eigentlich am stagnieren ist.
Sieht man letztlich auch an den Verkaufszahlen, letztlich waren es in der Gen so viele sub-HD-Konsolen wie in der letzten, nur die Verteilung war halt anders. Aber solange MS von 1 Millarde verkauften Geräten träumt... :ugly:
Der PC ist viel flexibler und kann sich schneller auf neue Trends einstellen. Mit festgelegter Konsolenhardware und -Software dauert das wesentlich länger. Deshalb wird es ihn auch noch geben wenn es einer wichtigen Firma mal schlecht geht.
 
@Gsync
warum das alles so toll finden verstehe ich nicht
wichtig bei dem monitor ist doch nicht nur die schnelligkeit sondern auch ob das bild gut dagestelt wird (farbe/kontrast backlight)
und grade in dem bereich überschütten sich 144hz monitore nicht grade mit spitzen werten
ich hoffe das prad diese modelle schnellstmöglich testet um klarheit zu schaffen
Gsync sorgt dafür, dass der Monitor eine variable Refreshrate hat, welche sich der Frameausgabe anpasst, kein Stutter, kein Tearing.
Das ist doch das geniale, 40 FPS werden möglich sein ohne Tearing.

Bisher muss man sich halt an die Hz Anzahl vom Monitor orientieren und kann nur eine synchronisierte Bildausgabe erreichen, wenn die FPS mit der Hz Anzahl übereinstimmt oder indem man einen Teiler davon nimmt und die Frames einfach etwas länger anzeigt.

60 Hz --> 60 FPS oder 30 FPS, schafft die GPU keine 60 FPS, z.B. "nur" 55, fallen die FPS sofort auf 30, um synchron mit dem Monitor zu sein.
Dieses herab- und hochschalten zwischen 30 und 60 FPS ist fühlbar und nervig.

Mit Gsync ist das egal, dass ist immer synchron,ohne tearing, ohne stutter.
 
Zuletzt bearbeitet:
Gsync sorgt dafür, dass der Monitor eine variable Refreshrate hat, welche sich der Frameausgabe anpasst, kein Stutter, kein Tearing.
Das ist doch das geniale, 40 FPS werden möglich sein ohne Tearing.

Bisher muss man sich halt an die Hz Anzahl vom Monitor orientieren und kann nur eine synchronisierte Bildausgabe erreichen, wenn die FPS mit der Hz Anzahl übereinstimmt oder indem man einen Teiler davon nimmt und die Frames einfach etwas länger anzeigt.

60 Hz --> 60 FPS oder 30 FPS, schafft die GPU keine 60 FPS, z.B. "nur" 55, fallen die FPS sofort auf 30, um synchron mit dem Monitor zu sein.
Dieses herab- und hochschalten zwischen 30 und 60 FPS ist fühlbar und nervig.

Mit Gsync ist das egal, dass ist immer synchron,ohne tearing, ohne stutter.
und ändert doch nix an meiner aussagen wenn dafür die bild qualität und ausleuchtung scheisse ist
für mich solte nen monitor nen auch noch nen gutes bild darstellen nicht nur nen schnelles ohne schlieren oder inputlag
aber bisher prallt man bei nvidia nur mit der kopplung der fpu an die hz zahl des monitors und derern nebeneffekte
 
und ändert doch nix an meiner aussagen wenn dafür die bild qualität und ausleuchtung scheisse ist
für mich solte nen monitor nen auch noch nen gutes bild darstellen nicht nur nen schnelles ohne schlieren oder inputlag
aber bisher prallt man bei nvidia nur mit der kopplung der fpu an die hz zahl des monitors und derern nebeneffekte
Es kommen mehrere Monitore nicht nur einer. Da sind sicher auch welche mit guter bildqualität dabei.
If you prefer to simply buy a monitor off the shelf from a retailer or e-tailer, NVIDIA G-SYNC monitors developed and manufactured by monitor OEMs will be available for sale next year. These monitors will range in size and resolution, scaling all the way up to deluxe 3840x2160 “4K” models, resulting in the ultimate combination of image quality, image smoothness, and input responsiveness.
 
und ändert doch nix an meiner aussagen wenn dafür die bild qualität und ausleuchtung scheisse ist
für mich solte nen monitor nen auch noch nen gutes bild darstellen nicht nur nen schnelles ohne schlieren oder inputlag
aber bisher prallt man bei nvidia nur mit der kopplung der fpu an die hz zahl des monitors und derern nebeneffekte
Ich habe jetzt die letzten Seiten davor nicht gelesen, mir aber schon ausgemalt, dass du wohl auf die relativ "hässlichen" TN-Panels ansprichst.
Irgendwo war etwas mit einem IPS Monitor, in naher/ferner Zukunft vllt.

Naja mir wurscht, prinzipiell eine sau coole Sache, aber nur Nvidia exklusiv und dann müssen noch gute Monitore mit guter Bildqualität und großen Betrachtungswinkel damit kommen.
 
btw, es gibt auch User hier die bezahlen 1300€ für GPUs, und 500€ für CPU, weil sie es einfach können/wollen.
Guck dir mal die Signatur an:
http://www.consolewars.de/messagebo...ind-Waker-HD?p=4974132&viewfull=1#post4974132

post-26056-Antonio-Banderas-computer-reac-cWjn.gif
 
Ich habe jetzt die letzten Seiten davor nicht gelesen, mir aber schon ausgemalt, dass du wohl auf die relativ "hässlichen" TN-Panels ansprichst.
Irgendwo war etwas mit einem IPS Monitor, in naher/ferner Zukunft vllt.

Naja mir wurscht, prinzipiell eine sau coole Sache, aber nur Nvidia exklusiv und dann müssen noch gute Monitore mit guter Bildqualität und großen Betrachtungswinkel damit kommen.

der erste der mit nvidias toler technik kommen soll ist nen TN panel so wie alle anderen monitore die über 120hz liegen

@shamanu der monitor hat nur nen TN panle da eine gute bildqualität zu bekommen ist selten, bei 144hz nahe zu unmöglich
da müsten die schon nen IPS panle verbauen die nvidias tolle technik verwendet nur sind diese im vergleich zu TN deutlich lagsamer
 
@shamanu der monitor hat nur nen TN panle da eine gute bildqualität zu bekommen ist selten, bei 144hz nahe zu unmöglich
da müsten die schon nen IPS panle verbauen die nvidias tolle technik verwendet nur sind diese im vergleich zu TN deutlich lagsamer
Und das Asus TN Panel ist nur das erste Display. Ich habe auch zwei ips teiler von Asus hier und sehe keinen Grund wiso sie das nicht auch in diesen verbauen sollten. Der Vorteil kommt ja nicht nur bei 144hz sondern vorallem bei schwankungen zwischen 30-60fps.
Ein 40fps bild mit G-Sync sollte da zb flüssiger sein wie 50fps mit vsync.
 
John Carmack äußerte sich auf einem Nvidia-Event in Montreal zu AMDs Mantle. Er glaubt, dass Nvidias OpenGL-Erweiterungen mit Mantle konkurrieren könnten. Ferner denke er, dass Spiele mit 8 GByte auf Konsolen nicht besser aussehen werden als auf PCs mit 4 GByte.

Derzeit sind die Meinungen von Spieleentwicklern besonders gefragt. Nicht nur, dass ohnehin schon lange über die Vor- und Nachteile der Hardwarezusammensetzung von Xbox One und Playstation 4 gestritten wird, auch AMD und Nvidia versuchen mit immer neuen Ideen für die Spieleentwicklung auf sich aufmerksam zu machen. Zuletzt gelang das AMD mit der Ankündigung von Mantle. Die ausbleibende Unterstützung der Grafikschnittstelle durch Sony und Microsoft erzeugte jedoch einen kleinen Dämpfer.

Am Freitag äußerte sich John Carmack vor versammelten Publikum über AMDs Mantle. Die Besonderheit: Dies geschah während einem Event von Nvidia in Montreal. Er habe Mantle bereits ausprobieren können, würde dies aber derzeit nicht für die Entwicklung verwenden. Es sei zwar nicht dumm von AMD so etwas zu versuchen, doch glaubt er, dass Sony und Microsoft nicht mitziehen würden. Nvidia könne durchaus mit seinen OpenGL-Erweiterungen mit Mantle in Konkurrenz treten. Schon Anfang Oktober äußerte sich Carmack kritisch gegenüber Mantle. Nvidia könne die gleichen Verbesserungen mit OpenGL anbieten, wie AMD mit Mantle.

Carmack kommentierte ferner auf Twitter den Einsatz von 8 GByte Arbeitsspeicher in den neuen Konsolen von Sony und Microsoft. Er konstatierte allerdings , dass der zusätzliche Arbeitsspeicher von Playstation 4 und Xbox One nicht dafür sorge, dass Spiele besser aussehen, als auf einem PC mit 4 GByte Arbeitsspeicher. Der erweiterte Arbeitsspeicher könne jedoch bei der Entwicklung der Spiele helfen. Diese würde dadurch einfacher und schneller vonstatten gehen.

http://www.pcgameshardware.de/Spiel...rweiterungen-Mantle-8-GByte-Konsolen-1093478/
 
Das er das auf einem Nvidia Event gesagt hat, dass reicht schon.
 
John Carmack hat mit Nvidia nichts zu tun, wurde nur auf das Event eingeladen um seine Meinung zu G-Sync zu äußern. Er zählt zu den besten und renommiertesten Entwicklern der Welt, und auf seine Aussagen kann man sich besonders in Bezug auf Programmier-Schnittstellen eigentlich immer verlassen. Mantle ist nichts anderes als ein verzweifelter Versuch seitens AMD, sich wieder bei den Grafikkarten ins Gespräch zu bringen. Diesen armseligen Versuch hat Nvidia aber perfekt gekontert mit G-Sync.
 
Mantle ist nichts anderes als ein verzweifelter Versuch seitens AMD, sich wieder bei den Grafikkarten ins Gespräch zu bringen.

Mantle wurde aber von DICE (und anderen Entwicklern) "gefordert", AMD hat es dann mit Feedback von diesen umgesetzt. Ob proprietäre OpenGL-Erweiterungen von Nvidia (welche anscheinend auch nur auf Nvidia-Grafikkarten funktionieren) "besser" sind, ist fraglich.


Diesen armseligen Versuch hat Nvidia aber perfekt gekontert mit G-Sync.

G-Sync ist etwas komplett anderes und erfordert zudem einen kompatiblen Monitor (welche es zur Zeit nicht gibt) oder einen selbstständigen Umbau, wobei dies auch nur bei bestimmten Monitoren funktioniert (momentan gibt es nur einen Asus-Monitor dafür). Die Technik an sich ist aber recht interessant, wobei wieder Nvidia-typisch die hohe Wahrscheinlichkeit besteht, dass man hier einen proprietären Standard durchdrücken möchte.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom