PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Ah also hoffen wir drauf das es einfach jetzt kommt?

Ok dann hat sich das erledigt :v:

lol nein, ich hoffe gar nichts. (wenn dann hoffe ich, dass nvidia so stark wie noch nie wird, damit ich weg von amd kann :P)

Aber du deutest hier ja an dass nvidia jeden scheiß abziehen könnte ohne dass das konsequenzen für sie hätte
 
Während sich aber sowas wie Physik X allgemein durchgesetzt hat und immer stärker kommt ist Mantel quasi totgeburt

Mantle wird jetzt in OpenGL(Vulcan) integriert werden und dank Mantle war MS genötigt mal butter bei den Fischen in Sachen DX12 zu machen. Hat also zumindest für uns Gamer seinen Zweck erfüllt ;)
 
lol nein, ich hoffe gar nichts. (wenn dann hoffe ich, dass nvidia so stark wie noch nie wird, damit ich weg von amd kann :P)

Aber du deutest hier ja an dass nvidia jeden scheiß abziehen könnte ohne dass das konsequenzen für sie hätte

Nö ich deute nur drauf hin das kein Preisschlacht geben wird weil Nvdia sein Kopf idr. immer durchsetzt

Mantle ist jetzt in OpenGL integriert worden und dank Mantle war MS genötigt mal butter bei den Fischen in Sachen DX12 zu machen. Hat also zumindest für uns Gamer seinen Zweck erfüllt ;)

Ja aber das war nicht die Frage :kruemel: Effektiv ist Nvdia einfach lichtjahre Weiter was "zwang" und bindung angeht
 
deswegen die Preissenkungen bei der alten Titan? :ugly:

Und was ist daran jetzt ne Preisschlacht? Wurde die PS2 im preisgesenket wegen der Gamecube oder was?

Nennt sich Preisdifferenzierung

Führt zu mehr cash

Kundenschichten mit der Zeit abschöpfen und so, macht auch ein Monopolist
 
lol nein, ich hoffe gar nichts. (wenn dann hoffe ich, dass nvidia so stark wie noch nie wird, damit ich weg von amd kann :P)

Aber du deutest hier ja an dass nvidia jeden scheiß abziehen könnte ohne dass das konsequenzen für sie hätte

Keine Ahnung was du hast, ich hatte bisher 3 Nvidia und 4 ATi/AMD Karten in meinen PCs und hatte weder noch Probleme. Man darf eben nicht zu den billigen Referenzdesigns greifen zB. Hat meine Radeon HD6870 statt 900MHz 1030MHz(seit 3 Jahren) und läuft damit auf dem Niveau einer HD6950. Einfach weils nen Top Kühler von Asus drauf gab und die Temperaturen gehen auch unter Volllast nicht über 70 Grad. Ähnliches OC Potential habe auch altuelle Lösungen seitens AMD und mit der R9 380/390 Serie tun sich gewiss neue Höhen auf.

Bei AMD kannst aus ner R9 280 X die Performance einer r9 290 rausholen. ..


Bei Nvidia verkauft man dir 64 ROPs für 350 Euro und 4GB um nach 2 Monaten zuzugeben, dass es nur 56 Rops sind und nur 3,5GB schnell angebunden wurden :lol:
 
Zuletzt bearbeitet:
Keine Ahnung was du hast, ich hatte bisher 3 Nvidia und 4 ATi/AMD Karten in meinen PCs und hatte weder noch Probleme. Man darf eben nicht zu den billigen Referenzdesigns greifen zB. Hat meine Radeon HD6870 statt 900MHz 1030MHz(seit 3 Jahren) und läuft damit auf dem Niveau einer HD6950. Einfach weils nen Top Kühler von Asus drauf gab und die Temperaturen gehen auch unter Volllast nicht über 70 Grad. Ähnliches OC Potential habe auch altuelle Lösungen seitens AMD und mit der R9 380/390 Serie tun sich gewiss neue Höhen auf.
ich habe die 300€ günstige 7950 bei mir drin und die ist mir nicht abgestürzt etc.
Nvidia hat trotzdem noch die besseren Treiber/Optionen und ich vermisse PhysX, auch wenn PhysX nur ne Kleinigkeit ist

Und was ist daran jetzt ne Preisschlacht? Wurde die PS2 im preisgesenket wegen der Gamecube oder was?

Nennt sich Preisdifferenzierung

Führt zu mehr cash

Kundenschichten mit der Zeit abschöpfen und so, macht auch ein Monopolist

so schnell in den Stufen? Und du bist dir sicher dass die da nicht ein klein wenig druck gespürt haben? (egal von wo)
 
so schnell in den Stufen? Und du bist dir sicher dass die da nicht ein klein wenig druck gespürt haben? (egal von wo)

Nun der GPU Markt istauch bissle schnelllebiger als jetzt mein Bsp. würde ich meinen :v:

Und ne natürlich kann man net sagen sie haben gar kein Druck von nirgendwo gespürt, gibt ja auch andere Faktoren aber so ein Direktkonkurrenz wie in der anderen branchen gibts im klassichen Hardwarebereich nicht bei CPU und GPU, zumindestens atm.
 
PhysX werden bald die intel CPUs regeln, die langweilen sich unter DX12 sowieso zu Tode :v:

Außerdem ist es ja nicht so, als würde PhysX keine HW Power der GPU verschlingen, je nach Qualität gibts teils enorme Performance einbußen...

Borderlands 2 war jetzt auch kein schlechteresSpiel nur weil hier und da keine Kiesel durch die Gegend flogen ;)
 
Zuletzt bearbeitet:
Während sich aber sowas wie Physik X allgemein durchgesetzt hat und immer stärker kommt ist Mantel quasi totgeburt
wo hat sich physx durchgesetzt
nvidia must open source gehen damit damit es in zukunft überleben kann opencl und direct comput sind ja auch noch da
und was uns nvidia in den letzten jahren so tolles gebracht bei amd/ati wissen wir es ja mantel, gddr3, hbm, truform usw..
physx ist ja noch nicht mal auf nvidias buckel gewachsen sie haben die firma hinter physx einfach gekauft und es eingebaut

PhysX werden bald die intel CPUs regeln, die langweilen sich unter DX12 sowieso zu Tode :v:

Außerdem ist es ja nicht so, als würde PhysX keine HW Power der GPU verschlingen, je nach Qualität gibts teils enorme Performance einbußen...

Borderlands 2 war jetzt auch kein schlechteresSpiel nur weil hier und da keine Kiesel durch die Gegend flogen ;)

vorallem da physx jetzt open source ist können die entwickler da mal das machen zu dem nvidia ja nicht im stande ist
 
Borderlands 2 war jetzt auch kein schlechteresSpiel nur weil hier und da keine Kiesel durch die Gegend flogen ;)

mir hat da was gefehlt (vor allem Wasser), gleiches gilt für den Schnee in Batman

Ist genauso wie mit den Footprint Mod in Skyrim: kennt man es nicht, dann vermisst man es nicht. Aber kennt man es, dann will man nicht mehr ohne, egal wie klein das Detail ist. (und ja, imho ist die immersion bei Skyrim allein wegen der Footprint Mod deutlich höher als ohne)
 
vorallem da physx jetzt open source ist können die entwickler da mal das machen zu dem nvidia ja nicht im stande ist
Das ging an mir Spurlos vorbei. Ob sie den Code Richtung AMD optimieren (können) steht aber auf einem anderen Blatt, können AMD GPUs es überhaupt aktivieren? Bislang gabs ja nur die Option CPU oder Nvidia GPU...

Aber auch kein besseres Spiel ;)

Wenn ich für die Kiesel eine stabilere Framerate opfern muss, dann brauch ich keine :nix:
 
Das ging an mir Spurlos vorbei. Ob sie den Code Richtung AMD optimieren (können) steht aber auf einem anderen Blatt, können AMD GPUs es überhaupt aktivieren? Bislang gabs ja nur die Option CPU oder Nvidia GPU...
naja
ich zitire mal aus wiki da es ne kleine einfach zusammen fassung ist

Im März 2015 kündigte Nvidia in Teilen die kostenlose Freigabe des PhysX-Quellcodes auf Github an, mit Beschränkung auf die CPU-berechnete Codeteile. Die auf CUDA aufbauende GPU-Variante blieb von dem Angebot ausgenommen. Interessenten müssen sich außerdem vor Freigabe bei Nvidias Entwicklerprogramm registrieren und den Nutzungsbedingungen zustimmen

ganz open ist es so zumindest für mich nicht aber besser als bisher wird es scho sein da man cpu seitig man optimieren kann

zwar hat sich schon so bei physx viel getan aber durch die "" öffnung "" könnt man noch mehr erreichen
gutes beispiel dafür das sich physx weiter entwicklet hat ist xcom declassified die cloth simulation (das animiern und zerstören von stoffen) läuft auf meinem cpu ohne fps einbuße
 
Naja PhysX ist ja nicht die einzige Physik Engine am Markt... Ich denke Dinge wie Physik hat die CPU zu berechnen und Dank den enormen Verbesserungen von Direct X12 seitens der CPU Auslastung kanns eigentlich nur besser werden. Spannende Zeit die auf uns zukommt :)

"The Way It's Meant to Be Played" Spiele werden aber wohl weiterhin physiktechnisch so schlecht wie möglich auf CPUs laufen :ugly:
 
Naja PhysX ist ja nicht die einzige Physik Engine am Markt... Ich denke Dinge wie Physik hat die CPU zu berechnen und Dank den enormen Verbesserungen von Direct X12 seitens der CPU Auslastung kanns eigentlich nur besser werden. Spannende Zeit die auf uns zukommt :)

"The Way It's Meant to Be Played" Spiele werden aber wohl weiterhin physiktechnisch so schlecht wie möglich auf CPUs laufen :ugly:

nicht umbedingt entwickler können es ja an die cpu auslastung anpassen wenn sie physik auf der cpu
alle effekte wird dann sicher nicht bekommen da einige ja nur über die gpu laufen die grund funktione könnte man von der leistung her deutlich verbessern

wie gesagt solche effekte hier
[video=youtube;pQJlpMwyK5Q]https://www.youtube.com/watch?v=pQJlpMwyK5Q[/video]
laufen bei xcom auf der cpu ohne fps verlust obwohl sie nicht an die cpu angepast sind


aber komisch finde ich es schon das nvidia nur denn cpu teil ""open"" machen, haben wohl angst das amd gpu dennen dan davon laufen in sachen physik berechnung
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom