PS4 Playstation 4

Kauft ihr die PS4 direkt zum launch?


  • Stimmen insgesamt
    194
Status
Nicht offen für weitere Antworten.
Jo, das mag auf dem PC so sein und ist auch grundsätzlich technisch richtig, aber funktioniert so nicht bei Konsolen. Man sieht ja sehr schön an allen möglichen Spielen, wo z.B. an AA und AF heftig gespart wird um die Grafik oder die Gesamtperformance zu verbessern. Natürlich ist es auf der PS3 leichter gutes AA und gute Grafik zu erreichen wie auf PS2, aber wenn´s nicht reicht, wird weiterhin einfach da gespart.
Ich kann in deinem Post keinen einzigen Grund erkennen warum das was ich geschrieben habe nicht zutrifft. Das waren meine Behauptungen:
  1. Zukünftige Konsolen werden bei AA/AF-Filtern deutlich weniger Leistung verlieren als die PS3, dadurch wird der Einsatz quasi ein "No-Brainer"
  2. AA/AF wird immer wichtiger je besser die Assets sind
  3. AA/AF bedeuten im Schnitt viel weniger Arbeitsaufwand als jedes andere grafische Feature
Klar wird es nächste Gen auch noch immer Spiele ohne AA (ohne AF kann ich mir nicht vorstellen) geben aber die werden deutlich weniger, einfach weil es um Dimensionen wichtiger sein wird und kaum Leistung kostet im Gegensatz zu heutigen Konsolen. Das ist ja der Haken an der Geschichte auf den du gar nicht eingehst. ;-)

Katana schrieb:
und die graka in der ps4 wird sicherlich besser als die beste graka 2009...
Da wäre ich mir nicht so sicher.

Katana schrieb:
und was würde daran jetzt das game grafisch merklich ändern? UC2 hat schon gestochen scharfe texturen man kann sie natürlich noch höher auflösen aber man wird keinen unterschied sehen... das ist wie mit noch mehr polygonen das ist einfach nutzlos...
und anderes lighting? was ist am UC2 lighting schlecht alle objekte die sich bewegen werfen echtzeitschatten etc. du könntest höchstens alles wie in crysis in echtzeit berechnen lassen... frisst enorme ressourcen bringt aber keinen optischen nutzen
Ich könnte hier jetzt 20 Seiten schreiben was man an Spielen noch alles verbessern kann und warum der aktuelle Ansatz nicht reicht ohne dabei Spielentwickler gleich bankrott zu erklären. Beispielsweise besseres Motion Blur, Depth of Field, Animationen, die Darstellung von Haaren und Gras, Partikelsystemen, besseres Level of Detail, indirekte Beleuchtung, Reflexionen, HDRR, Flüssigkeitssimulation, analytisches Anit-Aliasing und Micropolygon-Engines.

Katana schrieb:
erst wenn die hardware so weit ist um etwas was besser und größer als crysis darzustellen könnte man von einem "generationssprung" sprechen... und davon ist man noch weit entfernt...
Crysis ist kein guter Maßstab um abzuschätzen was mit heutiger Hardware machbar ist. Einerseits reicht dafür ein einziges Spiel ohnehin nicht, anderersits ist das Setting auch technisch so ziemlich das Anspruchsvollste das man wählen könnte. Ein God of War 3 auf aktuelle Hardware optimiert wäre beispielsweise deutlich beeindruckender als Crysis, auf zukünftiger könnte es sogar ziemlich stark an CGI-Qualität kratzen. Das Problem ist unsere aktuelle Rendering-Pipeline ist zu unflexibel um viele Probleme effizient zu lösen, man braucht neue Ansätze und nicht nur einfach mehr Leistung. Solche Dinge brauchen einfach eine gewisse Zeit, für jedes Problem gibt es 10 Lösungen und wenn man eine neue Konsole auf den Markt wirft sollte man besser auf die richtigen Lösungen setzen. So oder so wird die Hardwareleistung für gute Grafik zukünftig immer unwichtiger werden weil alle notwendigen Techniken vorhanden sind, es liegt ganz alleine an den Artists was draus zu machen.

Katana schrieb:
man kann natürlich immer etwas verbessern statt 200k polygone pro wagen in GT5 nimmt man eben 5mio polygone aber der laie wird den unterschied nicht merken jedoch ist es für die designer ein gewaltiger mehr aufwand...
Ist es nicht, es ist sogar weniger Aufwand. 3D-Modelle werden immer mit x-Millionen Polygonen erstellt und dann heruntergerechnet bis es leistungsmäßig passt. Auch dazu habe ich eine nette Folie. ;-)
u9t6zp3s.jpg
 
Zuletzt bearbeitet:
Ich kann in deinem Post keinen einzigen Grund erkennen warum das was ich geschrieben habe nicht zutrifft. Das waren meine Behauptungen:
  1. Zukünftige Konsolen werden bei AA/AF-Filtern deutlich weniger Leistung verlieren als die PS3, dadurch wird der Einsatz quasi ein "No-Brainer"
  2. AA/AF wird immer wichtiger je besser die Assets sind
  3. AA/AF bedeuten im Schnitt viel weniger Arbeitsaufwand als jedes andere grafische Feature
Klar wird es nächste Gen auch noch immer Spiele ohne AA (ohne AF kann ich mir nicht vorstellen) geben aber die werden deutlich weniger, einfach weil es um Dimensionen wichtiger sein wird und kaum Leistung kostet im Gegensatz zu heutigen Konsolen. Das ist ja der Haken an der Geschichte auf den du gar nicht eingehst. ;-)

Doch, das habe ich schon verstanden ;-), aber Ausgangspunkt war ja, dass man alleine mit viel AA/AF heutigen Grafiken nur noch verbessern wird, während der Rest mehr oder weniger auf diesem Niveau stehenbleibt.

Letzte Generation, angefangen mit der PS2 jedenfalls, war Anti-Aliasing ja das große Thema. Diese Generation war HDR/AA das große Thema zu Launch. MS hat bei der X360 das ganze System ja so ausgelegt, dass Anti-Aliasing quasi "for Free" ist. Dennoch gibt es auch auf der X360 jede Menge Spiele, die vor Aliasing nur so strotzen. Was ich damit sagen will: Natürlich wird der Einsatz von diesen Dingen zunehmen, da sie immer weniger Rechenleistung fordern. Beim PC ist das Thema etwas anders, weil es da derjenige halt zuschaltet, der die Leistung hat, auf Konsole bestimmt aber der Entwickler alleine, was drin ist und was nicht. Und da wird, erfahrungsgemäß, immer als erstes an Dingen wie AA / AF / V-Sync gespart. Ich kann den Leistungsverlust beim Zuschalten dieser Features nicht genau abschätzen, aber selbst auf meiner alten GeForce 6800 habe ich bsp. bei Far Cry oder Doom oder Half-Life 2 kaum ein Absinken der Framerate bemerkt, wenn ich AA oder V-Sync aktiviert hatte. Dennoch haben zur Zeit zum Beispiel sehr viele Spiele mit Tearing zu kämpfen, obwohl man das auch einfach "abschalten" könnte. Und das ist der Punkt: Sicher kosten diese Features immer weniger Leistung und sind (theoretisch) einfach zu implementieren, dennoch wird es auch auf einer PlayStation 4 genug Spiele geben, diese diese Features zugunsten besserer Grafik, Performance etc. nicht haben. Und da das "AA for Free" bei der X360 in der Praxis schon nicht wirklich funktioniert, erwarte ich hier auch bei der nächsten Generation nur geringfüfige Änderungen, selbst wenn die Features selbst immer weniger Power benötigen.

@Katana
Ich meine das Teil auf der Waffe, kA was es sein soll... jedenfalls ist es nicht rund :-P
 
Da wäre ich mir nicht so sicher.

naja ich geh davon aus das die nächste gen um 2014 kommt also denk ich schon das man da ne 5 jahre alte graka verbaut ;) (von der leistungsfähigkeit her)

Ich könnte hier jetzt 20 Seiten schreiben was man an Spielen noch alles verbessern kann und warum der aktuelle Ansatz nicht reicht ohne dabei Spielentwickler gleich bankrott zu erklären. Beispielsweise besseres Motion Blur, Depth of Field, Animationen, die Darstellung von Haaren und Gras, Partikelsystemen, besseres Level of Detail, indirekte Beleuchtung, Reflexionen, HDRR, Flüssigkeitssimulation, analytisches Anit-Aliasing und Micropolygon-Engines.

klar kann man viel verbessern aber für mich sind das ehrlich gesagt verbesserungen im detail... ich mein die wenigstens merken überhaupt den unterschied zwischen echtem fp32 HDRR und irgendwelchem fake HDRR was oft in spielen zum einsatz kommt...
es sieht natürlich alles besser aus aber imo eher im detail... solange man keine polygonkanten sieht und die texturen knackscharf sind kann man imo keinen gewaltigen grafiksprung machen... man kann es im detail verbessern aber um ein anderes bild zu bekommen (realistischer) müsste man auch den stil ändern...
ich rede von einem sprung wie J&D auf Uncharted (also das beste was ND letzte gen gemacht hat und das erste was sie diese gen gemacht haben) das ist für mich ein gewaltiger sprung... ob ich da jetzt mehr polygone habe oder noch schärfere texturen besseres lighting etc. ich würd das auf dem bild ja trotzdem nicht sehen... ok was man bemerken würde wär wahrscheinlich AA/AF motion blur und das dof (weil das bild bei besseren einsatz nicht überall so extrem matschig wirken würde)


Crysis ist kein guter Maßstab um abzuschätzen was mit heutiger Hardware machbar ist. Einerseits reicht dafür ein einziges Spiel ohnehin nicht, anderersits ist das Setting auch technisch so ziemlich das Anspruchsvollste das man wählen könnte. Ein God of War 3 auf aktuelle Hardware optimiert wäre beispielsweise deutlich beeindruckender als Crysis, auf zukünftiger könnte es sogar ziemlich stark an CGI-Qualität kratzen. Das Problem ist unsere aktuelle Rendering-Pipeline ist zu unflexibel um viele Probleme effizient zu lösen, man braucht neue Ansätze und nicht nur einfach mehr Leistung. Solche Dinge brauchen einfach eine gewisse Zeit, für jedes Problem gibt es 10 Lösungen und wenn man eine neue Konsole auf den Markt wirft sollte man besser auf die richtigen Lösungen setzen. So oder so wird die Hardwareleistung für gute Grafik zukünftig immer unwichtiger werden weil alle notwendigen Techniken vorhanden sind, es liegt ganz alleine an den Artists was draus zu machen.

klar liegt auch daran weil ein GoW3 eine feste kamera hat und weil auch der stil eher zulässt CGI zu erreichen... crysis geht doch eher richtung realität und davon ist es meilenweit entfernt...


Ist es nicht, es ist sogar weniger Aufwand. 3D-Modelle werden immer mit x-Millionen Polygonen erstellt und dann heruntergerechnet bis es leistungsmäßig passt. Auch dazu habe ich eine nette Folie. ;-)
u9t6zp3s.jpg

mir ging es nicht um den aufwand das modell zu erstellen sondern das der laie keinen unterschied sieht aber mehr polygone mehr leistung brauchen, leistung die man vielleicht für etwas anderes verwenden könnte...

ich denke einfach das der benötigte leistungssprung der hw so gewaltig ist um überhaupt einen so großen sichtbaren grafiksprung (J&D->uncharted+ kA was da diese gen noch so kommt) zu erreichen das es für sony und die entwickler unwirtschaftlich ist diesen anzustreben wenn man nicht wieder die HW völlig am markt vorbei entwickeln will...
ich mein heutige games kommen fast an CGI filme ran (Wenn man hauptsächlich vom AA/AF absieht) um da jetzt noch eine deutliche optische schippe draufzulegen ist ein vielfaches an leistung nötig (physik, KI, fluidsimulation, lighting, etc. all das muss auch besser werden und nur wenig ist davon optisch sofort zu sehen braucht aber dennoch leistung)
daher denke ich das es eher ein "kleines" hw update geben wird das auf alle fälle reicht um in 1080p@60fps die games dieser gen mit AA/AF darzustellen mit sonstigen verbesserungen wie vsync und stabiler framerate... es wird natürlich auch optisch etwas beser aber kein großer generationssprung wie bisher

@frames
hab das eckige teil (was rund sein sollte) noch nicht gefunden :ugly:

aber ich denke du willst aussagen das man die gewonnene power eben nicht wie ich sage für ein stabileres spiel und mehr AA/AF einsetzen wird (wobei imo AA/AF der hauptgrund ist waru mheutige spiele teilweise richtig mies aussehen) sondern das die entwickler die gewonnen ressourcen für mehr polygone, besseres lighting, physik, fluidsimulation, haarsimulation, etc. einsetzen wird und dann am ende wieder nichts für AA/AF über bleibt
 
Zuletzt bearbeitet:
aber ich denke du willst aussagen das man die gewonnene power eben nicht wie ich sage für ein stabileres spiel und mehr AA/AF einsetzen wird (wobei imo AA/AF der hauptgrund ist waru mheutige spiele teilweise richtig mies aussehen) sondern das die entwickler die gewonnen ressourcen für mehr polygone, besseres lighting, physik, fluidsimulation, haarsimulation, etc. einsetzen wird und dann am ende wieder nichts für AA/AF über bleibt

Japp, genau das erwarte (befürchte) ich. :-)
 
@Katana: Ich glaube, du überschätzt AA und AF hier etwas. Einige matschige Texturen in Uncharted sind in erster Linie deshalb matschig, weil sie gering aufgelöst sind.
Und sorry, aber Uncharted, Gears, God of War 3 & Co. sind so weit von heutiger CGI-Qualität entfernt wie der Himmel von der Hölle.
Es gibt ja außerdem nicht nur die CGI-Filmchen im Comic-Look, computergenerierter Content ist in heutigen größeren Hollywoodproduktionen nicht mehr wegzudenken (selbst der erste Herr der Ringe Film verwendet computergenerierten Content im Film). Und mit der dort zum Teil anzutreffenden Qualität hat alles, was die PS3 fähig ist (selbst, wenn es AA und AF for free gäbe) darzustellen, überhaupt gar nichts zu tun.
Auch das, was wir nächste Generation - selbst wenn es einen großen Techniksprung geben sollte - sehen werden, wird damit noch überhaupt nichts zu tun haben.

Man sieht es ja auch an aktuellen PC-Titeln: Die bieten Uncharted und Killzone Optik - aber in beliebig hoher Auflösung mit vollem AA und AF - und dennoch ist das genausowenig mit CGI-Renders zu vergleichen wie ein Fiat Panda mit einem Koenigsegg CCXR.
 
Zuletzt bearbeitet:
ich glaub ihr versteht mich falsch... ich meine das man so gewaltig viel leistung benötigt um wieder einen so großen sprung wie last gen auf diese zu bekommen das sie das für die konsolenhersteller gar nicht lohnt... ein crysis zB sieht nunmal keine gen weiter aus selbst mit allem auf maximum ultra config und mods und frisst ein vielfaches an leistung...
und klar gibt es CGI was fast real aussieht liegt aber auch daran weil da nur ein teil CGI und ein teil echt ist... hab mich eher auf pixar filme (oder ähnliche) bezogen welche durch ihren stil leichter zu erreichen sind... oder sehen R&C bullshots so viel schlechter aus? ok R&C geht mehr in eine ziemlich glänzende richtung (stil) aber dennoch... hab vor zwei wochen ice age 1 gesehen und das sieht nicht mehr besonders utopisch aus... vor allem die karge gegend und die eher schwachen texturen dürften kein problem sein... das man den polycount nicht erreicht ist schon klar aber die meisten sehn ja keinen unterschied zwischen low poly und highpoly bei richtiger texturierung

und warum sollten die texturen in UC niedrig aufgelöst sein? sehen doch aus der richtigen entfernung (also in einer wo AF überflüssig ist) knackscharf aus... denke in 10 jahren wenn man UC mal am pc emulieren kann wird man staunen wie das game hätte aussehen können...
bsp HL ohne/mit AF
hl2%201xAA%201xAF.png

hl2%201xAA%2016xAF.png
und jetzt münz es auf UC um... denke da ist einiges drin...
uncharted529k.jpg

uncharted-drakes-fortune-interview-20071210072841015.jpg
stells dir vor... ohne nebelwand ohne zermatschte texturen in der entfernung ohne aliasing... also ein gestochen scharfes bild eben...

oder halt ein R&C mit MS/SSAA anstatt FSAA (zermatschtes bild)
ratchet-and-clank-future-a-crack-in-time-20090723033859137.jpg
was will man da jetzt großartig verbessern ohne den stil zu ändern?

ich meine sieh dir die ps2 spiele am emu an... sehen die soo viel schlechter aus wie aktuelle games? (bis auf die matschigen texturen und fehlenden effekten etc.)
FF12 mit downsampling
gsdx20090816163043.jpg
so sehen PS2 games in höherer auflösung und AA (dank downsampling) aus...
 
Zuletzt bearbeitet:
naja ich geh davon aus das die nächste gen um 2014 kommt also denk ich schon das man da ne 5 jahre alte graka verbaut ;) (von der leistungsfähigkeit her)
Warum vergleichst du dann immer alles mit Crysis? 2012 kommt schon die CryEngine 4 und die wird kein simples Update sondern ein von Grund auf überarbeiteter Renderer. Der Unterschied wird nicht kleiner sein als von Far Cry auf Crysis, zumal das Level heutiger CGI-Filme Cryteks erklärtes Ziel ist.

Katana schrieb:
klar kann man viel verbessern aber für mich sind das ehrlich gesagt verbesserungen im detail... ich mein die wenigstens merken überhaupt den unterschied zwischen echtem fp32 HDRR und irgendwelchem fake HDRR was oft in spielen zum einsatz kommt...
es sieht natürlich alles besser aus aber imo eher im detail...
Den Unterschied merkt jeder, man weiß nur nicht woher er kommt. Genauso wie jeder den Unterschied zwischen 1xAA und 4xAA merkt. Der Punkt ist, heute ist der Content um Dimensionen teurer als die Technik dahinter. Man wird keine Chance auslassen die Technik zu verbessern wenn das gemessen am Gesamtbudget so wenig Geld kostet und 1x implementiert jeglichen Content aufwertet.

Katana schrieb:
solange man keine polygonkanten sieht und die texturen knackscharf sind kann man imo keinen gewaltigen grafiksprung machen...
Wo ist dann das Problem? Heute sieht man in jedem Spiel Polygonkanten und unscharfe Texturen, das liegt nicht nur an schlechter Texturfilterung wobei die Möglichkeiten alleine durch bessere Assets zu überzeugen natürlich begrenzt sind. In GT6 wird man mittels Raytracing (wohlgemerkt nur für die Reflexionen) auch noch ein gutes Stück herausholen können auch wenn die Wagen bereits genug Polygone haben. Sieh dir mal die Demos von Realtime Technologies an, das ist schon deutlich besser als GT5. Von der Umgebung wollen wir da mal noch gar nicht reden. ;-)

Katana schrieb:
man kann es im detail verbessern aber um ein anderes bild zu bekommen (realistischer) müsste man auch den stil ändern...
Die Industrie wäre bescheuert die Realität nachzubilden oder findest du die Realität optisch interessanter als CGI-Filme? Es ist schon volle Absicht, dass man in Filmen wie Avatar weit von der Realität abweicht, selbst bei gewöhnlichen Szenen wie einem Wald. Es ist wichtiger denn je seinen eigenen optischen Stil zu finden und es wird weiterhin immer wichtiger werden. Realistisch aussehende Spiele werden uninteressant für die Industrie.

Katana schrieb:
ich rede von einem sprung wie J&D auf Uncharted (also das beste was ND letzte gen gemacht hat und das erste was sie diese gen gemacht haben) das ist für mich ein gewaltiger sprung...
Das ist Ansichtssache. Für mich steigt die Begeisterung für 3D-Grafik mit dem Grad der Perfektion. Mir wäre es früher nie in den Sinn gekommen in einem Spiel stehen zu bleiben um mir aus reinem Interesse die Umgebung anzusehen. Das mag auch daran liegen, dass ältere Spiele i.d.R. stilistisch meistens ziemlich schwach und einfallslos waren. Heute bringt mir noch immer jeder grafische Toptitel Wow-Erlebnisse obwohl ich Crysis mit SSAA schon kenne. Die Technik steht im Dienste der optischen Vision der Artists und nicht mehr umgekehrt wie früher. In ein paar Jahren wird vollkommene künstlerische Freiheit Realität und diese Spiele werden für alle Zeiten gut aussehen, nicht nur die nächsten 2 Jahre.

Katana schrieb:
mir ging es nicht um den aufwand das modell zu erstellen sondern das der laie keinen unterschied sieht aber mehr polygone mehr leistung brauchen, leistung die man vielleicht für etwas anderes verwenden könnte...
Natürlich sieht man einen Unterschied und zweitens kostet es eben nicht erheblich mehr Leistung, deswegen kommt man ja überhaupt erst auf die Idee 4 Mio Polygone zu zeichnen. Das Verhältnis der Polygonzahl zum Leistungsbedarf verhält sich potenziell logarithmisch und nicht linear. Das bedeutet ab einem gewissen Punkt kostet jede Verdopplung der Polygonzahl eben nur noch minimal mehr Leistung. Dieser Punkt ist ziemlich bald erreicht. Nebenbei bekommt man auch noch perfektes Level of Detail "for free", das ist doch auch mal was.

Katana schrieb:
ich denke einfach das der benötigte leistungssprung der hw so gewaltig ist um überhaupt einen so großen sichtbaren grafiksprung (J&D->uncharted+ kA was da diese gen noch so kommt) zu erreichen das es für sony und die entwickler unwirtschaftlich ist diesen anzustreben wenn man nicht wieder die HW völlig am markt vorbei entwickeln will...
Es hat auch noch nie 8 Jahre gedauert bis es einen Nachfolger einer Konsole gab, das gleicht den Effekt locker wieder aus. Hemlock wird 2009 am PC etwa die 20-fache Leistung einer aktuellen Konsole haben, bis 2014 sollte das durch Shrinks auf 28nm bezahlbar und kühlbar sein in einer Konsole. Außerdem, man wird diese Konsole wieder mindestens 10 Jahre behalten wollen, da wäre es schon relatitiv klug nicht zu wenig Leistung einzuplanen. Ich persönlich glaube nicht, dass es von Sony zum PS4-Launch eine Sub-$300 Konsole geben wird, ich rechne eher mit $400.

Unser Problem ist aber ohnehin nicht die Hardwareleistung sondern das was man damit machen kann. Unsere heutige 3D-Pipeline ist zu unflexibel um zukünftige Probleme effizient und einfach zu lösen. Das führt dazu, dass es immer komplizierter wird aus den heutigen 08/15 Grafiklösungen auszubrechen um etwas Neues/Besseres zu entwickeln bzw ist ein Vielfaches der Leistung erforderlich. Crytek gibt selbst zu, dass Crysis zu viel Leistung braucht, es mit aktueller Hardware und aktuellen Engines aber nicht besser geht.

Neue Engines werden radikale neue Ansätze verfolgen, im optimalsten Fall mehrere gleichzeitig um für jedes Problem die beste Lösung zu finden. Was id Software momentan macht ist doch ein gutes Beispiel. id Tech 6 verwendet weder Polygone noch Texturen noch irgendwelche Normal Maps. Praktisch gibt es damit kein Limit mehr bei dem Detailgrad der Geometrie und der Oberflächendetails sofern man genug Bandbreite und physikalischen Speicher hat. Das Problem ist, man muss neue Tools dafür entwickeln und aktuelle Hardware ist zu unflexibel weil sie eben auf Rasterisierung und Polygone zugeschneidert ist, Fixed-Function statt General-Purpose. Niemand der klar bei Verstand ist würde Hardware dafür entwickeln, also entwickeln wir generell flexiblere Hardware.

Das ist selbstverständlich alles rein theoretisch weil niemand vorhersehen kann wie zukünftige Grafikchips aussehen aber Carmack selbst sagt er ist "zurückhaltend optimistisch". ;-)
 
Zuletzt bearbeitet:
ich glaub ihr versteht mich falsch... ich meine das man so gewaltig viel leistung benötigt um wieder einen so großen sprung wie last gen auf diese zu bekommen das sie das für die konsolenhersteller gar nicht lohnt... ein crysis zB sieht nunmal keine gen weiter aus selbst mit allem auf maximum ultra config und mods und frisst ein vielfaches an leistung...
und klar gibt es CGI was fast real aussieht liegt aber auch daran weil da nur ein teil CGI und ein teil echt ist... hab mich eher auf pixar filme (oder ähnliche) bezogen welche durch ihren stil leichter zu erreichen sind... oder sehen R&C bullshots so viel schlechter aus? ok R&C geht mehr in eine ziemlich glänzende richtung (stil) aber dennoch... hab vor zwei wochen ice age 1 gesehen und das sieht nicht mehr besonders utopisch aus... vor allem die karge gegend und die eher schwachen texturen dürften kein problem sein... das man den polycount nicht erreicht ist schon klar aber die meisten sehn ja keinen unterschied zwischen low poly und highpoly bei richtiger texturierung

und warum sollten die texturen in UC niedrig aufgelöst sein? sehen doch aus der richtigen entfernung (also in einer wo AF überflüssig ist) knackscharf aus... denke in 10 jahren wenn man UC mal am pc emulieren kann wird man staunen wie das game hätte aussehen können...
bsp HL ohne/mit AF
hl2%201xAA%201xAF.png

hl2%201xAA%2016xAF.png
und jetzt münz es auf UC um... denke da ist einiges drin...
uncharted529k.jpg

uncharted-drakes-fortune-interview-20071210072841015.jpg
stells dir vor... ohne nebelwand ohne zermatschte texturen in der entfernung ohne aliasing... also ein gestochen scharfes bild eben...

oder halt ein R&C mit MS/SSAA anstatt FSAA (zermatschtes bild)
ratchet-and-clank-future-a-crack-in-time-20090723033859137.jpg
was will man da jetzt großartig verbessern ohne den stil zu ändern?

ich meine sieh dir die ps2 spiele am emu an... sehen die soo viel schlechter aus wie aktuelle games? (bis auf die matschigen texturen und fehlenden effekten etc.)
FF12 mit downsampling
gsdx20090816163043.jpg
so sehen PS2 games in höherer auflösung und AA (dank downsampling) aus...

Ich gebe Katana Recht, der Leistungssprung bei der Grafik wird in der nächsten Gen vorhanden, aber für die meisten uninteressant sein.

Ich denke die Leistung geht stäker in z.B. 3D-Darstellung (für Shutter braucht man eine hohe Framerate) oder neue Formen von Eingabegeräten...
 
Ich denke auch der Sprung geht eher in Richtung 3D Darstellung (siehe Sony mit dem 3D Fernseher und der Möglichkeit die PS3 da mit reinzuschieben *g*) und vor allem auf neue Eingabegeräte (Natal, Wii) - Sony wird ja im Frühjahr auch mit einer Wii-Steuerung angerannt kommen.

Grafisch denke ich wird es die nächsten Jahre keine Meilensteine mehr geben was Hardware angeht. Eine PS4 dauert noch ein paar Jährchen. Eine Wii HD oder ähnliches könnte ich mir eher vorstellen. Und MS sollte so schlau sein und eine "Xbox Natal" rausbringen die vom Design her schöner ist aber innen eben immer noch Xbox.

Sony muss sich nichts einfallen lassen. Wenn Natal für die Xbox kommt, wird das ähnlich wie für die Wii genau diese Käuferschichten anregen, die eh keine Hardcore Gamer sind. Sony muss nur beim altbewährten bleiben. Und das hoffe ich wissen die.

Wenn 3D mal ausgereift ist - also 3 D Fernsehen usw. wird es eine PS4 geben. Vorher denke ich nicht. Macht auch wenig Sinn :)
 
naja wenn man einen 3D fernseher braucht wirds nutzlos... da nichtmal 50% nen HDTV haben wird das dann noch schlimmer aussehen ;)

dann lieber gleich hologramme (gibts ja auch schon)
 
naja wenn man einen 3D fernseher braucht wirds nutzlos... da nichtmal 50% nen HDTV haben wird das dann noch schlimmer aussehen ;)

dann lieber gleich hologramme (gibts ja auch schon)

Für eine Shutterbrille braucht man nur 100 - 120 Hz, das sollten die neueren alle können....
 
ja aber das ist ne miese lösung... 3D fernsehn ist erst dann interessant wenn man keine brille braucht...
darum lieber gleich die hologramm teile
 
3D TVs werden wohl erst in 3 - 7 Jahren wirklich interessant. Bis dahin wird man seine PS3 wieder rauskramen und dann alles noch mal in 3D zocken. ^^

http://www.stern.de/digital/homeent...3d-tv-mehr-tiefe-fuer-die-glotze-1507174.html

Ich wills mal ausprobieren. :(

Dazu müsstest du wenn dann zwei PS3s koppeln, eine PS3 ist schlicht viel zu schwach um aktuelle Titel in 3D darzustellen (zumindest ohne Halbierung der Auflösung oder Framerate) ;)

@BetaVersion: Nunja, für Shutterbrillen bräuchte man 120Hz, aber selbst die Fernseher, die momentan mit "200Hz" oder "600Hz" beworben werden, wären dann nicht fähig das HD-Material wiederzugeben, da der Fernseher schlicht nicht dafür gebaut ist, 120 Bilder pro Sekunde entgegenzunehmen, er ist nur dafür gebaut, 60 oder 50 Hz entgegenzunehmen und diese mit Zwischenbildern auf 200 Hz o.Ä. aufzupumpen.
Zudem steht noch längst kein Standard fest. Es steht also noch nichtmal fest, ob man sich statt für Shutterbrillen nicht doch für Polfilterbrillen entscheidet o.Ä. Diese ganzen Technologien haben ihre Vor- und Nachteile. Manche Menschen haben bspw. Probleme mit Shutterbrillen, finden Polfilterbrillen weit angenehmer, dafür braucht man für Polfilterbrillen wieder ganz andere Fernseher - mit besonderer "Beschichtung" und doppelter Auflösung statt doppelter Bildwiederholrate.
In den digitalen 3D-Kinos, die ja gerade in Mode sind, setzt man nicht umsonst auf Polfilterbrillen.

Außerdem: Damit sich 3D zu Hause durchsetzt, müssten wirklich auch mehrere Medien umschwenken. Allerdings braucht bspw. ein 3D-Film den doppelten Speicherplatz eines normalen Films (da ja immer in irgendeiner Form ein Bild mehr für das andere Auge geboten werden muss), Videospielkonsolen benötigen eine doppelte reale Leistungsfähigkeit und TV-Programme bräuchten nochmal eine doppelt so große Bandbreite, obwohl man jetzt schon erst für HD neue Standards wie DVB-S 2 geschaffen hat und DVB-T und DVB-C schon mit HD am Ende sind bzw. gar nicht erst damit zurecht kommen (und das, obwohl hier nichtmal die Rede von Full HD, also 1080p, ist)
 
Zuletzt bearbeitet:
und man braucht dazu ne brille was es für alle brillenträger uninteressant macht... ich sag das wird nische bleiben! vor allem da es schon hologramme gibt ;)
 
Dazu müsstest du wenn dann zwei PS3s koppeln, eine PS3 ist schlicht viel zu schwach um aktuelle Titel in 3D darzustellen (zumindest ohne Halbierung der Auflösung oder Framerate) ;)

K2 ist auf der IFA (in 3D hehe) spielbar. Das Spiel läuft doch nicht in 15fps bzw. 480p?

Wipeout HD ebenfalls. Wobei Flek von OnPSX nicht sagen konnte, obs mit 30fps o. 60fps läuft.

Edit: Ich habe keine Ahnung. So was wird eh erst für die Next - Nextnext Gen Interessant.
 
K2 ist auf der IFA (in 3D hehe) spielbar. Das Spiel läuft doch nicht in 15fps bzw. 480p?

Wipeout HD ebenfalls. Wobei Flek von OnPSX nicht sagen konnte, obs mit 30fps o. 60fps läuft.

Edit: Ich habe keine Ahnung. So was wird eh erst für die Next - Nextnext Gen Interessant.

Sony hat mehrmals schon solche Aufführungen gezeigt, auch ohne 3D, in denen mehrere PS3s aneinander gekoppelt wurden. Einmal wurde bspw. ein PS3-Titel mit 120fps vorgeführt oder afaik ein Gran Turismo mit höherer Auflösung. Das waren die Vorstufen zu 3D.

Du kannst davon ausgehen, dass da mehrere PS3 am Werke waren oder Framerate oder Auflösung halbiert waren, geht gar nicht anders, da die PS3 ja je ein Bild pro Auge berechnen muss und da man zwei Augen hat also doppelt so viele Bilder wie normal.

Ich bleibe dabei: 3D wird sich, wenn überhaupt, frühstens in der übernächsten Generation standardmäßig auf Konsolen finden.

Vor allem muss man bedenken, dass selbst 50% der Hardcore-Gears-of-War-2-Spieler keinen HDTV haben - obwohl das schon eine ausgereifte Technologie ist, die jetzt seit Jahren mit einem Standard vermarktet wird und die auch ohne nervige Brillen o.Ä. genutzt werden kann.

D.h. selbst wenn es jetzt 3D-Fernseher zum Preis von normalen HD-Fernsehern gäbe, würde es sich für die Nextgen noch nicht lohnen, auf 3D zu setzen.
 
Zuletzt bearbeitet:
Dieses "3D auf PS3" ist ein einziger Marketing-Gag von Sony, da ein PS3-Spieler niemals auf seiner PS3 - auch in 5 Jahren nicht - Uncharted, WipeOut & Co. ohne derbe Abstriche in 3D spielen können wird.
Da müsste wenn dann eine zweite PS3 her - selbst wenn das Zusammenspiel perfekt funktionieren sollte. Und auf Grund dieser Tatsache wird dieses Feature wohl auch niemals offiziell den Weg auf die PS3 finden.
Genausowenig wie in die PS4 - zumindest aller Wahrscheinlichkeit nach.

Außerdem: Der Zugewinn durch 3D ist überhaupt nicht so gigantisch, das Bild wirkt nur plastischer, deshalb ist man noch lange nicht mittendrin, darüber können auch einzelne "Pop-Out"-Effekte (die schon wieder als unrealistische Effekthascherei in Verruf sind) nicht hinwegtäuschen.
Es ist ja nicht so, dass dann plötzlich das gesamte Bild aus dem Fernseher herausragt, viel eher hat man das Gefühl, dass das Bild Tiefe hätte, dadurch ist man aber nicht "mittendrin", man bekommt nur ein besseres Gefühl für den Raum.
Man kann zwar, wie gesagt, einzelne Gegenstände aus dem Bildschirm "herausfliegen" sehen, da das aber nur einzelne Gegenstände sind und nicht die gesamte Umgebung, ist man deshalb nicht mittendrin und es wirkt unhomogen und unrealistisch. Außerdem setzen die Kanten des TVs noch immer Grenzen, die Umgebung könnte einen schlicht nur umgeben, wenn man einen 360°-3D-TV, der einen rundum umgibt, hätte. So bleibt das Ganze eher "enhanced-2D" - man sieht zwar eine real dreidimensionale Szene - aber von außen, man ist selbst nicht enthalten. Es ist schlicht, als würde man aus dem Fenster schauen. Jemand kann zwar Gegenstände durch mein Fenster zu mir rein werfen (was aber das idylische Bild, das man sieht, zerstört), aber ich kann nicht in die Außenwelt hineingreifen, bin nicht wirklich "drin".

Das einzig' konsequente wäre dann, sich gleich eine Brille mit kleinen Displays (wie dem NintendoOn-Visor) vor die Augen zu setzen.
Aber das ist auf Dauer wegen dem nahe liegenden Fokus für die Augen zu anstrengend und könnte in Verdacht geraten, Kurzsichtigkeit zu fördern.

Deshalb: Echtes 3D gibt's erst, wenn es Hologramme gibt.
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom