PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Von wegen 80 watt damals. :lol:
Die 8800gtx hatte 155 watt, die 660 gtx welche im PS4 bereich ist hat 140 watt. Die 680er welche das equivalent zur 8800er wäre hat 195 watt. Das sind 25% mehr und die 680er ist eher wenig effezient. Eine aktuelle grafikkarte a la 770er hat 133 watt. Nichts hat sich da verschoben.

Einer 8800 war der RSX auch hoffnungslos unterlegen, mehr noch als die GPU der PS4. Eine 7900GT, mit der man den RSX noch am besten vergleichen konnte, lag bei ~80Watt, andere Modelle bei 120, die 7850 ist bei 130Watt. Die ganze PS3 lag bei ~200Watt unter 3D Last, das kann eine High-End GPU heute alleine. Kannst dir ja mal die Entwicklung der Kühler zu Gemühte ziehen, und dann nochmal erzählen es gäbe da keine Verschiebung http://www.gamestar.de/hardware/bilder/91673/geforce_historie.html

:lol:
 
Einer 8800 war der RSX auch hoffnungslos unterlegen, mehr noch als die GPU der PS4. Eine 7900GT, mit der man den RSX noch am besten vergleichen konnte, lag bei ~80Watt, andere Modelle bei 120, die 7850 ist bei 130Watt. Die ganze PS3 lag bei ~200Watt unter 3D Last, das kann eine High-End GPU heute alleine. Kannst dir ja mal die Entwicklung der Kühler zu Gemühte ziehen, und dann nochmal erzählen es gäbe da keine Verschiebung http://www.gamestar.de/hardware/bilder/91673/geforce_historie.html

:lol:
Die 8800 war damals bei release aber aktuell. Die 780er ist bei diesem release aktuell und die PS4 ist auch hoffnungslos unterlegen. Zwischen beiden liegt <10% unterschied bezüglich watt.
Das es eine temporäre entwicklung in die richtung gab stimmt, Fermi war zb ein höhepunkt. Der trend geht aber schon länger wieder in die andere richtung und eine 780er gtx ist im bereich der 8800er von damals. Wir sind wieder da wo wir gestartet haben und sicherlich nicht 250 watt.
 
Die 8800 war damals bei release aber aktuell. Die 780er ist bei diesem release aktuell und die PS4 ist auch hoffnungslos unterlegen. Zwischen beiden liegt <10% unterschied bezüglich watt.
Das es eine temporäre entwicklung in die richtung gab stimmt, Fermi war zb ein höhepunkt. Der trend geht aber schon länger wieder in die andere richtung und eine 780er gtx ist im bereich der 8800er von damals. Wir sind wieder da wo wir gestartet haben und sicherlich nicht 250 watt.

Eine 780GTX frisst in 3D Last nochmals mehr und hat nach nVidia eine TDP von 250. Für dich nochmals zur Erinnerung, das komlette PS3 System zog ~200Watt und war verhältnismäßig schon ein Monster in seinen Ausmaßen.
Der Leistungsunterschied zwischen dem RSX und einer 8800GTX war übrigens höher als der der PS4 GPU und einer 780GTX, zusätzlich war eine 8800GTX vom Featureset und Architektur eine Generation weiter und besaß mehr RAM als der PS3 für das ganze System zur Verfügung stand. Alles Dinge welche eine 780GTX nicht für sich verbuchen kann. Aber sie zieht mehr als eine PS3 oder 360 zum Launch, dagegen war eine 800GTX noch genügsam.
 
Alles Watt-Gamer hier.

Captain Planet wäre stolz auf euch, so sehr wie ihr euch über ein paar Watt mehr Sorgen macht.

captain-planet.jpg
 
hm, die Indies sind auf Konsole trotzdem nicht annähernd so erfolgreich wie auf PC und die Konsolen bekommen trotzdem nur ein Bruchteil der ganzen Indies. Die ganzen Kickstarter und Crowdfunding PC Projekte helfen den Konsolen in dem Bereich auch nicht wirklich.
Kommt darauf an wie eng man Indies definiert. Die größeren Entwickler sind teilweise schon enorm erfolgreich. State of Decay hat inzwischen 720,000 Einheiten verkauft, Scott Pilgrim & Braid ~500,000, Splosion Man & Shadow Complex ~600,000, Limbo fast eine Million und Spiele wie Castle Crashers und Trials kommen auf über 2 Millionen. Minecraft ist mit 7 Millionen ohnehin in einer eigenen Liga. Das ist wohlgemerkt nur eine von drei möglichen Konsolen.

Der PC wird für einige Projekte immer erste Wahl sein (Strategie & RPG) aber du machst dir glaube ich etwas vor wenn du die Konsolen da unterschätzt. Konsolen sind immer langsamer beim Einführen neuer Trends aber Sony und Microsoft sind aufgewacht und werden Indies stark pushen. Solche Verkaufszahlen sprechen für sich. Für Controller-kompatible Indiegames werden Konsolen in Zukunft genauso der primäre Absatzmarkt wie bei Fullprice-Spielen heute schon.

Ashrak schrieb:
Bist du eigentlich der selbe Coda von 3dcenter? Ich frage mich das schon länger..
Nein.

shamanu schrieb:
Von wegen 80 watt damals.
Die 8800gtx hatte 155 watt, die 660 gtx welche im PS4 bereich ist hat 140 watt. Die 680er welche das equivalent zur 8800er wäre hat 195 watt. Das sind 25% mehr und die 680er ist eher wenig effezient. Eine aktuelle grafikkarte a la 770er hat 133 watt. Nichts hat sich da verschoben.
Erstens wird die GTX770 offiziell mit 230W angegeben (was real etwa 190W sind) und zweitens solltest du nicht die 8800GTX als Basis nehmen. Das Ding war damals ein Monster und die PS3 hatte keinen 65nm Chip. Die High-End Karten der 90nm Generation lagen bei ATI und Nvidia damals dort wo heute Low-Cost Karten sind. Die 7800GTX bei ~80W und die X1800XT bei ~110W. Beide Hersteller haben ihren Stromverbrauch also mehr als verdoppelt. Nvidia hat ihn verdreifacht. Das ist eine Tatsache, die sich nicht abstreiten lässt.

Warum denkst du schaffen GPUs nur noch kleine Sprünge je Generation? Ich habe letztens schon Benchmarks gezeigt, wo eine GTX780 in Crysis 3 nur doppelt so schnell wie eine 3 Jahre alte GTX480 ist.
 
Zuletzt bearbeitet:
Hättest du dir mehr Sorgfalt beim Verfolgen der Diskussion gegeben als dem Suchen eines minderlustigen Bildes, hättest du dir das Posten sparen können.
 
Alles Watt-Gamer hier.

Captain Planet wäre stolz auf euch, so sehr wie ihr euch über ein paar Watt mehr Sorgen macht.

captain-planet.jpg

Ich denke es geht gerade um die GPU Sta­g­na­ti­on verursacht durch Fertigungsprozess/Stromverbrauch und nicht um drollige Öko Argumente wie gestern
 
Hättest du dir mehr Sorgfalt beim Verfolgen der Diskussion gegeben als dem Suchen eines minderlustigen Bildes, hättest du dir das Posten sparen können.

Cry me a River...

Ehrlich, wenns dich so sehr stört, dass ein PC nen etwas höheren Wattverbrauch hat, hoffe ich doch sehr das du Solarzellen auf deinem Dach hast und nur Geräte der Energieklasse A++ und Abends auch immer schön die Steckdose ausmachst, von welcher deine Konsole den Strom bezieht, weil sie ja 24/7 im Standbymodus ist um ein Update runterladen zu können. Und ja, auch Kleinvieh macht Misst, selbst die 0.36W der Standby PS3. :nix:
 
Cry me a River...

Ehrlich, wenns dich so sehr stört, dass ein PC nen etwas höheren Wattverbrauch hat, hoffe ich doch sehr das du Solarzellen auf deinem Dach hast und nur Geräte der Energieklasse A++ und Abends auch immer schön die Steckdose ausmachst, von welcher deine Konsole den Strom bezieht, weil sie ja 24/7 im Standbymodus ist um ein Update runterladen zu können. Und ja, auch Kleinvieh macht Misst, selbst die 0.36W der Standby PS3. :nix:

Dein Blablabla steht in keinen Kontext mit meinen Aussagen, da du völlig am Thema vorbei bist.
Also:"Cry me a River..." :lol2:
 
Der Leistungsunterschied zwischen dem RSX und einer 8800GTX war übrigens höher als der der PS4 GPU und einer 780GTX, zusätzlich war eine 8800GTX vom Featureset und Architektur eine Generation weiter und besaß mehr RAM als der PS3 für das ganze System zur Verfügung stand. Alles Dinge welche eine 780GTX nicht für sich verbuchen kann. Aber sie zieht mehr als eine PS3 oder 360 zum Launch, dagegen war eine 800GTX noch genügsam.

Naja, bei der PS3 ist der vergleich rein von der gpu ansich ein bischen unfair da Sony gpu leistung geopfert hat um bei der cpu mehr zu machen. Diesesmal ist es jedoch umgekehrt, die cpu leistung ist bescheiden ausgefallen. Trotzdem läst sich die gpu bereits ein jahr davor überbieten.
Der leistungsunterschied ist nicht höher, das funktioniert nur wenn man die Konsolen rechenart nimmt und Bandbreite zu rechenleistung dazuzählt.
Es geht ja genau nicht darum ob die 780er eine generation weiter ist sondern das sie basierend auf einer veralteten generation vom letzten jahr bereits schneller ist. Wie wird das dann erst mit maxwell ausschauen welche wohl mitte nächstes jahr kommt und mit der sich die Konsolen wirklich messen müssen?

und zweitens solltest du nicht die 8800GTX als Basis nehmen. Das Ding war damals ein Monster und die PS3 hatte keinen 65nm Chip.
Ich nehme die 8800er weil das beim Ps3 release aktuell war. Mir geht es nicht um grafikkarten welche gleichwertig sind sondern zum jeweiligen zeitpunkt für den (performance) Mainstream vorgesehen und aktuell waren.
 
Zuletzt bearbeitet:
Naja, bei der PS3 ist der vergleich rein von der gpu ansich ein bischen unfair da Sony gpu leistung geopfert hat um bei der cpu mehr zu machen. Diesesmal ist es jedoch umgekehrt, die cpu leistung ist bescheiden ausgefallen. Trotzdem läst sich die gpu bereits ein jahr davor überbieten.
Der leistungsunterschied ist nicht höher, das funktioniert nur wenn man die Konsolen rechenart nimmt und Bandbreite zu rechenleistung dazuzählt.
Es geht ja genau nicht darum ob die 780er eine generation weiter ist sondern das sie basierend auf einer veralteten generation vom letzten jahr bereits schneller ist. Wie wird das dann erst mit maxwell ausschauen welche wohl mitte nächstes jahr kommt und mit der sich die Konsolen wirklich messen müssen?

Eine 8800GTX hatte ~die 2,5fache Leistung eines RSX, das bei weit besserer Architektur ( RSX war noch CineFX ) und breiteren Featureset. Da brauche ich keine Bandbreiten um zu wissen dass eine 780GTX diese Vorteile in der Form nicht für sich verbuchen kann. Gleichzeitig kommt der Umstand des RAMs hinzu, mitte 2005 machte Battlefield 2 schon Gebrauch von 512MiB VRAM, Ende 2006 erschien die PS3 mit 256XDR + 256MiB GDDR3.
 
Eine 8800GTX hatte ~die 2,5fache Leistung eines RSX, das bei weit besserer Architektur ( RSX war noch CineFX ) und breiteren Featureset. Da brauche ich keine Bandbreiten um zu wissen dass eine 780GTX diese Vorteile in der Form nicht für sich verbuchen kann. Gleichzeitig kommt der Umstand des RAMs hinzu, mitte 2005 machte Battlefield 2 schon Gebrauch von 512MiB VRAM, Ende 2006 erschien die PS3 mit 256XDR + 256MiB GDDR3.
Eine 780er palits hat auch 4.51 Tflops was ~2.5 fache leistung der ps3 ist. Das ist jetzt aber ein halbes jahr vor dem ps4 release nicht wie bei der 8800er beim release. Das erreicht sie bereits ohne neuere Architektur, was ich als plus punkt zähle. Was da dann erst mit maxwell oder stacked ram kommt...
Der ram ist ziemlich schnuppe. Die 3gb einer 780er bekommt man aktuell sowiso nicht voll und damals hat man einfach die texturauflösung runtergeschraubt. Gibt halt dann matschtexturen aber die Berechnung wird deswegen nicht schlechter, man braucht nur weniger bandbreite. Das rendering wird wegen dem geringeren ram nicht langsamer, die gpu wird eher noch entlastet dank kleinerer texturen. Um den zusätzlichen ram voll zu nutzen müßte die ps3 gpu eigentlich schneller sein im verhältnis aber das ist sie eben nicht.
Bei der PS3 konnte die cpu noch die meisten compute sachen erledigen da sie mit ihren 230 gflops dafür gut geeignet war. Bei der PS4 kann man das vergessen bezogen auf den pc/cell, die jaguar kann da nur noch einen bruchteil von dem was aktuelle cpu's leisten.
 
Zuletzt bearbeitet:
Verstehe ich richtig, dass die PS4 hier nicht wegen der Leistung, sondern wegen der Energieeffizienz als aktuell angesehen wird?

War es nicht wichtig letztes Jahr ein möglichst großes Gehäuse zu haben, um mit Wattschleudern möglichst viel Leistung zu erzielen?
Wurde die WiiU nicht wegen dem 30-40 Watt Verbrauch fertig gemacht, weil sie damit nur ca. auf PS3 Leistung liegt? Deshalb war sie doch Last-Gen, oder nicht? Ist sie nun also doch Next-Gen, weil sie viel energieffizienter ist, als z.B. eine PS3 von 2006?
Argumentiert man nun also bei der PS4, so wie die Pikas mit der WiiU? o-O

Fragen über Fragen :scan:
 
Zuletzt bearbeitet:
Mit übertakteten Versionen der Referenzdesign hast du auch aus einer normalen 8800GTX weit mehr rausgeholt, kannst auch ohne Probleme eine Geforce 7950 GX2, die zerfetzten den RSX ebenfalls, ein halbes Jahr vor Erscheinen.

Verstehe ich richtig, dass die PS4 hier nicht wegen der Leistung, sondern wegen der Energieeffizienz als aktuell angesehen wird?

War es nicht wichtig letztes Jahr ein möglichst großes Gehäuse zu haben, um mit Wattschleudern möglichst viel Leistung zu erzielen?
Wurde die WiiU nicht wegen dem 30-40 Watt Verbrauch fertig gemacht, weil sie damit nur ca. auf PS3 Leistung liegt? Deshalb war sie doch Last-Gen, oder nicht? Ist sie nun also doch Next-Gen, weil sie viel energieffizienter ist, als z.B. eine PS3 von 2006?
Argumentiert man nun also bei der PS4, so wie die Pikas mit der WiiU? o-O

Fragen über Fragen :scan:

Nö, verstehst du falsch.
 
Mit übertakteten Versionen der Referenzdesign hast du auch aus einer normalen 8800GTX weit mehr rausgeholt, kannst auch ohne Probleme eine Geforce 7950 GX2, die zerfetzten den RSX ebenfalls, ein halbes Jahr vor Erscheinen.
Ja das richtige 8800er equivalent mit aktueller technologie ist eigentlich maxwell und kommt dieses mal halt etwas später. Wenn man 700er und 600er release anschaut wäre es im Februar-März so weit. Die wird dann aber auch mehr wie 2.5x schneller sein.
 
Ich nehme die 8800er weil das beim Ps3 release aktuell war. Mir geht es nicht um grafikkarten welche gleichwertig sind sondern zum jeweiligen zeitpunkt für den (performance) Mainstream vorgesehen und aktuell waren.
Darum geht's doch aber nicht. Die PS3 war gegenüber der 8800GTX so schwach weil die Technik der PS3 aufgrund der Verschiebung bereits eine Generation zurück lag, sowohl bei der Architektur als auch der Fertigung. Außerdem hat Nvidia den Stromverbrauch verdoppelt. Hätte Sony von Anfang an mit einem Ende 2006/Anfang 2007 Launch geplant wäre die Konsole niemals derart stark gegenüber den PC-Lösungen abgefallen.

Eigentlich geht's nur darum welche Leistung man mit einem gewissen Power Envelope erzielen kann und da verabschieden sich Konsolen alleine wegen dem Wahnsinn am PC aus dem Rennen. Eine Konsole mit 6 - 8 jähriger Laufzeit kann man nicht so entwickeln wie High-End Karten. Selbst Midrange-Modelle erreichen trotz gigantischer Lüfter teilweise Chiptemperaturen, welche einfach nicht in eine Konsole gehören. Am PC ist eine GPU freilich kaum länger als 2-4 Jahre in Betrieb und deshalb gibt's ab Werk übertaktete GTX760-Karten mit Chiptemperaturen von über 90°. Elektromigration rafft irgendwann jede Hardware hin aber man muss es nicht noch künstlich beschleunigen.

Vergiss dabei außerdem nicht, dass die Chips in Konsolen noch stärker belastet werden weil die Auslastung einfach höher ist. Ein 2 TFLOPS SoC in einer Konsole ist kritischer als ein 2 TFLOPS SoC am PC. Mit den Jahren nimmt der Stromverbrauch einer Konsole deshalb auch immer weiter zu, weil die Spiele einfach mehr aus der Hardware kitzeln. Ich halte die Entscheidung sich an Midrange-PCs zu orientieren für absolut richtig.

Ich bin einfach verwundert darüber, dass so viele Leute über die Leistung der Konsolen verwundert sind.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom