PS4 Playstation 4

Kauft ihr die PS4 direkt zum launch?


  • Stimmen insgesamt
    194
Status
Nicht offen für weitere Antworten.
Ich sprach nicht allein von Bandbreite, sondern von Bandbreite, Latzenz und Stalls.
CPU Ingeneure planen für einen ordentliche CPU heute die Hälfte der Die Fläche allein für den Cache ein. Neben der Einführung von LV1Cache hat man einen Lv2Cache eingeführt und geht heut bis unter auf Lv3. Das heißt man hat neben den Registern in die Speicherhirachie drei verschiedene Caches eingebaut, die mitunter teuersten Komponenten an einen Chip, und das alles noch vor dem eigentlichen RAM. Und jetzt willst du hier erzählen, ich überschätze einen schnellen Speicher? Du kannst im BIOS ja mal den Cache der CPU deaktivieren, dann wirst du sehen was von der CPU Leistung übrig bleibt. Sony ( PS2, PSP ), Nintendo ( WII, GC, DS, 3DS, WiiU ) und MS ( 360 ) setzen auf einen eDRAM um genau meine genannten Punkte zu reduzieren. Wenn es also unnötig wäre, wurde man sich diese teuren Komponenten sparen und gleich in mehr FLOPs investieren, die bei dir der heilige Grahl zu sein scheinen. All diese Hersteller setzen aber auf diese Extrainvestitionen, dies aber immer in der geringen Größe wegen den horenden Kosten, nicht wegen einer optimalen Abstimmung, GHz und FLOPs lassen sich nunmal besser verkaufen als Bandbreiten und Latenz und Stall Eliminierung, das ist also schlicht eine Kosten-Nutzen ( Marketing ) Frage. Ich kann dir aber sagen, dass deine FLOP Zahlen ohne einen ordentlichen Speicher keinen Cent wert sind.
In meinen Ausführungen sprach ich nicht über einen SoC nach heutiger Bauweise, sondern über die Vorteile ihrer Bauweise, welche man nutzen müsste. Es geht darum die Leistung eines Rechenchips auf die Straße zu bringen. Rechenleistung bringt dir nichts, wenn der Chip mehrere Takte auf Antworten warten muss, der Scheduler sich mit Stalls rumplagen muss und der Programmieren sich die Haare rausreißt weil er nicht weiß wie er schnell genug einen großen Batzen an Daten durch die Leitungen bekommt, und diese zum Bearbeiten schnell wieder zur verfügung hat. Genau das sind nämlich die Probleme mit denen Sich Coder gern mal rumschlagen müssen, mit mehr FLOPs kommt man dem nicht entgegen.

Und nochmal zur Vita. Ich weiß nicht warum du hier großartig darauf rumreitest. Aber schön erstmal dass du deine falsche Auflösungsangabe revidiert hast. Die Dinge die ich für den Leistungsvergleich genannt habe, sind noch immer wichtige Punkte welcher zu beachten sind, egal ob du sie nun als unwichtig unter den Teppich kehrst. Uncharted ist ein Launchspiel, und dafür bietet es so einiges. Wenn du bei dem Spiel mal vor so einer 6m*7m großen Wand stehst, welche über die komplette Fläche mit Figuren plastisch ausmodelliert und wunderbar beleuchtet ist, also nicht nur mit einer billigen Textur, du dir diesen Detailreichtum aus einer ferne betrachtet anschauen kannst, bei der Menschen vor dieses Wand nur noch Pixelgroß sind und du diese ohne Ladepause erreichen kannst, oder Wassereffekte betrachtest du man selbst selten in HD Spielen sieht und erkennst dass das Spiel auch SSAO nutzt, was auch kein Standard bei HD Games ist und ein weilchen gebraucht hat um diese überhaupt zu nutzen, dann wurdest du über die Leistung dieses SoCs, mit meinen genannten Randbedingen anders reden :wink2:
 
Zuletzt bearbeitet:
Ich sprach nicht allein von Bandbreite, sondern von Bandbreite, Latzenz und Stalls.
CPU Ingeneure planen für einen ordentliche CPU heute die Hälfte der Die Fläche allein für den Cache ein. Neben der Einführung von LV1Cache hat man einen Lv2Cache eingeführt und geht heut bis unter auf Lv3. Das heißt man hat neben den Registern in die Speicherhirachie drei verschiedene Caches eingebaut, die mitunter teuersten Komponenten an einen Chip, und das alles noch vor dem eigentlichen RAM. Und jetzt willst du hier erzählen, ich überschätze einen schnellen Speicher? Du kannst im BIOS ja mal den Cache der CPU deaktivieren, dann wirst du sehen was von der CPU Leistung übrig bleibt. Sony ( PS2, PSP ), Nintendo ( WII, GC, DS, 3DS, WiiU ) und MS ( 360 ) setzen auf einen eDRAM um genau meine genannten Punkte zu reduzieren. Wenn es also unnötig wäre, wurde man sich diese teuren Komponenten sparen und gleich in mehr FLOPs investieren, die bei dir der heilige Grahl zu sein scheinen. All diese Hersteller setzen aber auf diese Extrainvestitionen, dies aber immer in der geringen Größe wegen den horenden Kosten, nicht wegen einer optimalen Abstimmung, GHz und FLOPs lassen sich nunmal besser verkaufen als Bandbreiten und Latenz und Stall Eliminierung, das ist also schlicht eine Kosten-Nutzen ( Marketing ) Frage. Ich kann dir aber sagen, dass deine FLOP Zahlen ohne einen ordentlichen Speicher keinen Cent wert sind.
In meinen Ausführungen sprach ich nicht über einen SoC nach heutiger Bauweise, sondern über die Vorteile ihrer Bauweise, welche man nutzen müsste. Es geht darum die Leistung eines Rechenchips auf die Straße zu bringen. Rechenleistung bringt dir nichts, wenn der Chip mehrere Takte auf Antworten warten muss, der Scheduler sich mit Stalls rumplagen muss und der Programmieren sich die Haare rausreißt weil er nicht weiß wie er schnell genug einen großen Batzen an Daten durch die Leitungen bekommt, und diese zum Bearbeiten schnell wieder zur verfügung hat. Genau das sind nämlich die Probleme mit denen Sich Coder gern mal rumschlagen müssen, mit mehr FLOPs kommt man dem nicht entgegen.

Und nochmal zur Vita. Ich weiß nicht warum du hier großartig darauf rumreitest. Aber schön erstmal dass du deine falsche Auflösungsangabe revidiert hast. Die Dinge die ich für den Leistungsvergleich genannt habe, sind noch immer wichtige Punkte welcher zu beachten sind, egal ob du sie nun als unwichtig unter den Teppich kehrst. Uncharted ist ein Launchspiel, und dafür bietet es so einiges. Wenn du bei dem Spiel mal vor so einer 6m*7m großen Wand stehst, welche über die komplette Fläche mit Figuren plastisch ausmodelliert und wunderbar beleuchtet ist, also nicht nur mit einer billigen Textur, du dir diesen Detailreichtum aus einer ferne betrachtet anschauen kannst, bei der Menschen vor dieses Wand nur noch Pixelgroß sind und du diese ohne Ladepause erreichen kannst, oder Wassereffekte betrachtest du man selbst selten in HD Spielen sieht und erkennst dass das Spiel auch SSAO nutzt, was auch kein Standard bei HD Games ist und ein weilchen gebraucht hat um diese überhaupt zu nutzen, dann wurdest du über die Leistung dieses SoCs, mit meinen genannten Randbedingen anders reden :wink2:

Speicher auf dem SoC heißt nicht automatisch, dass auch die Bandbreite höher wird bei gleichen Kosten.
Der Speicher muss die Geschwindigkeit auch verkraften. Die Bandbreite der Vita und des Ipad3 ist wesentlich geringer als die bei modernen Grafikkarten.
Und das eDRAM der 360 ist dafür da, die Bandbreite für die GPU zu erhöhen. Die CPU hat da gar nix von. Aufgrund des hohen Preises ist es auch nur 10MB groß.

Also wird man auch weiterhin auf eine Kombination verschiedener Speicher bei Konsolen setzen.
Die CPU verfügt über First- , Second- und Thirdlevel-Cache, die GPU über eDRAM und dazu kommt der langsame Hauptspeicher, der bei einer Konsole aber aus schnellem Grafikkartenspeicher besteht.
Auf einem SoC könnte man natürlich einen Teil des Hauptspeichers unterbringen.
Es wäre vorteilhaft, wenn man den Gamecode direkt in einen Speicher auf den Soc laden könnte. Das ist ja eventuell mit dem eDRAM bei der Wii-U CPU der Fall.
Aber als ausschließlichen Speicher macht das wenig Sinn.

Was die Vita angeht.
Ich beziehe mich auf sie weil sie eben den zur zeit schnellsten SoC besitzt. Und damit ist sie ein ideales Vergleichsobjekt.
Uncharted ist laut herrschender Meinung das bestaussehendste Vita-Game und damit auch gut für einen Vergleich.
Und hier muss man gleiche Games miteinander vergleichen. Also Uncharted PS3 mit Uncharted Vita.
Letztendlich kommt man dann eben zu dem Ergebnis, dass der schnellste SoC nicht den Hauch einer Chance gegen eine fünf Jahre alte Hardware hat.
 
Keine Zeit mehr, also schnell:

Speicher auf dem SoC heißt nicht automatisch, dass auch die Bandbreite höher wird bei gleichen Kosten.

Ich schrieb "aber nur wenn man die Vorteile dieser Architektur richtig ausnutzt."

Der Speicher muss die Geschwindigkeit auch verkraften. Die Bandbreite der Vita und des Ipad3 ist wesentlich geringer als die bei modernen Grafikkarten.

Ein Punkt an den ich dich errinnert habe :wink2:

Und das eDRAM der 360 ist dafür da, die Bandbreite für die GPU zu erhöhen. Die CPU hat da gar nix von. Aufgrund des hohen Preises ist es auch nur 10MB groß.

Der eDRAM erhöht nicht nur die Bandbreite, sondern vermindert auch Stalls und Latenzen. Wenn es rein um die Bandbreite gehen wurde, hätte man einfach mehr als 128bit Speicherinterface nutzen können, dazu wäre kein eigner Speicher, mit eigenen Bus, auf eigener Die nötig gewesen.

Also wird man auch weiterhin auf eine Kombination verschiedener Speicher bei Konsolen setzen.
Die CPU verfügt über First- , Second- und Thirdlevel-Cache, die GPU über eDRAM und dazu kommt der langsame Hauptspeicher, der bei einer Konsole aber aus schnellem Grafikkartenspeicher besteht.
Auf einem SoC könnte man natürlich einen Teil des Hauptspeichers unterbringen.
Es wäre vorteilhaft, wenn man den Gamecode direkt in einen Speicher auf den Soc laden könnte. Das ist ja eventuell mit dem eDRAM bei der Wii-U CPU der Fall.

Man verwendet verschiedene Speicher aus Kompromislösung. Level 2, Level 3, eDRAM und selbst der RAM sind Kompromislösungen aus Nutzen und Kosten.

Aber als ausschließlichen Speicher macht das wenig Sinn.

Danke für die Erklärung dessen.

Was die Vita angeht.
Ich beziehe mich auf sie weil sie eben den zur zeit schnellsten SoC besitzt. Und damit ist sie ein ideales Vergleichsobjekt.
Uncharted ist laut herrschender Meinung das bestaussehendste Vita-Game und damit auch gut für einen Vergleich.
Und hier muss man gleiche Games miteinander vergleichen. Also Uncharted PS3 mit Uncharted Vita.
Letztendlich kommt man dann eben zu dem Ergebnis, dass der schnellste SoC nicht den Hauch einer Chance gegen eine fünf Jahre alte Hardware hat.

Ein SoC in einen mobilen Gerät, mit entsprechenden Einschränkungen, trotzdem bietet das Spiel teilweise mehr als Uncharted 1 auf der PS3, welches ein Jahr nach Launch kam. Ich weiß aber auch nicht was du damit beweisen willst, da du von Dingen sprichst von denen ich anfangs nicht sprach, ich habe mehrfach erwähnt dass es nicht um einen SoC nach heutigen Standard geht.
Aber hier noch was für dich, über die verkrüpelte GPU des verkrüpelten SoCs von Vita, Liverpool über wipeout 2048 gegenüber dem PS3 wipeout HD:
The post-effects are slightly improved in WipEout 2048 - tone mapping is more 'correct' because the PS Vita has efficient hardware supported buffer formats, so the exposure control and bloom effects in 2048 are generally better-quality than the HD/Fury counterpart. Also, in 2048 we have longer tracks that tend to require a lot more lightmap texture space - fortunately the SGX supports texture compression with higher compression rates, so even taking the longer tracks into account, there are also improvements in pre-computed lighting resolution.

Quelle: http://www.eurogamer.net/articles/digitalfoundry-wipeout-2048-tech-interview
 
Auch wenn ich mich in die Diskussion per se nicht einmischen will, doch kurz zur Vita: Das schönste Vita-Spiel ist sicher Wipeout und nicht Uncharted. Und das läuft in nativer Auflösung, AA und einer Unmenge an Effekten. Und abgesehen von der halbe Framerate sowie natürlich der geringeren Auflösung sieht es nahezu genauso aus wie Wipeout auf der PS3.

Bei Uncharted mangelt es im Grunde auch nur an der Auflösung und dem fehlenden AA. Wäre das beides vorhanden (und ich gehe davon aus, dass sich hier in Zukunft noch einiges tut), wäre die Differenz zu den PS3-Teilen ebenfalls kaum erkennbar.
 
Keine Zeit mehr, also schnell:



Ich schrieb "aber nur wenn man die Vorteile dieser Architektur richtig ausnutzt."



Ein Punkt an den ich dich errinnert habe :wink2:



Der eDRAM erhöht nicht nur die Bandbreite, sondern vermindert auch Stalls und Latenzen. Wenn es rein um die Bandbreite gehen wurde, hätte man einfach mehr als 128bit Speicherinterface nutzen können, dazu wäre kein eigner Speicher, mit eigenen Bus, auf eigener Die nötig gewesen.



Man verwendet verschiedene Speicher aus Kompromislösung. Level 2, Level 3, eDRAM und selbst der RAM sind Kompromislösungen aus Nutzen und Kosten.



Danke für die Erklärung dessen.



Ein SoC in einen mobilen Gerät, mit entsprechenden Einschränkungen, trotzdem bietet das Spiel teilweise mehr als Uncharted 1 auf der PS3, welches ein Jahr nach Launch kam. Ich weiß aber auch nicht was du damit beweisen willst, da du von Dingen sprichst von denen ich anfangs nicht sprach, ich habe mehrfach erwähnt dass es nicht um einen SoC nach heutigen Standard geht.
Aber hier noch was für dich, über die verkrüpelte GPU des verkrüpelten SoCs von Vita, Liverpool über wipeout 2048 gegenüber dem PS3 wipeout HD:


Quelle: http://www.eurogamer.net/articles/digitalfoundry-wipeout-2048-tech-interview

Was meinst du überhaupt mit "SoC nach heutigem Standard"
Was soll sich denn da großartig ändern.
Nimm aktuelle APUs und hau noch Speicher und diverse andere Logik rein und du hast deinen SoC für den Desktop Bereich.
Wenn dir das für eine zukünftige PS4 reicht, mir recht.
Ich erwarte jedenfalls von der direkten Konkurrenz einiges mehr.

Von der Next Gen erwarte ich mindestens die fünfzigfache Vita Leistung.
Du glaubst doch wohl nicht im Ernst, dass das durch ein SoC, egal welcher Art, bis Ende nächsten Jahres bewerkstelligt werden kann.

Und zu Wipeout.
Auch das braucht nur ca. ein Zehntel der PS3 Leistung. Ein Viertel Auflösung und halbe Framerate als grobe Richtschnur. Dass man Jahre später nach PS3 Launch das Game grafisch in gewissen Bereichen etwas aufbohrt ist nun wirklich nichts besonderes.
Wie man es dreht und wendet, der Leistungsabstand zwischen Vita und PS3 bleibt gleich.
 
Auch wenn ich mich in die Diskussion per se nicht einmischen will, doch kurz zur Vita: Das schönste Vita-Spiel ist sicher Wipeout und nicht Uncharted. Und das läuft in nativer Auflösung, AA und einer Unmenge an Effekten. Und abgesehen von der halbe Framerate sowie natürlich der geringeren Auflösung sieht es nahezu genauso aus wie Wipeout auf der PS3.

Bei Uncharted mangelt es im Grunde auch nur an der Auflösung und dem fehlenden AA. Wäre das beides vorhanden (und ich gehe davon aus, dass sich hier in Zukunft noch einiges tut), wäre die Differenz zu den PS3-Teilen ebenfalls kaum erkennbar.

Wie gesagt, Wipeout HD ist fast vier Jahre alt und reizt sicherlich die PS3 nicht aus.
Wenn die Vita Version jetzt auf PS3 umgesetzt würde, dann wäre diese sicherlich bis auf die höhere Auflösung und Framerate auch technisch wieder besser.

Ich bringe diese Vergleiche auch nur deshalb, um klar zu stellen, dass die Vita eben nicht, wie von manchem irrtümlich gehalten, auch nur ansatzweise von der Leistung an die PS3 heran kommt.
Nur aufgrund der niedrigeren Auflösung, des kleinen Displays und der Einsparungen bei Framerate, Texturen, Polygonen etc ggü. den HD Pendants scheint es subjektiv auf den ersten Blick vielleicht mal den Eindruck erwecken.

Ich will damit die Vita nicht schlecht machen sondern lediglich aufzeigen, warum ein SoC eben für eine Heimkonsole keine Option darstellt.
 
Was meinst du überhaupt mit "SoC nach heutigem Standard"
Was soll sich denn da großartig ändern.
Nimm aktuelle APUs und hau noch Speicher und diverse andere Logik rein und du hast deinen SoC für den Desktop Bereich.
Wenn dir das für eine zukünftige PS4 reicht, mir recht.
Ich erwarte jedenfalls von der direkten Konkurrenz einiges mehr.
Von der Next Gen erwarte ich mindestens die fünfzigfache Vita Leistung.
Du glaubst doch wohl nicht im Ernst, dass das durch ein SoC, egal welcher Art, bis Ende nächsten Jahres bewerkstelligt werden kann.

Du fragst mich allen ernstes was ich meine? Dann frage ich mich, über was diskutierst du mit mir, wenn du meine Poste überhaupt nicht ließt?



Und zu Wipeout.
Auch das braucht nur ca. ein Zehntel der PS3 Leistung. Ein Viertel Auflösung und halbe Framerate als grobe Richtschnur. Dass man Jahre später nach PS3 Launch das Game grafisch in gewissen Bereichen etwas aufbohrt ist nun wirklich nichts besonderes.
Wie man es dreht und wendet, der Leistungsabstand zwischen Vita und PS3 bleibt gleich.

Jup, alles nichts besonderes :rolleyes:
Nach Carmack entsprich die CPU Leistung des iPad2 SoCs übrigens derer eines Kerns der 360 CPU. Vita hat gut die doppelte CPU Leistung des iPad2 SoCs, durch schlankere und weniger API Layer wird reale Leistung gar noch höher sein.
Das solte die zeigen wie weit du mit deiner Behauptung an der Realität vorbei bist :p

Lustige Randnotiz zu deinen GFLOP Wahn übrigens. Die besten AMD GPU hat ca. 22% mehr GFLOP Leistung gegenüber der aktuellsten Geforce, was ein dicker Batzen ist. Und jetz rate mal welche GPU auf Strecke schneller ist :wink2:

Zu Wipeout und Liverpool:
Wenn Liverpool sagt, dass dies und das besser mit der Vita GPU funktioniert als bei der PS3, dann ist das so, sie entwickeln immerhin nicht nur Spiele für Sony Konsolen, sonder auch Tool und designen gar die Hardware mit.
Zusätzlich frage ich mich, wie du es als Fakt hinstellen kannst, dass Wipreout HD auf PS3 heute besser aussehen wurde, aber Wipeout auf Vita nun das absolute Maximum darstellt.
 
Zuletzt bearbeitet:
Lustige Randnotiz zu deinen GFLOP Wahn übrigens. Die besten AMD GPU hat ca. 22% mehr GFLOP Leistung gegenüber der aktuellsten Geforce, was ein dicker Batzen ist. Und jetz rate mal welche GPU auf Strecke schneller ist :wink2:

Naja, wenn man davon ausgeht und wie schon Crytek angedeutet hat, man GPGPU für Effekte usw. unbedingt nutzen möchte und dadurch man einen gewissen Sprung nach Vorne machen will, so stinkt dort die neue NVida gegen die neue AMD so richtig ab. Aber im "Jetzt Zustand" hast du natürlich Recht.
 
Zuletzt bearbeitet:
Naja, wenn man davon ausgeht und wie schon Crytek angedeutet hat, man GPGPU für Effekte usw. unbedingt nutzen möchte und dadurch man einen gewissen Sprung nach Vorne machen will, so stinkt dort die neue NVida gegen die neue AMD so richtig ab. Aber im "Jetzt Zustand" hast du natürlich Recht.

Das ist es ja.
Nvidia bringt zuerst eine Middle-Class Karte raus, die zwar mehr normale Leistung mit sich bringt als das AMD Modell, dafür aber in anderen Bereichen abgespeckt ist. Nur werden eben diese Bereiche, in denen die AMD Karte um Welten besser ist, bisher nicht in Spielen berücksichtigt.
In der Gesamtperformance schlägt die HD 7970 die Geforce GTX 680 um Längen.
Und um diese Gesamtperformance geht es. Die muss man vergleichen.
Ist so ähnlich wie beim Vergleich von DX 9 mit DX 11 Karten wenn man Test fährt, die nur auf DX9 ausgelegt sind. Dort kann dann auch die DX9 Karte gewinnen wenn diverse Rechenwerke der DX11 Karte gar nicht angesprochen werden

Ist ja auch egal. Ging um SoCs und dass diese eben nicht das Gelbe vom Ei in gewissen Leistungsregionen sind.
Aber wenn selbst so Grafiklegenden wie Carmack auf die angeblich so hohe SoC Power reinfallen, kann man das ja niemandem verübeln :)
Wenigstens scheinen Sony und MS noch den Überblick zu behalten und setzen auf das richtige Pferd.
 
Naja, wenn man davon ausgeht und wie schon Crytek angedeutet hat, man GPGPU für Effekte usw. unbedingt nutzen möchte und dadurch man einen gewissen Sprung nach Vorne machen will, so stinkt dort die neue NVida gegen die neue AMD so richtig ab. Aber im "Jetzt Zustand" hast du natürlich Recht.

Wie du schriebst, bei aktuellen Spielen ist die GeForce schneller. Sollte die AMD 7970 mal schneller sein, dann nie in dem Bereichen welche die GFLOP Differenzen aufzeigen wurden.
GPGPU ist eine andere Geschichte. Die Benchmark Ergebnisse offenbaren aber auch hier eine keine Abhängigkeiten der GFLOP Angaben wie sie zwischen den beiden GPUs bestehen. Als Grund für den Einbruch der nVidia 680, auch gegenüber dem Vorgänger, ist nach Angaben von Testern und von nVidia selbst der eingeschränkte Cache und Speicherkontroller :)

Aufbringer der Diskussion war mein Statement über SoCs, dass ich bei diesen optimistisch in die Zukunft schaue, aber nur wenn man Vorteile aus ihrer Archtitektur zieht, was der wichtige Zusatz für diese Einschätzung war, und relativ neutral geschrieben war. Mit keinen Wort habe ich geschrieben dass SoCs den aktuell getretten Lösungen konkurrenz im High End Bereich sind.
Keine Ahung also wohe die Emotionen kommen xD
 
Ich würde mir wünschen, dass die PS4 eine Voodoo RX Grafikkarte haben würde.
3DfX war damals the shit :v: Glide baby :rox:
 
ก็็็็็็็็็็็็็็็็็็็็ กิิิิิิิิิิิิิิิิิิิิ ก้้้้้้้้้้้้้้้้้้้้ ก็็็็็็็็็็็็็็็็็็็็ กิิิิิิิิิิิิิิิิิิิิ ก้้้้้้้้้้้้้้้้้้้้ ก็็็็็็็็็็็็็็็็็็็็ กิิิิิิิิิิิิิิิิิิิิ ก็็็็็็็็็็็็็็็็็็็็ กิิิิิิิิิิิิิิิิิิิิ
 
Lustige Randnotiz zu deinen GFLOP Wahn übrigens. Die besten AMD GPU hat ca. 22% mehr GFLOP Leistung gegenüber der aktuellsten Geforce, was ein dicker Batzen ist. Und jetz rate mal welche GPU auf Strecke schneller ist :wink2:

nicht nur das, die 680 hat sogar ne 20% kleinere DIE und 30% weniger strom verbrauch :goodwork:
Und der GK104 chip sollte eigentlich nur der performance chip werden bevor NV sich gedacht hat "hopla unser performance chip schlägt ja AMD's High end chip :o dann nennen wir die doch einfach 680 anstatt 660 und melken die kunden" so haben sie noch schön zeit am GK110 zu feilen :goodwork:
 
nicht nur das, die 680 hat sogar ne 20% kleinere DIE und 30% weniger strom verbrauch :goodwork:
Und der GK104 chip sollte eigentlich nur der performance chip werden bevor NV sich gedacht hat "hopla unser performance chip schlägt ja AMD's High end chip :o dann nenen wir die doch 680 und melken die kunden"

Jup, aber die Größe und Die Fläche kommt auch durch den kleineren Fertigungsprozess zustande, der auch dafür zuständig ist dass das Ding glaube kaum verfügbar ist :)
 
Wie du schriebst, bei aktuellen Spielen ist die GeForce schneller. Sollte die AMD 7970 mal schneller sein, dann nie in dem Bereichen welche die GFLOP Differenzen aufzeigen wurden.
GPGPU ist eine andere Geschichte. Die Benchmark Ergebnisse offenbaren aber auch hier eine keine Abhängigkeiten der GFLOP Angaben wie sie zwischen den beiden GPUs bestehen. Als Grund für den Einbruch der nVidia 680, auch gegenüber dem Vorgänger, ist nach Angaben von Testern und von nVidia selbst der eingeschränkte Cache und Speicherkontroller :)

Aufbringer der Diskussion war mein Statement über SoCs, dass ich bei diesen optimistisch in die Zukunft schaue, aber nur wenn man Vorteile aus ihrer Archtitektur zieht, was der wichtige Zusatz für diese Einschätzung war, und relativ neutral geschrieben war. Mit keinen Wort habe ich geschrieben dass SoCs den aktuell getretten Lösungen konkurrenz im High End Bereich sind.
Keine Ahung also wohe die Emotionen kommen xD

ich glaube, da irrst du dich. Bei GPGPU geht es Grundsätzlich um die Anzahl von ParallelThreads, die abgearbeitet werden können. Diese sind von den ALU's/Shader bestimmt. Sprich bei AMD sind es SIMD-ALU's und bei bei Nvida glaube sind es SIMT oder so. Was bei der 680 unter anderem das Problem ist, ist die Speicherbandbreite. Also für GPGPU(glaube ich) ist schon die max. Rechenleistung ausschlaggebend. Daher werden auch an der Uni's die AMD-Karten bevorzugt, da GPGPU-Leistung der AMD-Karten besser ist. Hab extra nachgeschaut, wo man eine einfache Erklärung zu GPGPU findet aber bisher nichts gefunden^^ Wenn du irgendwas lockeres(also was sich gut liest) findest, dann poste mal^^
 
Zuletzt bearbeitet:
AMD verwendet doch den gleichen prozess brauch aber mehr fläche und mehr watt

Jo, da hast du natürlich recht. Bin nicht mehr so fit bei den GPU Modellen :)

@thraker

Hatte irgendwo irgendwann mal was vom beschränkten Cache der 680 gelesen, weche bei ihr eine bessere GPGPU Leistung verhindert, weiß aber nicht mehr wo das war :)
Habe auf die Schnelle nur noch das gefunden
Raytracing mit der Grafikkarte ist ein Idealfall von GPU-Compute: Massiv parallele Berechnungen kommen den Hunderten bis Tausenden von Rechenwerken moderner GPUs entgegen, fordern aber im gleichen Atemzug die Verschaltung der einzelnen Ausführungseinheiten aufs Äußerste. Denn richtig schnell sind die GPUs nur, wenn die Shader-ALUs sowohl rechtzeitig mit Daten gefüttert werden und die Caching-Effekte der schnellen Zwischenspeicher ausgenutzt werden. Je komplexer eine Szene und je mehr sogenannte Light-Bounces, Reflexionen der Lichtstrahlen also, in die Berechnung mit einfließen, desto höher die Ansprüche nicht nur an die Shader-Rechenwerke sondern auch und besonders an Caches und die Speichercontroller.

@Quelle http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=17

Wird hier also teilweise angesprochen, wenn auch nur auf Basis von Raytracing :)
 
Zuletzt bearbeitet:
Jo, da hast du natürlich recht. Bin nicht mehr so fit bei den GPU Moellen :)

@thraker

Hatte irgendwo irgendwann mal was vom beschränkten Cache der 680 gelesen, weche bei ihr eine bessere GPGPU Leistung verhindert, weiß aber nicht mehr wo das war :)
Habe auf die Schnelle nur noch das gefunden


@Quelle http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=17

Wird hier also teilweise angesprochen, wenn auch nur auf Basis von Raytracing :)

Genau als du mir geantwortet hast, hab ich meinen Kommentar etwas editiert. Hab da minimal was verändert aber deine Aussage deckt sich eigentlich mit meiner, da die Shader bzw. Alus eigentlich ausschlaggebend sind und eigentlich auch die Tflops^^, wobei Nvida drauf eh geschissen hat und wohl auf schnelle als auf gleichzeitige Abarbeitung gesetzt hat(sprich Performance). Was jetzt etwas "schwul ist",ist, dass ich dir nen Raytracer programmieren kann aber zu wenig von der Hardware... bisher mitbekommen/gelernt hab^^ Ich könnte dir jetzt Raytracer erklären aber das würde dir und mir nicht weiterhelfen^^


Ich hab hier was gefunden aber das Teil liest sich extrem shi.... :D
http://www.planet3dnow.de/vbulletin/showthread.php?t=362621&garpg=12

Mit den GPUs hat sich in den letzten Jahren eine Klasse von Hardware entwickelt, die eine extrem hohe Rohperformance zur Verfügung stellen kann. Anders als CPUs versuchen sie nicht, die Ausführung von wenigen Threads zu beschleunigen, sondern den Durchsatz möglichst hoch zu halten. Deswegen werden grundsätzlich andere Konzepte verfolgt, um die Performance zu steigern. GPUs setzen auf eine parallele Verarbeitung möglichst vieler Daten. Dazu kommen eine Vielzahl an Techniken zum Einsatz (SIMD, VLIW, Multithreading), die darauf ausgerichtet sind, mit möglichst wenig Verwaltungsaufwand möglichst viel zu rechnen und somit auch mehr Transistoren in Ausführungseinheiten statt in das Drumherum investieren zu können. Das Resultat ist eine allgemein gut 10 mal höhere Rohleistung als CPUs, die allerdings eingeschränkter nutzbar ist. Längst nicht immer begrenzt die verfügbare Rechenleistung die Geschwindigkeit.

Das hab ich aus den oberen Link entnommen aber es liest sich wie Kaugummi :D Und da kommen so Schlagwörter wie Rohrperformance und parallele Verarbeitung vor^^(passen etwas mit meinen vorherigen Post, wonach ich vielleicht doch etwas richtig lag^^). Es interessiert mich aber irgenwie hab ich nicht so die Lust da Zeit zu opfern :D










Edit: hab mich nochmal schau gemacht und jup, die Rohleistung ist kein Indikator für GPGPU-Leistung. Es gibt wohl einige Faktoren^^
 
Zuletzt bearbeitet:
Genau als du mir geantwortet hast, hab ich meinen Kommentar etwas editiert. Hab da minimal was verändert aber deine Aussage deckt sich eigentlich mit meiner, da die Shader bzw. Alus eigentlich ausschlaggebend sind und eigentlich auch die Tflops^^, wobei Nvida drauf eh geschissen hat und wohl auf schnelle als auf gleichzeitige Abarbeitung gesetzt hat(sprich Performance). Was jetzt etwas "schwul ist",ist, dass ich dir nen Raytracer programmieren kann aber zu wenig von der Hardware... bisher mitbekommen/gelernt hab^^ Ich könnte dir jetzt Raytracer erklären aber das würde dir und mir nicht weiterhelfen^^


Ich hab hier was gefunden aber das Teil liest sich extrem shi.... :D
http://www.planet3dnow.de/vbulletin/showthread.php?t=362621&garpg=12



Das hab ich aus den oberen Link entnommen aber es liest sich wie Kaugummi :D Und da kommen so Schlagwörter wie Rohrperformance und parallele Verarbeitung vor^^(passen etwas mit meinen vorherigen Post, wonach ich vielleicht doch etwas richtig lag^^). Es interessiert mich aber irgenwie hab ich nicht so die Lust da Zeit zu opfern :D










Edit: hab mich nochmal schau gemacht und jup, die Rohleistung ist kein Indikator für GPGPU-Leistung. Es gibt wohl einige Faktoren^^


Danke für den Link, den werd ich mir mal in nächster Zeit zu gemühte ziehen......in nächter Zeit, jetzt habe ich wie du erstmal kein Bock auf kaugummi :)
 
Danke für den Link, den werd ich mir mal in nächster Zeit zu gemühte ziehen......in nächter Zeit, jetzt habe ich wie du erstmal kein Bock auf kaugummi :)

Hab jetzt nur etwas nachgeforscht :D Das A und O ist die Shader Clustergröße und die Anzahl an Alus. Das macht die GPGPU aus und wie du schon geschrieben hast, da kackt die 680 in der Clustergrößer voll ab. Sie ist sowohl in der Clustergröße sprich mit 8 Einheiten und mit 1536 Alus im Vergleich zu 7970 extrem untermotorisiert(7970 C 32 und Alu 2048). Was ich mich jetzt hinterfrage ist, wie weit die Entwickler in der NextGen auf GPGPU setzen? Hab es ganze Zeit irgendwie garnicht im Kopf gehabt aber scheint irgenwie schon einige nette Vorteile mit sich zu bringen^^
 
Zuletzt bearbeitet:
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom