PC vs. Konsole

Status
Nicht offen für weitere Antworten.
Steam Machines »so gut wie tot« - Aber der Steam-Controller ist fertig
Die Bezeichnung Steam Machines ist laut den CEO des PC-Herstellers Origin PC »so gut wie tot«.

http://www.gamestar.de/hardware/kon...team_machines_so_gut_wie_tot,614,3081754.html

Steam machines sind wohl geschichte, totgeburt!



und der nächste brüller sind die comments der frust race in der witcher 3 specs news :lick:

http://www.gamestar.de/spiele/the-w...ws/the_witcher_3_wild_hunt,49062,3081749.html

hard times master race.
 
Gestern im gaf noch gelesen, dass Controller und os fertig sind und die Teile im März zur gdc(?) kommen. :-?
 
Das ist halt hier im Forum so. Ich habe eine etwas weniger aggressive Meinung außerhalb da ich selbst mit NES bis Xbox 360 meinen Spaß hatte.
Außerhalb ist Real Life oder noch sogar hier in einem anderem Thread?

Ja im unteren Bereich aber für High end wird es imo noch länger dauern bzw. ist es aktuell offen. Wenn stacked ram auf cpu & gpu kommt dürfte es aber langsam interessant werden worauf es hinaus läuft bei high performance.
Mit einer modernen API und zugegeben feiner Arbeit bei der Synchronisation und Arbeitsverteilung, wäre es schon jetzt interessant.
Kaveri hat z.B. 440-850 GFLOPs welche von der GPU bereitgestellt werden, Broadwell um die 300 GFLOPs.
Die integrierte GPU als Co-Prozessor zu verwenden, klingt natürlich attraktiv.
Aber ohne API und R&D in dem Bereich, haben PCler keinen Nutzen davon.

Weil der Weg zb von der GPU in den Ram zu schreiben und wieder von der CPU abzuholen weit ist. War nicht früher die Rede davon das es mehr wie ein frame dauern wird? Er sagt ja selbst das es für Grafiksachen nichts bringen wird und greift dann auf eher nebensächliche Beispiele zurück. Oder gibt es inzwischen schon mehr Beispiele die auch wirklich einen größeren Einfluß haben könnten?
Die Rede hier war vom PC.
Beim PC musst du von einem Ram-Typ übers Board zum anderem Ram-Typ Daten herschieben.
Bei den Konsolen oder Kaveri und bald Broadwell kannst du auch nur Pointer verschieben, bei Intel geht das sogar ganz cool im Last-Level-Cache den sich GPU und CPU teilen.
Einen theoretischen Nutzen könnte ich mir für viele Sachen vorstellen, da ich aber kein Programmierer bin, weiß ich natürlich nicht wo praktische Grenzen den theoretischen Ideen in die Quere kommen.

Wo liegt denn die Leistung brach? (ernstgemeinte Frage)
Ich weiss nur, dass bei den AMD APUs der Speicher ziemlich limitierend ist, aber Wunder vollbringen kann das Ding auch mit besserem Speicher nicht unbedingt..

Allgemein: Ich frage mich, wie viel Optimierung kann herausgeholt werden? Die Architektur ist ja nicht 1:1 dieselbe wie ein PC (besonders was den Speicher anbelangt), die XBone sticht da noch hervor mit ihrem ESRAM. Was kann man da Leistungs-mässig rausholen?
Oben wurde es hoffentlich etwas klarer was ich meinte.
Die Leistung liegt bei der verbauten iGPU brach.
Und klar mit einer DX11 API und dem klassischen Berechnungsmodell reißt Kaveri keine Bäume aus.
Und außer HSA-Demos hat man auch praktisch nichts gesehen.
Dauert leider wie immer seine Zeit.
Immerhin kann OpenCL 2.0 endlich etwas mit der Hardware anfangen.

PS: Pauschal wird dir das hier niemand beantworten können.
Problematisch ist natürlich das PC, PS4 und Xbox One sich unterscheiden und gerade in Hinblick auf Multi-Plattform Spiele man sich die Frage stellen muss, wie viel Aufwand Entwickler in spezielle Lösungen stecken werden und in "Fallbacks" für z.B. PC-Hardware die nicht die selben Möglichkeiten anbietet.

Die Frage stellt sich ja auch schon leider bei Async Compute, wo man die ACEs für effizienteres Compute ausnutzt.
Neben Compute-Spielereien möchte man noch eine halbwegs ansehnliche Grafik ausspucken und das am besten nicht in 720p.
Bei Multiplattform Titeln wieder die Frage, wie weit skalieren Entwickler solche Möglichkeiten und setzen sie es überhaupt ein, wenn es letztendlich auf einer Plattform praktisch nicht nutzbar ist?
 
Zuletzt bearbeitet:
Außerhalb ist Real Life oder noch sogar hier in einem anderem Thread?
Außerhalb vom war bereich aber die meisten Threads welche ich dort lese gehen sowiso viel langsamer voran.

Ich war früher auch im Konsolen war thread am lesen und zeitweise schreiben aber dort war es selbst für mich zu wild. :uglylol:

Die Rede hier war vom PC.
Beim PC musst du von einem Ram-Typ übers Board zum anderem Ram-Typ Daten herschieben.
Bei den Konsolen oder Kaveri und bald Broadwell kannst du auch nur Pointer verschieben, bei Intel geht das sogar ganz cool im Last-Level-Cache den sich GPU und CPU teilen.
Einen theoretischen Nutzen könnte ich mir für viele Sachen vorstellen, da ich aber kein Programmierer bin, weiß ich natürlich nicht wo praktische Grenzen den theoretischen Ideen in die Quere kommen.
Das hin und herschieben wird in der praxis aber soweit ich weiß kaum gemacht außer beim Laden/Nachladen. Das ganze wird auch ziemlich unflexibel. Was mache ich zb wenn ich sli haben will oder die Grafikkarte upgraden will aber die CPU noch ausreicht?

Mit Pascal wird das pointer verschieben auch ein geringeres Problem.
 
Das hin und herschieben wird in der praxis aber soweit ich weiß kaum gemacht außer beim Laden/Nachladen. Das ganze wird auch ziemlich unflexibel. Was mache ich zb wenn ich sli haben will oder die Grafikkarte upgraden will aber die CPU noch ausreicht?

Mit Pascal wird das pointer verschieben auch ein geringeres Problem.
Natürlich wird das hin und herschieben in der Praxis selten gemacht, weil eben die klassische PC-Architektur limitiert und man versucht den Flaschenhals aus dem Weg zu gehen.

Mit einer modernen APU stellt sich das Problem natürlich deutlich weniger.
Mit einer APU alleine kommt man natürlich an eine Rohleistungsgrenze.
Es wird kein IHV 500mm² Consumer SoCs produzieren mit über 5 Teraflops an Leistung.
Um dennoch Nutzen von der modernen Architektur und genügend Rohpower zu haben, spreche ich eben die Lösung APU/SoC + dGPU an.
Du könntest theoretisch auf der APU dank der iGPU eine Menge mehr berechnen und dann eben das Zeug zur dGPU rüberschieben.
Letztendlich muss man auch hier aufpassen, nicht zuviel Ping-Pong zu betreiben, aber immerhin wärst du innerhalb des SoCs flexibel genug Berechnungen anzustellen.

Das mit Pascal ist so eine Sache.
Seit CUDA6 bietet Nvidia unified virtual memory an, stand als Stichpunkt bei Maxwell, auch wenn ich leider nicht weiß was der genaue Unterschied wäre.
Jetzt steht es eben erst bei Pascal irgendwann H2 2016.
AMDs GPUs können mit OpenCL 2.0 seit Sea Islands auch schon nur Pointer rüberschicken.

Am Ende bleibt es aber weiterhin limitiert, physikalisch ändert sich an der Konstellation ja nichts.
Die CPU kommuniziert über PCIe und somit ist das Grundproblem damit nicht gelöst.
 
Zuletzt bearbeitet:
Wie ich mich vornehmlich zurückhalte, obwohl ich quasi 'ne Punktlandung auf Minimal hinlege :sorry: :blushed: :v:

wird bei mir nicht mal mehr starten da 4 gb ram ;)
interessant ist es aber zwangsweise werde ich den titel wohl erst 6- 9 monate später nachholen können. Dann aber 4k und 60 fps (ich nehm da corti beim wort :v: )
 
und der nächste brüller sind die comments der frust race in der witcher 3 specs news :lick:

http://www.gamestar.de/spiele/the-w...ws/the_witcher_3_wild_hunt,49062,3081749.html

hard times master race.
aha wenn die leute sich schon drüber beschweren das das game auf eine i5 750 nicht läuft kann man dennen auch nicht mehr helfen
nen cpu von 2012 als minimum oder gar 6gb an ram finde ich da auch nicht übertrieben
immerhin ist dx11 voraussetzung

schlimm finde ich eher wenn entwickler sich so äußern
PCGH: Wird die Haar- und Fell-Simulation auch auf Radeon-GPUs laufen?

Török Balázs: Ja, ja das sollte es. Im Moment funktioniert es, aber ob es am Ende auch läuft, ist die Entscheidung von Nvidia. Ausschlaggebend ist, in welche Richtung sie die Technik weiterentwickeln und ob und welche Sperren sie einbauen werden. Aber ich denke, es wird auch auf Radeon-Grafikkarten laufen.

das erinert a die farcry saxhe wo effekte abgeschaltet werden weil nvidia das so will

außerdem was mit amd gibts da mal was neues zumindest müste mal langsam ne ankündigung oder so kommen
 
schlimm finde ich eher wenn entwickler sich so äußern

das erinert a die farcry saxhe wo effekte abgeschaltet werden weil nvidia das so will

außerdem was mit amd gibts da mal was neues zumindest müste mal langsam ne ankündigung oder so kommen
Ich finde die Situation leider auch eher perfide.
Gerade was Hairworks angeht, denke ich ist die Lösung von Nvdidia scheiße.
Das aber Effekte bei Far Cry abgeschaltet werden, davon weiß ich nichts.

Bezüglich AMD, was meinst du mit neues?
Also seit dem Catalyst Omega hat AMD Tress FX 3.0 angekündigt:
http://pics.computerbase.de/6/1/8/3/0/1.png

Wann es kommt und ob es überhaupt jemand implementieren wird, keine Ahnung.
 
Natürlich wird das hin und herschieben in der Praxis selten gemacht, weil eben die klassische PC-Architektur limitiert und man versucht den Flaschenhals aus dem Weg zu gehen.
Ich bezweifle halt das es soviel bringt solange es kein shared cache oder etwas ähnliches hat. Der normale ram ist langsam. Intel hätte doch schon längst lösungen für Spiele gemacht wenn das so überlegen wäre aber bis auf wenige Effekte ist von denen auch nichts gekommen.


spreche ich eben die Lösung APU/SoC + dGPU an.
Ok, das ist auch sinvoll.


Das mit Pascal ist so eine Sache.
Seit CUDA6 bietet Nvidia unified virtual memory an, stand als Stichpunkt bei Maxwell, auch wenn ich leider nicht weiß was der genaue Unterschied wäre.
Jetzt steht es eben erst bei Pascal irgendwann H2 2016.
AMDs GPUs können mit OpenCL 2.0 seit Sea Islands auch schon nur Pointer rüberschicken.

Am Ende bleibt es aber weiterhin limitiert, physikalisch ändert sich an der Konstellation ja nichts.
Die CPU kommuniziert über PCIe und somit ist das Grundproblem damit nicht gelöst.
Shared pointer sollen kommen was aber wohl eher eine erleichterung für die Programmierer sein wird. Mit nvlink sollte aber auch die Anbindung besser werden wenn sich das durchsetzt.
 
Ja das Haarbeispiel scheint ja das einzige praktische für Spiele zu sein was sie bisher haben oder habe ich da etwas übersehen? Witzigerweise war die Haar kollision in Tomb Raider welche auf AMD's technik basiert auf den Konsolen trotzdem schlechter wie auf dem PC. Oder wurde das noch gepatcht?
HAAR Face Detect hat nichts mit Haaren zu tun, das ist ein Algorithmus zur Gesichtserkennung. :ugly:

Gute Anwendungsfelder bei Spielen wären Analytische AA-Verfahren oder Sample Distributed Shadow Maps.
 
Ich finde die Situation leider auch eher perfide.
Gerade was Hairworks angeht, denke ich ist die Lösung von Nvdidia scheiße.
Das aber Effekte bei Far Cry abgeschaltet werden, davon weiß ich nichts.

Bezüglich AMD, was meinst du mit neues?
Also seit dem Catalyst Omega hat AMD Tress FX 3.0 angekündigt:
http://pics.computerbase.de/6/1/8/3/0/1.png

Wann es kommt und ob es überhaupt jemand implementieren wird, keine Ahnung.

mit neues meine ich hardware
die gerüchte sind schon monate alt bis auf kleingkeiten gleichen sie sich (was für nen speicher oder nm)
diese gerüchte sind aber teil schon nen halbes jahr alt

ich tuker schon seit paar monaten auf einer ersatz karte (280 oc) rum und es muss was neues her
nur muss amd dafür erst mal was zeigen
was bei mir für nvidia sprach war das downsampling aber das hat sich erledigt da amd nun auch offiziel unterstützt
 
Ich bezweifle halt das es soviel bringt solange es kein shared cache oder etwas ähnliches hat. Der normale ram ist langsam. Intel hätte doch schon längst lösungen für Spiele gemacht wenn das so überlegen wäre aber bis auf wenige Effekte ist von denen auch nichts gekommen.
Bei Intel haben wir seit Sandy-Bridge einen shared-cache.
Mit Haswell kam glaube ich Instant Access/Zero-Copy, also nur Pointer verschieben und mit Broadwell werden wir an der Stelle bald auch Cache-Kohärenz haben.
Kaveri hat zwar kein shared-cache, aber dennoch einen extra Bus dafür.

Es sollte einleuchtend sein, dass dies dank on-die Kommunikation dennoch hundert mal besser ist, als durch das Package auf einer elendslanger PCIe Straße zur anderen Processing Unit.

Mit nvlink sollte aber auch die Anbindung besser werden wenn sich das durchsetzt.
Für uns Konsumenten wird es nvlink mit hoher Wahrscheinlichkeit nicht geben.
 
HAAR Face Detect hat nichts mit Haaren zu tun, das ist ein Algorithmus zur Gesichtserkennung. :ugly:

Gute Anwendungsfelder bei Spielen wären Analytische AA-Verfahren oder Sample Distributed Shadow Maps.

Ja ich hatte das nachher gesehen das es dort um etwas anderes ging das nichts mit Spielen zu tun hat. Amd hat aber an Haar kollision für Spiele gearbeitet welches mit cpu&gpu kombi möglich ist.
 
Für uns Konsumenten wird es nvlink mit hoher Wahrscheinlichkeit nicht geben.

Ich hoffe noch immer auf eine enthusiast lösung also zb für intel server boards.

Pascal sli mit nvlink verbunden und ich so:

Euj77lz.gif
 
Na, das sind Träume.
Intel und AMD wirst du mit Nvlink nicht erleben.
Das maximale was ich mir vorstellen kann ist ein spezielles Mainboard, um Vorteile bei SLI zu haben, dass wäre aber so eine extreme Nischenlösung oder Nvidia müsste das als Plattform direkt supporten.
Neh, in der realen Welt für Konsumenten sehe ich Nvlink nicht.
 
Na, das sind Träume.
Intel und AMD wirst du mit Nvlink nicht erleben.
Das maximale was ich mir vorstellen kann ist ein spezielles Mainboard, um Vorteile bei SLI zu haben, dass wäre aber so eine extreme Nischenlösung oder Nvidia müsste das als Plattform direkt supporten.
Neh, in der realen Welt für Konsumenten sehe ich Nvlink nicht.

Gibt sicher einige Mainboardhersteller die soetwas verbauen würden. Es gibt einen guten Markt für Gaming boards und die Hersteller versuchen sich da immer vom Rest abzusetzten. Auch kleinere Server für computing sachen hätten Nutzen. Das es bei Pascal nicht kommt mag gut sein aber das es später kommt ist nicht ganz unrealistisch. Vorallem mit stacked ram wenn dort die Bandbreite hochgeht würde es helfen.
 
Zuletzt bearbeitet:
Ninja Theorys Hellblade wurde jetzt btw offiziell für PC angekündigt, und alle PS4 Fans so
Aapi4oz.png


:v:


http://www.pcgamer.com/hellblade-is-coming-to-pc/


“I think PC offers us a level of freedom that we haven’t had before,” the studio’s creative chief Tameem Antoniades told me. “We’re looking at everything we do on this project and figuring out better ways of doing things compared to how the traditional AAA console model works. And consoles are following suit with PC, but I think they’re years behind what things like Steam are doing.

The aim is for Hellblade to be future-proof on PC—possibly supporting 4K resolution and maybe even mods, too. “I think we want to get to the point where we can invite players and fans to add to the game, and do things that are unexpected, and suggest ideas or add-ons that can make the game richer.”

:awesome:
 
Das ist der Grund warum Kinder net in Gamingboards dürfen und net in einen War. Alle Spiele werden auf einem PC gemacht. :ugly: Eine Umsetzung auf den PC ist mehr oder weniger gegeben oder am leichtesten zu portieren. Duh.
 
Status
Nicht offen für weitere Antworten.
Zurück
Top Bottom