ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Die Kritik an der Cloud ist berechtigt. MS hat in der ersten Präsentation von der Power of the Cloud gesprochen die, so wurde es suggeriert, der One zu besserer Grafik als ohne verhilft.

Das hat bis heute nicht ein Spiel nachgewiesen. Crackdown sieht hier beeindruckend aus, wurde aber verschoben und ist halt noch nicht da. Und bis MS nicht nachgewiesen hat, dass es kein Bullshit war, muss man sich die Kritik zurecht gefallen lassen.
 
Warten wir doch Crackdown mal ab :) Berechnungen in der Cloud gibt es,wird genutzt und funktioniert.

Ganz einfache frage. Wieso wird es eine teure scorpio geben, wenn cloud doch so super duper spencer geil ist?

Und wieso gibts bis heute, 3 jahre nach one release, kein spiel obwohl ms (und vor allem du) so oft darüber propagiert? Ok du wirst ja dafür bezahlt. Aber trotzdem.
 
Zuletzt bearbeitet:
Das musst Du die Entwickler fragen,warum bis es bis jetzt nur wenige Spiele Cloud Berechnungen nutzen.Vielleicht ist es doch aufwändiger/kompliziert /zu neu usw.Dennoch kann niemand abstreiten,das es möglich ist und es in der Zukunft wichtig wird.Wenn die Xbox ihr ursprüngliches Konzept ,Always on,behalten hätte,wer weis wie dann die Cloud integriert wäre.

@Snake,dein Neid auf meine Promotion Gelder ist wirklich süss,denn dank MS habe ich mein Haus bezahlt.Danke Spencer:) Keine Miete mehr,mehr Geld fürs Zocken.
 
Das musst Du die Entwickler fragen,warum bis es bis jetzt nur wenige Spiele Cloud Berechnungen nutzen.Vielleicht ist es doch aufwändiger/kompliziert /zu neu usw.Dennoch kann niemand abstreiten,das es möglich ist und es in der Zukunft wichtig wird.Wenn die Xbox ihr ursprüngliches Konzept ,Always on,behalten hätte,wer weis wie dann die Cloud integriert wäre.

Die Frage ist ganz einfach zu beantworten: Weil es NICHT so funktioniert wie MS es suggerierte. Fertig. Nicht mehr und nicht weniger. Und doch, wenn man weiß wie so etwas funktioniert, kann man ohne mit der Wimper zu zucken abstreiten, dass das in Zukunft wichtig ist, weil es schlicht keinen großen Sinn macht.
 
http://www.play3.de/2016/10/21/ps4-pro-84-teraflops-sind-laut-mark-cerny-moeglich/

Sony :banderas:

PS4 Pro: 8,4 Teraflops sind laut Mark Cerny möglich


Half Precision ist die Zukunft. Mit angepassten Engines ist es kein Problem wirklich 100% mehr Leistung aus der GPU zu holen.
Wenn MS das mit Scoprio macht wird es Phenomänal.
Auf dem PC ist Half Precision für Grafikanwendungen quasi nicht möglich. Konsolen > Frickelkisten :lol2:
 
das steckt in den Kinderschuhen

wenn da was genutzt wird dann vielleicht in 2 jahren und wohl auch nur von sony studios nehm ich an

trotzdem ne nette secret sauce die nicht nur träumerei ist
 
Half Precision ist für eine Engine gut genug. Ist ja letztlich Wurst ob sich beim Umdrehen der Raum hinten um wenige mm verschiebt. Anders als bei CAD braucht eine Engine nicht diese Präzision. Mit ein wenig tricksen sieht niemand den qualitativen Unterschied zwischen einer 32 Bit und 16 Bit Berechnung. Nur mit dem Unterschied dass die 16 Bit Berechnung die doppelte Performance zur Verfügung hat. Wodruch diese letztlich viel besser aussehen kann.
 
das steckt in den Kinderschuhen

wenn da was genutzt wird dann vielleicht in 2 jahren und wohl auch nur von sony studios nehm ich an

trotzdem ne nette secret sauce die nicht nur träumerei ist
Kinderschuhe? Das HPFP Format wurde doch schon 2002 oder so definiert wenn ich mich nicht irre. Insofern ist auch Cernys Aussage "appearing for the first time" sehr verwunderlich. Das ist kein radikal neues Feature, es ist einfach eine andere Art die Performance zu messen. GPUs von Nvidia unterstützen das wie gesagt seit 2002 wenn ich mich recht erinnere und bei ARM Prozessoren ist es sogar der de-facto Standard für Grafikberechnungen.

Kleiner Exkurs: alle Shader die ich schreibe verwenden so lange half precision floating points wie es geht. Momentan berechnen moderne GPUs intern eh alles mit full precision floating points, aber die Unterstützung wäre schon da. Ich schreibe meine Shader deshalb so, weil das eine der Bausteine für volle Kompatibilität bzw. Rendergeschwindigkeit mit ARM GPUs ist. In der Regel ist es auch kein Problem, selbst HDR Farbinformationen lassen sich ganz wunderbar in HP Floating Points speichern. Schwierig wird es, wenn man z.B. die Specularity berechnen will. Dann muss man nämlich den Ort des Objects, den Ort des Viewports und den Ort der Lichtquelle verwenden und da kann man schon auch auf Präzision verzichten, es kann aber unter Umständen auffallen. Und bevor Jemand fragt: nein, das ist sicher nicht der Fuckup beim Lighting von Mafia 3 :v:
 
Zuletzt bearbeitet:
Kinderschuhe? Das HPFP Format wurde doch schon 2002 oder so definiert wenn ich mich nicht irre. Insofern ist auch Cernys Aussage "appearing for the first time" sehr verwunderlich. Das ist kein radikal neues Feature, es ist einfach eine andere Art die Performance zu messen. GPUs von Nvidia unterstützen das wie gesagt seit 2002 wenn ich mich recht erinnere und bei ARM Prozessoren ist es sogar der de-facto Standard für Grafikberechnungen.

Kleiner Exkurs: alle Shader die ich schreibe verwenden so lange half precision floating points wie es geht. Momentan berechnen moderne GPUs intern eh alles mit full precision floating points, aber die Unterstützung wäre schon da. Ich schreibe meine Shader deshalb so, weil das eine der Bausteine für volle Kompatibilität bzw. Rendergeschwindigkeit mit ARM GPUs ist. In der Regel ist es auch kein Problem, selbst HDR Farbinformationen lassen sich ganz wunderbar in HP Floating Points speichern. Schwierig wird es, wenn man z.B. die Specularity berechnen will. Dann muss man nämlich den Ort des Objects, den Ort des Viewports und den Ort der Lichtquelle verwenden und da kann man schon auch auf Präzision verzichten, es kann aber unter Umständen auffallen. Und bevor Jemand fragt: nein, das ist sicher nicht der Fuckup beim Lighting von Mafia 3 :v:

Danke für den Exkurs...warum wird aber FP16 so wenig verwendet?
 
Danke für den Exkurs...warum wird aber FP16 so wenig verwendet?
Weil man modernen GPUs bis zur GTX9xxer Reihe keine native Unterstützung für FP16 hatten. Die verwenden intern immer FP32 (d.h. FP16 Anweisungen werden umgewandelt). Bei NVidia unterstützt jetzt die 10xxer Reihe FP16 nativ, d.h. theoretisch können die Karten 2 FP16 Anweisungen statt 1 FP32 Anweisung umsetzen, allerdings - und hier passt Bonds Aussage - steckt dieses Feature noch in den Kinderschuhen. Wenn das bei der PS4 Pro so easy peasy machbar ist, aber mit der normalen PS4 nicht, steckt wenigstens eine Erweiterung der GPU drin, möglicherweise sogar ein Generationswechsel (und nicht einfach nur eine Erhöhung der GCN Anzahl und Leistung wie bisher bekannt wenn ich richtig informiert bin). Oder aber die AMD APUs sind durchaus schon länger dazu in der Lage, dann wäre ein derartiger Leistungsschub auch für PS4 (und auch XO) denkbar.

Witzigerweise ging der Weg noch vor kurzem eher in die andere Richtung, zumindest im High End, mit FP64 iirc. Dabei hat NVidia im Bereich Deep Learning eigentlich große Fortschritte mit der Verwendung von FP16 gemacht, weshalb die PS4 Pro hier zu einer Art Wegbereiter einer älteren Technologie für moderne Konsolen werden könnte (wie gesagt: bei Smartphone Spielen verwendet man idR FP16 weil diese GPUs nativ FP16 verwenden und alles andere hergeschenkte Leistung wäre). Die FP16 Leistung von Smartphones ist ja einer der Gründe, warum Epic die Unreal Engine 4 für iOS und Android überhaupt unterstützen kann. Und jetzt könnte man noch den Bogen zu Nintendo Switch spannen, die mit dem Tegra genau so eine Hardwarearchitektur verbauen (und mich würde absolut nicht wundern, wenn Nintendo das OS von Switch auf Android Basis entwickelt hat).
 
Weil man modernen GPUs bis zur GTX9xxer Reihe keine native Unterstützung für FP16 hatten. Die verwenden intern immer FP32 (d.h. FP16 Anweisungen werden umgewandelt). Bei NVidia unterstützt jetzt die 10xxer Reihe FP16 nativ, d.h. theoretisch können die Karten 2 FP16 Anweisungen statt 1 FP32 Anweisung umsetzen, allerdings - und hier passt Bonds Aussage - steckt dieses Feature noch in den Kinderschuhen. Wenn das bei der PS4 Pro so easy peasy machbar ist, aber mit der normalen PS4 nicht, steckt wenigstens eine Erweiterung der GPU drin, möglicherweise sogar ein Generationswechsel (und nicht einfach nur eine Erhöhung der GCN Anzahl und Leistung wie bisher bekannt wenn ich richtig informiert bin). Oder aber die AMD APUs sind durchaus schon länger dazu in der Lage, dann wäre ein derartiger Leistungsschub auch für PS4 (und auch XO) denkbar.

Witzigerweise ging der Weg noch vor kurzem eher in die andere Richtung, zumindest im High End, mit FP64 iirc. Dabei hat NVidia im Bereich Deep Learning eigentlich große Fortschritte mit der Verwendung von FP16 gemacht, weshalb die PS4 Pro hier zu einer Art Wegbereiter einer älteren Technologie für moderne Konsolen werden könnte (wie gesagt: bei Smartphone Spielen verwendet man idR FP16 weil diese GPUs nativ FP16 verwenden und alles andere hergeschenkte Leistung wäre). Die FP16 Leistung von Smartphones ist ja einer der Gründe, warum Epic die Unreal Engine 4 für iOS und Android überhaupt unterstützen kann. Und jetzt könnte man noch den Bogen zu Nintendo Switch spannen, die mit dem Tegra genau so eine Hardwarearchitektur verbauen (und mich würde absolut nicht wundern, wenn Nintendo das OS von Switch auf Android Basis entwickelt hat).

Man braucht doch nicht Android für fp16, oder? Auf jeden Fall läuft die UE 4 auf Switch und Epic ist offizieller Partner. Und ja, die neueren Tegras unterstützen fp16, AMD GPUs anscheinend erst seit Tonga wieder einigermaßen, deshalb kann es auch die alte PS4 nicht.
 
http://www.play3.de/2016/10/21/ps4-pro-84-teraflops-sind-laut-mark-cerny-moeglich/

Sony :banderas:

PS4 Pro: 8,4 Teraflops sind laut Mark Cerny möglich



Half Precision ist die Zukunft. Mit angepassten Engines ist es kein Problem wirklich 100% mehr Leistung aus der GPU zu holen.
Wenn MS das mit Scoprio macht wird es Phenomänal.
Auf dem PC ist Half Precision für Grafikanwendungen quasi nicht möglich. Konsolen > Frickelkisten :lol2:


AMD GPUs unterstützen es seit Tonga. Nvidia streicht es derzeit absichtlich aus den Desktop GPUs um seine Server GPUs nicht nutzlos zu machen, Switch dürfte es jedoch können, da Tegra.
 
Man braucht doch nicht Android für fp16, oder? Auf jeden Fall läuft die UE 4 auf Switch und Epic ist offizieller Partner. Und ja, die neueren Tegras unterstützen fp16, AMD GPUs anscheinend erst seit Tonga wieder einigermaßen, deshalb kann es auch die alte PS4 nicht.

Stimmt...Tonga kam kurz nach Pitcrain
 
Man braucht doch nicht Android für fp16, oder? Auf jeden Fall läuft die UE 4 auf Switch und Epic ist offizieller Partner. Und ja, die neueren Tegras unterstützen fp16, AMD GPUs anscheinend erst seit Tonga wieder einigermaßen, deshalb kann es auch die alte PS4 nicht.
Nein, man braucht Android nicht dafür. Ich vermute das nur, weil der Aufwand für Entwickler minimal sein dürfte wenn die Basis Android ist (auf Treiberseite eben weil Tegra sowieso primär Android unterstützen dürfte und auf Contentseite, weil Android von Unity, Unreal und anderen Middlewares eh schon unterstützt wird). Auf der anderen Seite reden wir hier über Nintendo, also ist es vermutlich doch eine Eigenentwicklung.
 
Ich lese immer dass Android relativ schlecht fürs gaming ist, beziehungsweise viele Ressourcen benötigt, die CPU ausbremst etc. Aber vieleicht kann man es bis auf den Kern entschlacken. Ich glaube es aber irgendwie nicht.

Nintendo arbeitet ja an Vulkan mit (da sollten diverse Engines kein Problem sein) und hat Nvidia als Partner, anscheinend ist auch Nvidia an Engines, Apis, Software allgemein und sogar dem OS für Switch beteiligt.

@Tonga: Habe ich nicht gewusst und wundert mich, wobei das vermutlich mit der Rückwärtskompatibilität zusammenhängt, dass man nicht gleich was moderneres von AMD nimmt. Eventuell ist FP16 ja eines der Features die man von Tonga übernimmt, keine Ahnung. Die ältere GCN Architektur der PS4 kann es jedenfalls nicht.
 
Zuletzt bearbeitet:
Einer im GAF hat alte erinnerungen wegen FP16 geweckt xD die alten PCler hier können sich sicher auch noch dran erinnern als Nvidia ATI cheating bei den benchmarks vorgeworfen hat, da sie mit FP16 in ihrem treiber die benchmarks geboostet haben auf kosten von IQ (was aber auf den ersten blick nicht aufgefallen ist)
http://www.geeks3d.com/20100916/fp1...-by-ati-to-boost-benchmark-score-says-nvidia/

CB und PCGH haben damals als eine der ersten drüber berichtet das ihnen was faul vorkommt bei den benchmarks die sie von ATI vorgeschrieben bekommen, das weis ich noch :)
Jetzt kommt das alles wieder zurück ;)
Man sollte sich da aber keine zu großen hoffnungen machen das es jetzt in jedem bereich eingesetzt wird, es wird ein bischen performance bringen (first party wird es eventuell mehr nutzen) aber jetzt nicht ne doppelt so starke PSPro draus machen.
Tim Sweeney meinte mal auf ner keynote das FP16 auf mobilen geräten kein nachteil sei bei dem verlust der IQ da es dort eh nicht so wichtig ist, aber am PC wo es auf qualität bei den games ankommt von der IQ wäre es nicht in jedem bereich geeignet/präzise genug. Irgend wie so, habs nur noch wage im Kopf.
 
Ich lese immer dass Android relativ schlecht fürs gaming ist, beziehungsweise viele Ressourcen benötigt, die CPU ausbremst etc. Aber vielelicht kann man es bis auf den Kern entschlacken. Ich glaube es aber irgendwie nicht.

@Tonga: Habe ich nicht gewusst und wundert mich, wobei das vermutlich mit der Rückwärtskompatibilität zusammenhängt, dass man nicht gleich was moderneres von AMD nimmt. Eventuell ist FP16 ja eines der Features die man von Tonga übernimmt, keine Ahnung. Die ältere GCN Architektur der PS4 kann es jedenfalls nicht.
Ja, FP16 und ein besserer Load Balancer sind die beiden Features.
 
Weil man modernen GPUs bis zur GTX9xxer Reihe keine native Unterstützung für FP16 hatten. Die verwenden intern immer FP32 (d.h. FP16 Anweisungen werden umgewandelt). Bei NVidia unterstützt jetzt die 10xxer Reihe FP16 nativ, d.h. theoretisch können die Karten 2 FP16 Anweisungen statt 1 FP32 Anweisung umsetzen, allerdings - und hier passt Bonds Aussage - steckt dieses Feature noch in den Kinderschuhen. Wenn das bei der PS4 Pro so easy peasy machbar ist, aber mit der normalen PS4 nicht, steckt wenigstens eine Erweiterung der GPU drin, möglicherweise sogar ein Generationswechsel (und nicht einfach nur eine Erhöhung der GCN Anzahl und Leistung wie bisher bekannt wenn ich richtig informiert bin). Oder aber die AMD APUs sind durchaus schon länger dazu in der Lage, dann wäre ein derartiger Leistungsschub auch für PS4 (und auch XO) denkbar.

Witzigerweise ging der Weg noch vor kurzem eher in die andere Richtung, zumindest im High End, mit FP64 iirc. Dabei hat NVidia im Bereich Deep Learning eigentlich große Fortschritte mit der Verwendung von FP16 gemacht, weshalb die PS4 Pro hier zu einer Art Wegbereiter einer älteren Technologie für moderne Konsolen werden könnte (wie gesagt: bei Smartphone Spielen verwendet man idR FP16 weil diese GPUs nativ FP16 verwenden und alles andere hergeschenkte Leistung wäre). Die FP16 Leistung von Smartphones ist ja einer der Gründe, warum Epic die Unreal Engine 4 für iOS und Android überhaupt unterstützen kann. Und jetzt könnte man noch den Bogen zu Nintendo Switch spannen, die mit dem Tegra genau so eine Hardwarearchitektur verbauen (und mich würde absolut nicht wundern, wenn Nintendo das OS von Switch auf Android Basis entwickelt hat).
na nvidia macht da schon sehr seltsahme sachen mit ihren gpus as fp16 unterstützug und leistung angeht
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5

@amd
native fp16/int16 shader ops ab gcn3(apus) und gcn4 (polaris)

man ich hätte zu gern nen ps4 emulator schwacher jaguar cpu und runtergetakteter polaris gpu
da könntmeinsystem ja fast als def kit durchgehe
 
na nvidia macht da schon sehr seltsahme sachen mit ihren gpus as fp16 unterstützug und leistung angeht
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5

@amd
native fp16/int16 shader ops ab gcn3(apus) und gcn4 (polaris)

man ich hätte zu gern nen ps4 emulator schwacher jaguar cpu und runtergetakteter polaris gpu
da könntmeinsystem ja fast als def kit durchgehe

Nvidia verkrüppelt die fp16 leistung in den Desktop GPUs absichtlich um den Server GPUs nen Kaufgrund zu geben, habe ich gehört. :v: Betrifft aber Tegra nicht.
 
Zurück
Top Bottom