ConsoleWAR Current Gen Konsolen und Ihre Technik dahinter

Also die $40 mehr verlust wie noch bei der PS4 sollen jetzt die 52CU@2,15Ghz möglich machen die keine Custom Karte schaffen. Ok :goodwork:
Ichnsag schon seit 2 Jahren das ich dank PS+ mit mindestens $100 verlust rechne diesmal. ZEN2 ist locker fast doppelt so teuer wie der Jaguar, schnelle SSDs auf aktuellstem stand und mindestens 16GB ram so wie teuerer GPUs urch die teuerer 7nm fertigung wie noch damals (doppelt so teuer laut TSMC und auch AMD wie noch in 28nm) fressen schon mehr als damals ;) da sollte $100 das minimum sein für nen Kampfpreis bei dem man wie Sony sagt in den erste 3 Jahren mehr PS verkaufen will als noch bei der PS4 und sich sehr sicher ist das zu schaffen.
 
Resetera User schrieb:
Klee, there was someone saying you had talked about the PS Meeting being in February. I just wanted to clarify - is this just your assumption, or something from your source?
Kleegamefan schrieb:

Nicht mehr lange :goodwork:
 
warum wird nur in der erhöhung des taktes die lösung der probleme gesehen. ich habe soviele gründe geliefert unter dem aspekt der kostenanalyse, dass sony und ms einfach sich grössere chips liefern lassen können, statt den amd enverbraucher chip mit hohem takt zu maltrieren. 56-60cu werden es sein.
ich habe inklusive meiner kostenanalyse bezüglich einer apu soviele indizien genannt, die dafür sprechen. große konsolegehäuse, vermutete lunchpreise ab 499€, höhere subventionen, gerüchte überer geringen hauptram und dadurch wahrscheinlich zusätzlich mehr budget für mehr chipfläche usw.

The only reason 10TF is even a rumor is because the 5700XT has 40 CUs and some folks still can't see past that card. In an alternate universe where AMD released the 5500XT as the first Navi card, this thread is probably fearmongering over a 6TF PS5.


bringt genau meine meinung auf den punkt, dass sich alle mit einer consumerkarte mit specs und kosten beschäftigen, die vor paar jahren entworfen und kalkuliert worden sind. diese karten für den endmarkt werden in homopathischen stückzahlen verkauft und werden daher mit vielen kompromissen entwickelt und produziert. daher den hohen preis als rechtfertigung zu nehmen, dass keine potenteren chips mit mehr cu's genommen werden können, ist einfach nur kurzsichtig. sony und ms, die abnahmen von zusammen mehr als 100 millionen garantieren können, können ganz anders planen lassen, auch die frage der kostendesgression ist ganz anders. die können vorab die niedrigen stückkosten massiv einkalkulieren lassen, weil ja abnahme gesichert ist.

ich sage es ganz deutlich: den chip (nicht grafikkarte!!!) einer 1000$ grafikkarte bekämen ms und sony für lächerliche 100$ oder gar weniger.



update:

gehen wir doch mal durch, was für kosten in einer 1.000€ karte stecken?

19% mehrwertsteuer
20% händlermargen
kosten für ram
kosten für werbung
kosten für gewährleistung (wegen endverbrauchermarkt)
kosten für verpackung, distribution
kosten für kühlsystem
kosten für "mainboard" also der "karte" als träger des chips mit allen in/output eingängen und signalverarbeitungschips
kosten wegen hoher umlage für entwicklung und fixkostenproduktion wegen realtiv geringer stückzahlen.

von diesen hohen kosten jetzt davon auszugehen, dass in der ps5 und neuen xbox kein leistungsfähigerer navi chip eingebaut werden kann, weil die 5700 ja schon 500$ kosten soll, ist einfach nur hahnebüchen. weil der chip auf der 5700 karte nur ein bruchteil der kosten ausmacht (siehe kostenträgerrechnung oben) und für ms oder sony sogar deutlich günstiger wäre, da sie ja nur das rohprodukt brauchen, also den nackten chip direkt vom waver. daher ist es ganz realistisch, dass sony und ms auf grössere und effizientere chips zugreifen werden, weil die größe der chipfläche bezüglich der kostensteigerung massiv überschätzt wird. eine 30% erhöhung der kosten dürfen dann nicht auf 1000€ oder 500€ draufgeschlagen werden, sondern nur auf die abnahmekoste der chips, die sony und ms direkt ab fabrik in gigantischen mengen abkaufen. weder sony und erstrecht ms sind nicht auf die 360nm2 apu chipfläche beschränkt, die hier immer wieder gebetsmühlenartig als referenz genannt werden.

ein größerer chip, dazu effizientere produktionsweise und schon sind 12tf absolut realistisch. jedenfalls mehr als die 10tf die von einigen wenigen vermutet werden. es sind ja keine behauptungen, die mal einfach so in den raum geworfen werden, sondern ich jedenfalls hab sehr gute sachpunkte geliefert. es sprechen jedenfalls eindeutig mehr argumente und indizien für 12tf rdna, als gegen diese zahl.
 
Zuletzt von einem Moderator bearbeitet:
Ja genau so viel ahnung hast du :goodwork:

Und 60CU RDNA sind wie ~120CU bei noch 16nm, da AMD beim RDNA reveal ja meinte sie konnten die Transistor Zahl von GCN zu RDNA verdoppeln dank 7nm von 5 Mio auf 10 Mio was dafür halt zu ca. gleichem platz verbrauch geführt hat.
Also das würde ja bedeuten MS (und erst recht Sony) haben ja nen miserablen job gemacht das sie max 40CU hinbekommen haben und dann auch noch mit Vapor und $499.
Bevor DF wusste was die RDNA Architektur für transistor änderungen hat, haben sie noch vermutet das man ~80CU (mit preis und Kühlung) auf die selbe fläche auf ne Midrange GPU so wie die Next Gen bekommen könnte (Zen2 ja leicht größer wie Jaguar) in 7nm ;)
Das jetzt aber ne X mehr drauf geht ist ne Nummer :banderas:

Wer weiß, vielleicht bekommen wir ja 300Watt Konsolen.

Dictator meinte, sie haben mehrere Quellen die wohl was anderes wie Klee behaupten und das haben sie etwa wieder gegeben in ihrem letzten Video.
Leadbetter war nach 5700XT vorstellung und eigenen Test nicht mal sicher ob das nicht schon zuviel ist für ne Konsole.

Penello hat verraten anfang des jahres, das man sich sicher war Sony kommt mit 8TF im Jahr 2019, nach RDNA reveal wusste man auch warum er 8TF gemeint hat obwohl die X schon 6 hat.

Ich mag dich ja @amiga500 aber jetzt wirds Abenteuerlich .
 
Zuletzt bearbeitet:
@amiga500

Das ist ja alles schön un gut, aber anhand derzeitiger Fakten kann man schon einiges ausschließen.
Bei der Chipgröße scheint es eine Beschränkung zu geben um die Kosten nicht überproportional ansteigen zu lassen.
Wohl nicht umsonst lagen sie in den letzten Gen immer zwischen 320 und 360mm^2. Drüber nie.
Und wenn man diese Größe nimmt, dann hat man eben schon eine Beschränkung, was die Anzahl der CUs angeht.
Hatte ich ja auch schonmal grob abgeschätzt. Selbst bei 7nm+ Prozess, den ich sowieso annehme, da sonst auf diese Die-Größe nicht mal eine GPU mit 10TF passen würde mit den anderen Komponenten zusammen.

Also:
7nm+

Zen2 (da völlig für Konsolenverhältnisse ausreichend und deshalb kein Zen3, der vermutlich wieder mehr Platz bräuchte)

Navi2 (oder zumindest Teile davon wie RT). MS hat ja in der Presse gesagt, die XBOX würde mit der neuen Generation der Navi GPUs ausgestattet.
Also nicht neue GPU Generation Navi sondern neue Navi Generation. Was eben die eine Gen nach der derzeitigen Navi Gen bedeutet.

Da ich auch davon ausgehe, dass die Konsolen diesmal klotzen werden kann ich mir vorstellen, dass das DIE etwas größer wird.
So wie in diesem Leak
https://www.trippyleaks.com/2019/08...eleakt-gpu-der-konsole-soll-108-tflops-haben/

Da liegt es bei 393mm^2
Hier könnten dann die angegebenn 52 CUs (56 davon 4 nicht genutzt) eventuell draufpassen.
Moderater Takt für 7nm+ und das Teil verbraucht dann unter Last 250 Watt oder so und brächte es dann auf 10,8TF. Und das ist für die XBOX auch ein sehr realistischer Wert, insbesondere, wenn man Phils Aussagen in den diversen Interviews heranzieht.

Die Größe der XBOX sagt sicherlich etwas über den Stromverbrauch aus.
Wenn man bedenkt, dass die Launch- ONE X unter Last 170 Watt verbraucht und das Gehäuse der XBOX nun ca. doppeltes Volumen aufweist, sind 250 Watt sicherlich was Abwärme und Lautstärke angeht drin. Ebenfalls ein Wert, was mit den Daten des oben genannten Leaks sehr gut passen würde.

Die PS5 liegt sehr wahrscheinlich auf ähnlichem Niveau. Es würde mich allerdings wundern, wenn sie noch mehr an reiner GPU Power reinpacken würden. MS wird vermutlich noch die Series X mit weniger Leistung zum geringeren Preis raushauen. Sony hat vermutlich erst mal nur das eine Modell, was sie aber nicht ohne Ende Subventionieren werden.
Klar sinds nicht Komponenten von der Stange und die Preise liegen auch nicht im Großhandels- oder gar Einzelhandelsbereich.
Trotzdem werden die Kisten in der Produktion schon teuer als die Current Gen werden.
Relativ gesehen durch mehr Rechenpower, der SSD, des schnellen Hauptspeichers und der aufwändigeren Kühlung
 
Ja genau so viel ahnung hast du :goodwork:

Und 60CU RDNA sind wie ~120CU bei noch 16nm, da AMD beim RDNA reveal ja meinte sie konnten die Transistor Zahl von GCN zu RDNA verdoppeln dank 7nm von 5 Mio auf 10 Mio was dafür halt zu ca. gleichem platz verbrauch geführt hat.
Also das würde ja bedeuten MS (und erst recht Sony) haben ja nen miserablen job gemacht das sie max 40CU hinbekommen haben und dann auch noch mit Vapor und $499.
Bevor DF wusste was die RDNA Architektur für transistor änderungen hat, haben sie noch vermutet das man ~80CU (mit preis und Kühlung) auf die selbe fläche auf ne Midrange GPU so wie die Next Gen bekommen könnte (Zen2 ja leicht größer wie Jaguar) in 7nm ;)
Das jetzt aber ne X mehr drauf geht ist ne Nummer :banderas:

Wer weiß, vielleicht bekommen wir ja 300Watt Konsolen.

Dictator meinte, sie haben mehrere Quellen die wohl was anderes wie Klee behaupten und das haben sie etwa wieder gegeben in ihrem letzten Video.
Leadbetter war nach 5700XT vorstellung und eigenen Test nicht mal sicher ob das nicht schon zuviel ist für ne Konsole.

Penello hat verraten anfang des jahres, das man sich sicher war Sony kommt mit 8TF im Jahr 2019, nach RDNA reveal wusste man auch warum er 8TF gemeint hat obwohl die X schon 6 hat.

Ich mag dich ja @amiga500 aber jetzt wirds Abenteuerlich .


Man weiß ja, dass der derzeitige Navi Chip mit 40CUs in 7nm gefertigt, eine Größe von 250mm^2 hat. Da sitzen natürlich außer den CUs noch andere Komponenten drauf und natürlich auch das Speicherinterfac.
Grob geschätzt nimmt so eine CU dann 4mm^2 ein, wenn wir davon ausgehen, dass sie gut die Hälfte der Die-Fläche einnehmen.
16 mehr bedeutet somit eine Flächenvergrößerung von 160mm^2 auf 216mm^2 für die CUs.
Angenommene 15% weniger Größe aufgrund 7nm+ ggü. 7nm ergäben 184mm^2 für die CUs und 260mm^2 für die gesamte GPU Einheit.
Blieben noch 133mm^2 für den Rest übrig. Und da sind noch nicht einmal die Neuerungen bzgl. Navi 1 (RT Einheiten z.B.) mit berücksichtigt.
Das ist schon recht knapp, wenn auch noch die CPU und die restlichen Komponenten da drauf passen sollen.

Es bleibt spannend :)
 
Zuletzt bearbeitet:
Eine 5700XT hat schon mehr Abwärme und selben verbrauch (ohne CPU) Zen2 sicher auch mehr abwärem als Jaguar in 16nm bei 3+GHz takt.
Daher glaub ich nur an so Gerüchte wenn bestätigt wird, das der verbrauch nochmal einiges ansteigen wird wie die Generationen davor.

@Konsolenbaby

Zen3 wird bei gleicher größe nochmal mehr takt und IPC haben bei selben verbruch laut AMD, das wurde schon mal bestätigt und der aufbau wurde wegen 7nm+ verändert.
Wäre also ne schöne Verschwendung Zen2 extra anpassen zu müssen das er 7nm+ kompatibel ist, statt gleich Zen3 zu nehmen imo.
Es kommt wie vor kurzem von TSMC veröffentlicht ein 7nm Pro schritt, der aber eher durch normale Verbesserungen des verfahrens zu stande kommt, der 7% strom sparen soll, der soll auch mit Zen2 kompatibel sein und 6nm.
Und auch das 7nm+ 50% mehr kostet spricht für mich dagegen.

@RT

Bei NV nehmen die RT cores iirc 30% der Die ein, dass muss wie du schon sagst auch berücksichtigt werden wenn AMD da bisschen mit spielen will.
NV ist sich aber laut Lederjacke sicher noch Jahre im Vorsprung zu sein gegenüber AMD was RT angeht.
 
Zuletzt bearbeitet:
Das Kamindesign der Series X (und auch des PS5 Devkits) wird schon seinen Grund haben. Solch ein Design wäre wohl nicht notwendig, wenn man nur die gleiche Abwärme wie bei einer One X wegschaffen müsste.

Jup die Abwärme wird definitiv größer sein.

@Con$olef@natic
Zen3 wird eher ein Thema für die Upgradekonsolen ... ich denke dafür ist jetzt einfach die Zeit zu knapp.
 
Da könnte schon Zen4 dran sein, der schon spätestens 2022 da sein soll ;)
Glaub in 5nm oder waren es 6nm weiß nicht mehr.

Vom Zeitpunkt her wäre es theoretisch machbar aber dennoch ne knappe Nummer und mit Sicherheit noch etwas teuer.
Einen cutomisierten Zen2 reicht imo vollkommen aus bzgl. der Ziele die man sich gesetzt hat.

Es gab zwar bzgl. Anaconda solche Gerüchte 24 Threads ect. aber dafür wurde mir jetzt eindeutig zu oft Zen2 genannt.
Wir wissen ja auch noch nicht in wie weit die Customisieung bzgl. Zen2 geht.
 
Eine 5700XT hat schon mehr Abwärme und selben verbrauch (ohne CPU) Zen2 sicher auch mehr abwärem als Jaguar in 16nm bei 3+GHz takt.
Daher glaub ich nur an so Gerüchte wenn bestätigt wird, das der verbrauch nochmal einiges ansteigen wird wie die Generationen davor.

Bei der XBOX kann man aufgrund des Gehäuses eigentlich davon ausgehen.
Das ist nun wirklich riesig vom Volumen im Vergleich zu allen Vorgängerkonsolen


@Konsolenbaby

Zen3 wird bei gleicher größe nochmal mehr takt und IPC haben bei selben verbruch laut AMD, das wurde schon mal bestätigt und der aufbau wurde wegen 7nm+ verändert.
Wäre also ne schöne Verschwendung Zen2 extra anpassen zu müssen das er 7nm+ kompatibel ist, statt gleich Zen3 zu nehmen imo.
Es kommt wie vor kurzem von TSMC veröffentlicht ein 7nm Pro schritt, der aber eher durch normale Verbesserungen des verfahrens zu stande kommt, der 7% strom sparen soll, der soll auch mit Zen2 kompatibel sein und 6nm.
Und auch das 7nm+ 50% mehr kostet spricht für mich dagegen.

@RT

Bei NV nehmen die RT cores iirc 30% der Die ein, das muss wie du schon sagst auch berücksichtigt werden wenn AMD da bischen mit spielen will.
NV ist sich aber laut Lederjacke sicher noch Jahre im Vorsprung zu sein gegenüber AMD was RT angeht.

So genau kann man das nicht sagen, da immer noch ein Unterschied besteht zwischen der Fertigung der Mainstreamkomponenten und der angepassten für Konsolenchips.
Bei Jagaur hat AMD auch gesagt, dass es keinen Sinn macht, den in kleiner Fertigungstechnik herzustellen. Und dann kam die Pro und die X.
Mit so Aussagen wäre ich immer etwas vorsichtig.
Auch die normale Roadmap sagt nicht umbedingt etwas zur Verfügbarkeit der Technik in den Konsolen aus.
Die 360 hatte bei ihrem Erscheinen schließlich auch GPU Technik, die laut Roadmap noch gar nicht im PC Sektor verfügbar war.
 
Hatte AMD ja auch für sich recht, Sony und MS haben den selber gezahlt in 16nm, haben ja die rechte am 8core design gekauft.
AMD hat den 16nm Jaguar nirgends verwendet ;)
Das erste gerücht was auf kam im GAF von einem insider, war ja er habe gehört Sony würde Jagar verkleinern für ne zwischen Gen.
Damals wurde erst gelacht wer den Schrott freiwillig shrinken will da der tot ist bei AMD und die viel besseres haben.
 
@amiga500
Imo macht es nur Sinn einen hohen CU Count zu haben, wenn man die Chips bei denen die diese Anzahl bei der Fertigung nicht erreicht wird, für ein anderes Sytem einsetzen kann (Lockhard?)

Dann hätte man insgesamt keinen großen Verwurf und könnte die Chips mit weiteren Deaktivierungen und niedriger Taktzahl verbauen/verwenden.

Das ganze hängt aber vom Fertigungsprozess und vom Yieldfaktor ab.
Natürlich auch mit den Preisverhandlungen ggü. AMD.

Weiß nicht genau ob das eine geeignete Strategie wäre.
 
Ich hab ja mal gesagt, das ich mir MS mit der neuen Box auch deshalb stärker vorstelle, da Phil ja mal meinte man will einen Chip der für Server (Cloud Gaming) und Konsole verwendet werden kann. Und da dachte ich das der für Server die Mehr CU bekommt und die schlechten yields Anaconda.
 
Bzgl. Xcloud haut MS aber keine stärkeren GPUs rein sondern die selben.
Das wiederum könnte die Stückzahl Order erhöhen und den Preis drücken.
 
Ja aber ich denke das wird sich noch ändern wenn Next Gen games mal auch über cloud laufen sollen.
War halt schon komisch das Phil mal sowas angesprochen hat, da dachten ja viele das vielleicht doch keine APU kommt.
 
Es sind ja angepasste xbox Platinen welche in die Server Racks gesteckt werden ;)
Ob man da irgendwann mal das bessere System reinpackt spielt ja keine Rolle.
 
@amiga500
Imo macht es nur Sinn einen hohen CU Count zu haben, wenn man die Chips bei denen die diese Anzahl bei der Fertigung nicht erreicht wird, für ein anderes Sytem einsetzen kann (Lockhard?)

Dann hätte man insgesamt keinen großen Verwurf und könnte die Chips mit weiteren Deaktivierungen und niedriger Taktzahl verbauen/verwenden.

Das ganze hängt aber vom Fertigungsprozess und vom Yieldfaktor ab.
Natürlich auch mit den Preisverhandlungen ggü. AMD.

Weiß nicht genau ob das eine geeignete Strategie wäre.

Ich hab ja mal gesagt, das ich mir MS mit der neuen Box auch deshalb stärker vorstelle, da Phil ja mal meinte man will einen Chip der für Server (Cloud Gaming) und Konsole verwendet werden kann. Und da dachte ich das der für Server die Mehr CU bekommt und die schlechten yields Anaconda.

Das ist natürlich mit zu berücksichtigen.
Wurde damals auch hier mal diskutiert, aber ist irgendwie in Vergessenheit geraten.
Hierdurch können wirklich die Kosten geringer gehalten werden.
Voll funktionierende Chips für die Server.
Chips mit kleinen Fehlern für die Serie X
Und Chips, die mehr Fehler haben und mit weniger Takt laufen für die Serie S.
Würde vermutlich zu einer fast 100% Ausbeute schon von Anfang an führen und den Preis für den einzelnen Chip somit drastisch senken.

Ich weiß nicht, wie hoch die Ausbeute bei z.B. den ersten PS4 und ONE Chips war. Meine irgendwie was von 50% gelesen zu haben.
 
Ich glaube Yield rate egal bei welchen Consumer Produkten muss bei 80% liegen um profitabel zu sein.
Daher wollte auch keiner Kodaks WOLED Patent kaufen, da alle bis auf LG der meinung waren OLED Panels kommen nie auf 80% Yields.
Doch LG soll es ja letztes oder dieses Jahr endlich geschafft haben ;)
Und NV und AMD hauen halt damit sie diese Rate erreichen die schlechten Chips für die kleinen GPUs raus.
 
Zurück
Top Bottom