Zuerst einmal.
Ich denke auch, dass Cloudgaming die Zukunft sein wird.
ABER: Das dauert noch eine Zeit bis die Heimhardware dadurch verdrängt wird. Meiner bescheidenen Meinung nach
Zu den technischen Problemen.
Streamen von Games und Filmen unterscheiden sich grundsätzlich.
Während ich beim Filmstreamen vorher einige Sekunden Buffern kann, geht das beim Spielstreamen natürlich nicht.
Deshalb ist hier auch nicht die durchschnittliche Internetleistung wichtig, sondern die, die maximal benötigt wird.
Beispiel:
Ein Film in 4K benötigt bei Amazon und Netzflix im Durchschnitt um die 20mbit/sec. Und das bei 24 bzw. 25 Bildern pro Sekunde.
Bei schnellen Szenen, steigt der Peak aber gut auf das doppelte bis dreifache an
In ruhigen Szenen fällt es unter die 20mbit.
Der Datenpuffer gleicht das eben aus.
Nun zum Spiel.
Hier kann es aufgrund der Latzens wie gesagt logischerweise keinen Puffer geben.
Somit ist auch völlig klar, dass bei viel Bewegung oder allgemeine Action im Spiel die Bandbreite über den Durchschnitt hoch prescht.
4K mit 60fps mag vielleicht im Durchschnitt mit 30-35mbit/sec, wie von Googel anfänglich angegeben (In den derzeitigen offiziellen FAQ steht vorsorglich gar kein Wert mehr ), auskommen Halte ich allerdings schon für ziemlich knapp bemessen. Aber Peak-Werte werden wesentlich höher liegen, wenn die Qualität des Streams nicht darunter leiden soll.
Wer also wirklich nur eine 30-40mbit Leitung hat, wird mit Qualitätseinbußen rechnen müssen.
Dank fehlendem Buffer macht sich natürlich auch jede andere Störung direkt bemerkbar.
Mit so eine Leitung kann man nicht einmal eine Internetseite auf einem anderen an das Netz angeschlossenen PC aufrufen, ohne dass es zu spürbaren Qualitätsverlsuten in der Spielgrafik kommt.
Wie gesagt, der fehlenden Buffer gegenüber dem Filmstreaming kann hier nicht oft genug erwähnt werden.
Jedes Bild muss in Echtzeit mit seiner erforderlichen Datengröße übertragen werden.
Wenn die Server mitspielen und der Weg vom Server zum User nicht blockiert ist, denke ich braucht man fast einen 100mbit Leitung, um eine anhaltende Qualität wie bei gestreamten Filmen zu erreichen.
Und was die Serverharware angeht.
Virtualisierung funktioniert gut auf dem Weg, aus einer CPU oder GPU mehrere virtuelle zu machen. Der umgekehrte Weg, aus mehreren eine zu machen, ist das wesentlich schwieriger. Insbesonder bei GPUs. Kann jeder bestätigen, der ein SLI System besittz
Ich kann mir somit nicht vorstellen, dass für einen Kunden mehrere GPUs zusammen geschaltet werden.
Einmal aus technischer Sicht und zum zweiten aus wirtschaftlicher.
Es wurde schon angesprochen. Im Moment arbeitet Google mit Vega 56 GPUs, und bisher deutet nichts daraufhin, dass man als einzelner User mehr als eine von diesen GPUs zur Verfügung gestellt bekommt. Als 1080p Nutzer wird hier eine GPU auf mehrere, vermutich zwei User aufgeteilt.