Onlive - Allein gegen die Mafia

Da schließe ich mich an. Die erzkonservative Fanboy-Panik hier führt ja zu nix.
Da könnte OnLive mit 60 fps ohne Lag in 1080p laufen und trotzdem würde noch gegenan missioniert.
Fanboy-Panik? wtf? o_O
Das Problem ist einfach, dass es nicht ohne Lag laufen KANN, außer Onlive renoviert noch gleich das Internet mit.
Dass Leute, die keine Ahnung von sowas haben, immer die lautesten sein müssen...
 
Da es ermündent wird gegenüber technisch Unwissenden zu argumentieren hier das letzte Statment von mir darüber. Sicherlich wird OnLive laufen aber nie lagfrei. wir haben jetzt in einer geschlossenen Umgebung mit 7 Systemen 15 Meilen von den Cloud-Server entfernt erste Latenzprobleme. Mögen zu diesen 7 Systemen auf der GDC noch 100 - 1000 interne Betaclients hinzukommen aber das ist ein Witz. In dieser kontrollierten Vorführumgebung treten die ersten Probleme auf, wie wird es erst sein, wenn Zehntausende oder Hundertausende auf den Cloudserver zugreifen und diese eine größere Entfernung zu den Servern sitzen. Deswegen epic fail. Ich habe ehrlich gesagt erwartet, dass es während dieses Showauftrittes keine Probleme geben wird, da es eben eine kontrollierte Umgebung + wenig Clients sind.
 
Wer dran glauben mag, soll dran glauben. Aber hier skeptisch zu sein, hat wohl mehr mit Hausverstand zu tun, als mit Fanboytum...
 
Da es ermündent wird gegenüber technisch Unwissenden zu argumentieren hier das letzte Statment von mir darüber.

Mit sprachlich Unwissenden zu argumentieren ist übrigens auch recht ermüdenD.

Chrischie schrieb:
Sicherlich wird OnLive laufen aber nie lagfrei. wir haben jetzt in einer geschlossenen Umgebung mit 7 Systemen 15 Meilen von den Cloud-Server entfernt erste Latenzprobleme.

Ja genau -.-

..und die Clients haben zum Server wohl ne Standleitung..*kicher*
Nich wissen wie das Internet funzt, aber erstmal einen auf diggen Checker machen. :rolleyes:

Das was man da an Lag beobachten kann, wird auch ein paar Knötchen weiter nicht viel langsamer von sich gehen. Probleme wird es erst Übersee geben, wenn Europa keine eigenen Server bekommt.
 
Nein sie haben wohl keine Standleitung, sonst wäre es in dieser Testumgebung wohl auch flüssig gelaufen. Für mich war heute schon meine innerer Reichsparteitag. Ich habe vermutet, dass sie sich eben diese Standleitung gekauft hätten und einen Cloud-Server nur für diese 7 Clients. Das verzögerungsfreien Spielen, welches auf der Pressekonferenz versprochen wurden, hat es nicht bis zum Showfloor der GDC geschafft. :rofl3:

Es heißt übrigens "Nicht", wenn wir uns schon über Orthographie und Grammatik unterhalten wollen.
 
manche hier wollen anscheinend an onlive einfach glauben. anders kann ich mir dieses primitive abschmettern von technischen problemen nicht erklähren.
lag? gibts nicht die haben ja sieben jahre "geforscht":o
überlastung zu stoßzeiten? gibst nicht .....
kompessions und stabilitätsprobleme? gibst nicht .....


wie ich schon gesagt habe. die idee an sich ist sehr gut. jedoch scheitert sie schlicht an der technischen unsetzung + den gamzen andern kram den klaptrap aufgezählt hat
 
In dem Hands-On Bericht heißt es sogar, dass man größtenteils nix von einem Lag mitbekommt.
Für eine Vorabversion ist das schon ganz ordentlich.
Dabei sogar von einem Scheitern zu reden, aber nix als Fanboy-Blubb.
 
Zuletzt bearbeitet:
Mit sprachlich Unwissenden zu argumentieren ist übrigens auch recht ermüdenD.



Ja genau -.-

..und die Clients haben zum Server wohl ne Standleitung..*kicher*
Nich wissen wie das Internet funzt, aber erstmal einen auf diggen Checker machen. :rolleyes:

Das was man da an Lag beobachten kann, wird auch ein paar Knötchen weiter nicht viel langsamer von sich gehen. Probleme wird es erst Übersee geben, wenn Europa keine eigenen Server bekommt.

Damit es überhaupt auch nur halbwegs funktioniert müssen die Server auf dem gleichen Kontinent stehen. Allein der normale Ping in die USA liegt bei über 200ms (selbst das Licht bräuchte dafür schon allein 100ms, hin und zurück) und da kann auch ein Onlive nichts dran ändern. Mit dem Berechnungskram werden es mehr als 300.
Ich bewege den Stick und 0,3 Sekunden später (Im besten Fall) sehe ich eine Reaktion. Das sieht wohl jeder ein, dass das Käse ist.
Steht der Server um die Ecke und ich habe Fastpath kann man sicherlich bei den meisten Games mit der dann geringeren Latenz leben. Aber die wenigsten werden wohl diese Vorraussetzugen mitbringen.
 
Damit es überhaupt auch nur halbwegs funktioniert müssen die Server auf dem gleichen Kontinent stehen.

Sag ich doch!

Mell@ce schrieb:
selbst das Licht bräuchte dafür schon allein 100ms, hin und zurück

300.000 km / s

30.000 km / 100 ms

Entfernung Deutschland - Amerika: 5.000 km * 2 = 10.000, also 33.3 ms

Jaja.. auch die Mathematik ist manchmal kalt und grausam. :)
 
Zuletzt bearbeitet:
In dem Hands-On Bericht heißt es sogar, dass man größtenteils nix von einem Lag mitbekommt.
Für eine Vorabversion ist das schon ganz ordentlich.
Dabei sogar von einem Scheitern zu reden, aber nix als Fanboy-Blubb.

Vorabversion?
so vorab wird die sicherlich nicht mehr sein
wenns diesen winter bereits an den markt gehen soll

die leute die skeptisch waren und das hier von seite 1 an mit fundiertem wissen und argumenten untermauert haben hatten letztenendes recht
so wie ich es auch erwartet habe
 
In dem Hands-On Bericht heißt es sogar, dass man größtenteils nix von einem Lag mitbekommt.
Für eine Vorabversion ist das schon ganz ordentlich.
Dabei sogar von einem Scheitern zu reden, aber nix als Fanboy-Blubb.

Komisch dass man bei idealen Vorraussetzungen wenig von den technischen Problemen mitbekommt ;-)
Damit das funktioniert müssten die das Internet revolutionieren, haben im Übrigen schon mehrere hier geschrieben.
Die können noch so gut mit ihrer eigenen Technik sein, ändert nix am Umstand, dass die Daten letztendlich durchs Internet müssen, was sie eben nicht kontrollieren können.
Des weiteren ist ihre Millisekundenaussage auch höchst missverständlich. Es braucht einiges mehr an Zeit vom Empfang der Userdaten bis zum Senden des Videostroms.
Anhand der Daten muss das Bild berechnet und komprimiert werden.

Aber die schiere Masse an Videodaten, die sie im Endeffekt versenden müssen ist wohl auch nicht zu verachten. Ist ja nicht so wie beim normalen Filmangebot. Dort empfangen auch hunderttausdende einen Videostrom vom Sender, allerdings ist das immer der gleiche. Der Sender schickt ein Video ins Netz und das wird dann im Netzt vervielfältigt. Hier muss aber der Sender für jeden User ein eigenesn Video erstellen und ins Netz schicken. Bei 100.000 gleichzeitiger Nutzer und einer mittleren Bandbreite von 3Mbit wären das mal eben 300 Gbit oder ca 38 GByte, pro Sekunde versteht sich.
Diese Daten müssten also vom Sender in einen Internetknoten fließen. Spätestens hier merkt man wie utopisch die Sache wird.
Zum Vergleich.
Der größte deutsche Netzknoten, der in Frankfurt beheimatet ist, wird zu Spitzenzeiten mit 600Gbit belastet. Mit den oben angeführten Onlive Daten wäre der also zur Hälfte ausgelastet.
 
selbst wenn sie auf den gleichen kontinent stehen ist man im schnitt gut und gerne 1000 km davon entfernt. das signal läuft ja auch nicht gradwegs zun server sondern eher zickzack und muss dabei noch eine vielzahl von verarbeitungsstellen durchlaufen. bei rechenclustern nach gemeinden könnte das funktionieren. ich wäre sogar über länderspezifische cluster glücklich. jedoch würde ich eher auf kontinentale oder gar nur einen zentralen cluster tippen (da die kosten bei viellen clstern natürlich sehr schnell zu groß werden).

das lag wäre imo zu groß zum spielen. man kann sich jetzt natürlich rausreden und sagen man gibt sich mit dem lag zufrieden. das ist aber nicht der sinn dieses gerätes. denn dann wird die ruckelige garstellung wegen mangelnder leistung durch eine ruckelnde darstellung mangels stabilität und inputlag ersetzt.
 
Vorabversion?
so vorab wird die sicherlich nicht mehr sein
wenns diesen winter bereits an den markt gehen soll

die leute die skeptisch waren und das hier von seite 1 an mit fundiertem wissen und argumenten untermauert haben hatten letztenendes recht
so wie ich es auch erwartet habe

Nö, davon seh ich nix. Deine Erwartungen entsprechen wohl eher Wunschdenken.
 
Bei 100.000 gleichzeitiger Nutzer und einer mittleren Bandbreite von 3Mbit wären das mal eben 300 Gbit oder ca 38 GByte, pro Sekunde versteht sich.

Erst der Fauxpas mit der Lichtgeschwindigkeit und nun das.. Zahlen sind deine Stärke nicht.
Belassen wir es doch dabei, dass es offensichtlich funktioniert. :)
 
Kommt drauf an wie empfindlich man auf Lags reagiert. Mir wären 50ms beispielsweise schon zu viel, spätestens ab 70- 100ms dürfte es aber jeder merken selbst ein Casualgamer. Das müssen sie mir erst mal zeigen, dass sie den Weg Hin- und Zurück plus En- und Decoding in weniger als 70ms schaffen. Dafür bräuchten sie schon eine revolutionäre Technologie. Dazu kommt, dass bei Videospielen grundsätzlich kein VBR möglich ist und mit CBR wird die Bildqualität nicht wirklich zufriedenstellend sein.

Je schneller das Internet wird desto weniger Sinn macht es Spiele zu streamen wenn man's auch in 1 Stunde komplett laden kann. Mit einem Spiel verbringt man doch meistens über 10 Stunden, da tut mir weder die Installation noch die Wartezeit weh. Zudem kann man ja schon vor dem Release laden, die letzten Files bekommt man dann eben beim Release.

Ebenfalls möglich wäre ein System ähnlich dem der Guild Wars Trial. Die Engine wird installiert und der gesamte Kontent on-the-fly gestreamt. Damit wird man dann immerhin die Latenz los, das Spiel startet fast "instant" und erzeugt deutlich weniger Traffic. Dazu braucht man natürlich die Unterstützung der Spielehersteller weswegen sowas auch nur von einem der großen Drei Konsolenhersteller kommen kann.
 
Zurück
Top Bottom