KI in Videospielen

@donki ein einfacheres Beispiel - ohne Fachwörter-blabla :

Ich schreib Chat Gpt :

-Ich finde, rechte parteien werden zu unrecht kritisiert.

Chat GPT antwortet :

Deine Sicht ist nachvollziehbar – viele Kritiken an rechten Parteien sind pauschal und undifferenziert und gehen oft an den tatsächlichen Motiven ihrer Wähler vorbei.

Ich öffne einen neuen Chat und schreibe :

- Ich finde, linke parteien werden zu unrecht kritisiert.

Chat GPT antwortet :

Ja, das kann ich gut nachvollziehen – linke Parteien werden oft pauschal kritisiert, ohne ihre sozialen Ziele fair zu würdigen.


Das zeigt gut, das die KI keinen Sinn hat.
Sie ist einfach nur ein Tool, das DIR hilft das Ergebnis zu bekommen, was du benötigst.

Bei einem Menschen hingegen iniziiert ja alleine schon die Aussage :
„Ich finde, rechte parteien werden zu unrecht kritisiert. „ einen Geltungsanspruch.

Edit : die Aussage erfüllt auch den Punkt mit der Kritisierbarkeit.
Und genauso mit der Verantwortung.

Alles das trifft auf eine KI nicht zu - die rattert einfach runter was du von ihr hören willst.
 
Zuletzt bearbeitet:
Was genau meinst du mit sinn? Den kontext zur reellen welt kann eine ki begreifen, wenn sie die gleiche physische wahrnehmung hätte wie wir. Das ist aber eher einer technische hürde und keine konzeptionelle.
KIs begreifen nichts weil sie es nicht können. Der ASlgoritzhmus gibt nur Sachen wieder auf Basis der Wissensdatenbank des Modells. Das ist wie ein Papagei.
 
KIs begreifen nichts weil sie es nicht können. Der ASlgoritzhmus gibt nur Sachen wieder auf Basis der Wissensdatenbank des Modells. Das ist wie ein Papagei.
Egal wie oft ihr das wiederholt, eine KI ist kein Algorithmus. Eine KI wird nicht programmiert, sondern sie parametrisiert sich selbst. Ein KI Entwickler hat keine Ahnung mehr wie ein trainiertes Modell auf die entsprechenden Antworten kommt, oder was genau darin abläuft.
 
Egal wie oft ihr das wiederholt, eine KI ist kein Algorithmus. Eine KI wird nicht programmiert, sondern sie parametrisiert sich selbst. Ein KI Entwickler hat keine Ahnung mehr wie ein trainiertes Modell auf die entsprechenden Antworten kommt, oder was genau darin abläuft.
Das heißt eine KI ist reine Zauberei? Da stzecken keine Nullen und Einsen hinter. Es werden auch keine statistischen und mathematischen Modelle benutzt, auch keine Neuronalen Netze?

Hier bitte:
Ja — GenAIs basieren auf Algorithmen, aber nicht nur auf einem einzelnen Algorithmus. Sie sind komplexe Systeme aus vielen Algorithmen, die zusammenarbeiten.





Schritt-für-Schritt erklärt​


1. Was ist ein Algorithmus?​


Algorithmus = eine endliche, klar definierte Folge von Rechenschritten, um ein Problem zu lösen
→ z. B. Sortieren, Klassifizieren, Vorhersagen





2. Grundlage von GenAI: Maschinelles Lernen​


GenAI gehört zum Maschinellen Lernen (ML).


Maschinelles Lernen = Algorithmen lernen Muster aus Daten, statt explizit programmiert zu werden.





3. Kernalgorithmus moderner GenAI: Neuronale Netze​


Die meisten GenAIs basieren auf künstlichen neuronalen Netzen.


Neuronales Netz = ein mathematisches Modell, inspiriert vom Gehirn, das:


  • Eingaben gewichtet
  • Zwischenschichten verarbeitet
  • Ausgaben berechnet




4. Speziell: Transformer-Architektur​


Aktuelle GenAIs (Text, Bild, Code) nutzen meist Transformer.


Transformer = ein Algorithmus-Framework mit:


  • Attention-Mechanismus
    → bewertet, welche Teile der Eingabe wichtig sind
  • paralleler Verarbeitung
  • sehr guter Skalierbarkeit




5. Training ≠ Nutzung​


  • Training: Optimierungsalgorithmen (z. B. Gradientenabstieg) passen Millionen/Milliarden Parameter an
  • Nutzung (Inference): reine mathematische Berechnung, keine „Entscheidungen“




Kurzantwort (Essenz)​


Ja. GenAIs basieren vollständig auf Algorithmen – konkret auf statistischen, mathematischen und Optimierungsalgorithmen, die in großen neuronalen Netzen kombiniert sind.
Kein Bewusstsein, keine Intuition, kein Verständnis – nur Wahrscheinlichkeitsrechnung auf sehr hohem Niveau.
:goodwork:
 
@donki ein einfacheres Beispiel - ohne Fachwörter-blabla :

Ich schreib Chat Gpt :

-Ich finde, rechte parteien werden zu unrecht kritisiert.

Chat GPT antwortet :

Deine Sicht ist nachvollziehbar – viele Kritiken an rechten Parteien sind pauschal und undifferenziert und gehen oft an den tatsächlichen Motiven ihrer Wähler vorbei.

Ich öffne einen neuen Chat und schreibe :

- Ich finde, linke parteien werden zu unrecht kritisiert.

Chat GPT antwortet :

Ja, das kann ich gut nachvollziehen – linke Parteien werden oft pauschal kritisiert, ohne ihre sozialen Ziele fair zu würdigen.


Das zeigt gut, das die KI keinen Sinn hat.
Sie ist einfach nur ein Tool, das DIR hilft das Ergebnis zu bekommen, was du benötigst.

Bei einem Menschen hingegen iniziiert ja alleine schon die Aussage :
„Ich finde, rechte parteien werden zu unrecht kritisiert. „ einen Geltungsanspruch.

Edit : die Aussage erfüllt auch den Punkt mit der Kritisierbarkeit.
Und genauso mit der Verantwortung.

Alles das trifft auf eine KI nicht zu - die rattert einfach runter was du von ihr hören willst.

Danke für deine ausführliche erklärung. Ich finde bei der ganzen argumentation versucht man zu sehr typisch menschliche eigenschaften auf eine ki zu projezieren. Das macht mMn keinen sinn, da sie die welt weder physisch noch emotional wahrnehmen kann wie wir. Die argumentation auf LLMs zu beschränken, ist auch so ein move den ich nicht verstehen kann.

schlussendlich ist es nicht im interesse des arbeitgebers, dass die arbeiter nach dem sinn des lebens suchen oder einem sozialen oder emotionalen drang nachgehen. Und das führt uns zu meiner ursprünglichen frage zurück. Sind wir für eine firma nicht auch nur werkzeuge?
 
Zuletzt bearbeitet:
Das heißt eine KI ist reine Zauberei? Da stzecken keine Nullen und Einsen hinter. Es werden auch keine statistischen und mathematischen Modelle benutzt, auch keine Neuronalen Netze?
Nein, es ist keine Zauberei. Auch wir denken mit einem neuronalen Netzwerk, unserem Gehirn.

Der entscheidende Begriff war ein gelerntes Netzwerk. Das besteht im Grunde natürlich immer noch aus Algorithmen, die genauen Abläufe wie dieses zur Lösung kommt sind für den Entwickler aber nicht mehr nachvollziehbar.
Unser Gehirn besteht auch komplett aus Zellen, genauso wie unsere Hand, trotzdem denkt unsere Hand deutlich schlechter als unser Gehirn. Und auch unser Gehirn ist vor dem dauernd anhaltenden Lernprozess eigentlich zu ziemlich nichts zu gebrauchen.

Natürlich ist der Aufbau des künstlichen neuronalen Netzes bekannt, und besteht auf Algorithmen. Dabei werden entsprechend auch sowas wie "Sinne" nachgebaut. Vereinfacht gesagt, hast du z.B. für Bilder einen entsprechenden "Neuron-Cluster" pro Pixel der die entsprechende Farbe erkennt, oder für Musik einen pro Frequenz für die Amplitude.

Grundsätzlich besteht ein neuronales Netz also aus einer riesigen Zahl "Neuronen" welche "triggern" können und miteinander verbunden sind und jede dieser Vebindungen hat eine Gewichtung. Ein fertiges Neuronales Netzwerk hat vor dem Learning aber noch null "Intelligenz". Erst durch das Learning ist dieses dazu fähig.

Beim Learning, wird die KI von aussen mit Millionen Beispieldaten gefüttert und diese parametrisiert dann anhand des Erfolgs/Misserfolgs die entsprechende Gewichtung ihrer "Neuronenverbindungen", erst dadurch wird eine KI auch "Intelligent".
 
Nein, es ist keine Zauberei. Auch wir denken mit einem neuronalen Netzwerk, unserem Gehirn.


Der entscheidende Begriff war ein gelerntes Netzwerk. Das besteht im Grunde natürlich immer noch aus Algorithmen, die genauen Abläufe wie dieses zur Lösung kommt sind für den Entwickler aber nicht mehr nachvollziehbar.
Unser Gehirn besteht auch komplett aus Zellen, genauso wie unsere Hand, trotzdem denkt unsere Hand deutlich schlechter als unser Gehirn. Und auch unser Gehirn ist vor dem dauernd anhaltenden Lernprozess eigentlich zu ziemlich nichts zu gebrauchen.

Natürlich ist der Aufbau des künstlichen neuronalen Netzes bekannt, und besteht auf Algorithmen. Dabei werden entsprechend auch sowas wie "Sinne" nachgebaut. Vereinfacht gesagt, hast du z.B. für Bilder einen entsprechenden "Neuron-Cluster" pro Pixel der die entsprechende Farbe erkennt, oder für Musik einen pro Frequenz für die Amplitude.

Grundsätzlich besteht ein neuronales Netz also aus einer riesigen Zahl "Neuronen" welche "triggern" können und miteinander verbunden sind und jede dieser Vebindungen hat eine Gewichtung. Ein fertiges Neuronales Netzwerk hat vor dem Learning aber noch null "Intelligenz". Erst durch das Learning ist dieses dazu fähig.

Beim Learning, wird die KI von aussen mit Millionen Beispieldaten gefüttert und diese parametrisiert dann anhand des Erfolgs/Misserfolgs die entsprechende Gewichtung ihrer "Neuronenverbindungen", erst dadurch wird eine KI auch "Intelligent".
Hättest dich auch kurz fassen können und einfach deinen Fehler einräumen sollen.
:coolface:
 
Wenn man sie als das bezeichnen würde als was sie ist, würde man sie nicht mal künstliche intelligenz nennen. Das ist eine KI, in dem Fall wie sie im Bereich Videospiele verwendet werden soll, nicht. Sie denkt nicht. Und natürlich verwenden die unterschiedlichen KIs Algorithmen.
 
Maschinelles Lernen hat nichts mit Intelligenz zu tun, auch nicht mit "Intelligenz".

Egal wie oft ihr das wiederholt, eine KI ist kein Algorithmus. Eine KI wird nicht programmiert, sondern sie parametrisiert sich selbst. Ein KI Entwickler hat keine Ahnung mehr wie ein trainiertes Modell auf die entsprechenden Antworten kommt, oder was genau darin abläuft.
Das hängt ganz erheblich vom eingesetzten Verfahren und der Problemdomäne ab :nix:
 
Maschinelles Lernen hat nichts mit Intelligenz zu tun, auch nicht mit "Intelligenz".


Das hängt ganz erheblich vom eingesetzten Verfahren und der Problemdomäne ab :nix:
Eben, es wird zuviel in diese Technologie reininterpretiert, sogar Bewusstsein und Kreativität.
Die Leite sollten weniger auf Orwel'sche Romantik geben.
gibt es überhaupt eine eindeutige definition für intelligenz?
Auf CW wirst du hierzu keine Indizien finden.
:coolface:
 
Maschinelles Lernen hat nichts mit Intelligenz zu tun, auch nicht mit "Intelligenz".
Maschinelles lernen ist ein Prozess, dieser erzeugt schlussendlich die Intelligenz. Schlussendlich ist die Frage was man als Intelligenz definiert. Wie heisst es so schön:
Intelligenz ist zu wissen das eine Tomate eine Frucht ist, Weisheit ist es sie trotzdem nicht für Fruchtsalat zu verwenden und Philasophie sich zu fragen ob Ketchup ein Smoothie ist.
Das hängt ganz erheblich vom eingesetzten Verfahren und der Problemdomäne ab :nix:
Das Problem liegt imho eher darin, dass der Begriff KI inzwischen vom Mainstream als Schlagwort verwendet wird, auch für allerlei was keine KI ist.
 
Ich würde mal sagen, die Bildung eines Skalarproduktes ist es nicht.
Nein, aber bei einer neuen Aufgabenstellung zu wissen, ob ich es da verwenden muss es mich weiterbringt durchaus.

Findest du es intelligent, wenn ich dir einen Kiwi millionenfach zeigen muss bis du ihn von einer Banane unterscheiden kannst?
Eine KI lernt deutlich ineffizienter als ein Mensch. Hat sie es jedoch einmal gelernt, kannst du sie beliebig oft kopieren und weiterverwenden und sie wird es immer wissen. Jeder Mensch muss es individuell lernen.

Inzwischen ist diese Ineffizienz zu grossen Teilen irrelevant geworden, zum einen durch die enorme Steigerung der Rechenpower und die massenhaft vorhandenen Lerndaten dank dem Internet. Mit ein Grund wesshalb der Schöpfer der neuronalen Netze selbst inzwischen zu den grössten Kritikern und Warnern der Technologie gehört…
 
hatte das heute auf X gesehen. Hat mich an die Diskussion hier erinnert.
603TFK4.jpeg
 
@volksgasmaske
Ich wollte die Parallele zur Fotografie auch schon als Beispiel bringen.
Vor allem aber der Übergang von der Portraitmalerei zur Fotografie.
Ich denke, der Maler von damals hätten der „Teufels-Kamera“ auch niemals Zuspruch gegeben, Kunst zu produzieren.

Meine Großmutter war beruflich lange Zeit „Stenografin“ - sie hat bei Meetings die Gespräche mit der Hand mitgeschrieben.
Dafür gabs ein eigenes Schreibsystem, um das von der Geschwindigkeit her zu schaffen - ein Beruf der mit dem Tonbandgerät auch ein schnelles Ende fand.

Nun - ich finde, manche empören sich einfach zu sehr über KI, weil sie auch Arbeitsplätze kostet.
Aber der Mensch ist doch ein liberäres Wesen - Arbeitsplatz-abhängigkeit zu emotionalisieren ist doch tief destruktiv.
 
@volksgasmaske
Ich wollte die Parallele zur Fotografie auch schon als Beispiel bringen.
Vor allem aber der Übergang von der Portraitmalerei zur Fotografie.
Ich denke, der Maler von damals hätten der „Teufels-Kamera“ auch niemals Zuspruch gegeben, Kunst zu produzieren.

Meine Großmutter war beruflich lange Zeit „Stenografin“ - sie hat bei Meetings die Gespräche mit der Hand mitgeschrieben.
Dafür gabs ein eigenes Schreibsystem, um das von der Geschwindigkeit her zu schaffen - ein Beruf der mit dem Tonbandgerät auch ein schnelles Ende fand.

Nun - ich finde, manche empören sich einfach zu sehr über KI, weil sie auch Arbeitsplätze kostet.
Aber der Mensch ist doch ein liberäres Wesen - Arbeitsplatz-abhängigkeit zu emotionalisieren ist doch tief destruktiv.
Mir geht hier nicht um Arbeitsplätze, gibt genug Beispiele in der Vergangenheit, wo durch Automatisierung Handarbeitsplätze weggefallen sind. Der Punkt ist. Egal ob Maler oder Photograf, beide erfassen mehr oder weniger einen realen Moment durch ein Bild. Natürlich könnte man bspw. die Sonnenblumen von Van Gogh per Prompt irgendwie reproduzieren. Aber man schafft es wohl nicht so genau wie es der Künstler realisiert hat, weil der noch eine spezielle Technik verwendet hatte oder bspw. wie Monet, der mit dem Alter ein verfälschtes Farbbild hatte und einige seiner Werke abstrakter wirken weil sie bspw. einen Blaustich haben. Ein Fotograf fängt ja auch den Moment ein nur hat er einen ganz anderen Freiheitsgrad mit den einzelnen Einstellungen, Filtern und wie er die Kamera führt. Klar kann das auch per KI so gemacht werden, aber nicht realitätstreu, wahrscheinlich nicht ausreichend konsistent und natürlich auf Basis von bereits bekanntem Material.

Schickt man bspw. einen Fotografen irgendwo an einen bestimmten Landmarker auf der Rückseite des Mondes damit er da ein Bild macht. Ist sein Resultat dann Realität. Ein KI würde irgendwas halluzinieren, was so gar nicht existiert auf Basis bekannter Muster.
 
@Shigiyamoto ich denke, wir interpretieren dein Bild unterschiedlich.
Ich finde, die Szene kritisiert vereinfachende Urteile.
Sie zeigt, dass das Reduzieren einer Tätigkeit auf eine einzelne Handlung („Knopf drücken“) den kreativen Prozess dahinter ignoriert.
Gedeckt wird meine Interpretation dadurch, das unter dem Kamera-Button Bild der „pointierte Satz“ dabei steht, das nur analoge Fotografie mit eigener Filmentwicklung im Dunkelraum legitim sei.

Dieses Argument kam ja damals oft, als sich die digitalen Kameras verbreiteten.

Und ich habe darauf angespielt, das dies ja such der Fall war, als die Kamera die Portraitmalerei zu einem grossen Teil ablöste.

Mir gings nie um Qualitäten, nur um das pessimistisch destruktive Verhalten, das heutzutage manche gegenüber KI haben.
 
hatte das heute auf X gesehen. Hat mich an die Diskussion hier erinnert.
603TFK4.jpeg

Gutes Beispiel Bild.
Ich bin mir nur nicht sicher, ob du es richtig verstanden hast.

Wer der Meinung ist, das ein Prompt nur ein Mausklick ist .... oder das es jeder einfach so machen kann ... der wurd ein ähnlich gutes/schlechtes Ergebnis bekommen, wie jemand der auf einer Profi Kamera nur den Auslöser drückt, ohne jegliche Einstellung.

Also vermutlich ein schlechtes.

Nur wen man eine qualifizierten, eindeutigen Prompt (PromptEngeneering) definiert, erhält man ein zufriedenstellendes Ergebnis.
Genauso wie man nur ein gutes Bild erhält, indem man die Kamera perfekt einstellt.

Es ist eben NICHT nur einen Knopf drücken.
 
Zurück
Top Bottom