Werde ich nicht machen, a) ich bin kein Experte auf dem Gebiet und b) das Thema interessiert mich nicht. Zudem sind wir inzwischen zu tief im Off Topic drin und auf dem Weg ins esoterische Geschwurbel. An sich müsste ein Mod hier mal aufräumen. Aber falls es dich interessiert kannst du es googlen oder gleich ChatGPT fragen.
Werde ich nicht machen, a) ich bin kein Experte auf dem Gebiet und b) das Thema interessiert mich nicht. Zudem sind wir inzwischen zu tief im Off Topic drin und auf dem Weg ins esoterische Geschwurbel. An sich müsste ein Mod hier mal aufräumen. Aber falls es dich interessiert kannst du es googlen oder gleich ChatGPT fragen.
Er hat recht, das hat nichts mit Intelligenz zu tun. Eigentlich müsste man es Artificial Memory nennen. Das sind Algorithmen, die Anfragen per Statistik auswerten, daraus Wahrscheinlichkeiten errechnen anhand von Mustererkennung und ein Ergebnis liefern. Die Dinger haben kein Bewusstsein, keine Gefühle, es sind einfach konditionierte und ge-biaste Algorithmen.
Was heisst für dich keine wirkliche künstliche Intelligenz?
LLMs sind durchaus richtige künstliche Intelligenzen, sie sind narrow AIs. Das heisst sie haben selber kein Bewusstsein, keine Selbstwahrnehmung, kein echtes Verständnis für die Welt um sie herum und auch keine Intentionen, dies ist aber auch nicht nötig. Innerhalb ihres gelernten Bereiches reagieren sie aber durchaus intelligent und können sich auch an neue Problemstellungen anpassen.
Hab es an anderer Stelle bereits erklärt, tu es hier aber gerne nochmal.
Das, was wir heute als AI verstehen entstand als "Nebenprodukt" der Forschung zur Bildbearbeitung bzw genauer gesagt Bildersuche. Man forschte an Algorithmen um Bilder im Netz zu erkennen. Was ist ein Berg, was ein See, was ein Meer, was die Mona Lisa. Um das zu realisieren hat man Bilder Pixel für Pixel analysiert und letztendlich verglichen, ob es ein passendes Muster gibt.
Und genau das ist, natürlich paraphrasiert, genau das wie eine genAI auf LLM Basis funktioniert.
CHatGTP weiß nichts. Absolut nichts. Auch nicht wie die Hauptstadt von Frankreich heißt.
Wen man CHatGTP fragt, wie die Hauptstadt von Frankreich heißt nimmt diese im Prinzip die Keys Hauptstadt und Frankreich und durchsucht ihr LLM nach Kontext, die diese beiden Keys enthält. Und wen dann 96 von 100 mal das Muster Paris ergibt erhältst du von ChatGTP die Antwort:
"Das ist eine ganz hervorragende Frage! Die Hauptstadt von Frankreich ist natürlich Paris! Möchtest du vielleicht etwas für den Eiffelturm wissen (weil das aus dem Kontext heraus ebenfalls eine sehr hohe Musterdichte hat). "
AI ist nicht intelligent. Sie weiß nichts, sie versteht nichts, sie kann nichts herrleiten oder interpretieren.
AI oder das was wir heute als AI bezeichnen vergleicht lediglich stumpf Muster und gibt die Ergebnisse nach höchster Trefferdichte/Wahrscheinlichkeit aus.
Und natürlich kann sich aus dieser Basis niemals etwas heraus entwickeln, was man wirklich als intelligent bezeichnen kann oder gar ein eigenes Bewusstsein entwickelt.
DAs Skynet Szenaria ist daher (noch) Blödsinn und bleibt Scince Ficition
Hab es an anderer Stelle bereits erklärt, tu es hier aber gerne nochmal.
Das, was wir heute als AI verstehen entstand als "Nebenprodukt" der Forschung zur Bildbearbeitung bzw genauer gesagt Bildersuche. Man forschte an Algorithmen um Bilder im Netz zu erkennen. Was ist ein Berg, was ein See, was ein Meer, was die Mona Lisa. Um das zu realisieren hat man Bilder Pixel für Pixel analysiert und letztendlich verglichen, ob es ein passendes Muster gibt.
Und genau das ist, natürlich paraphrasiert, genau das wie eine genAI auf LLM Basis funktioniert.
CHatGTP weiß nichts. Absolut nichts. Auch nicht wie die Hauptstadt von Frankreich heißt.
Wen man CHatGTP fragt, wie die Hauptstadt von Frankreich heißt nimmt diese im Prinzip die Keys Hauptstadt und Frankreich und durchsucht ihr LLM nach Kontext, die diese beiden Keys enthält. Und wen dann 96 von 100 mal das Muster Paris ergibt erhältst du von ChatGTP die Antwort:
"Das ist eine ganz hervorragende Frage! Die Hauptstadt von Frankreich ist natürlich Paris! Möchtest du vielleicht etwas für den Eiffelturm wissen (weil das aus dem Kontext heraus ebenfalls eine sehr hohe Musterdichte hat). "
AI ist nicht intelligent. Sie weiß nichts, sie versteht nichts, sie kann nichts herrleiten oder interpretieren.
AI oder das was wir heute als AI bezeichnen vergleicht lediglich stumpf Muster und gibt die Ergebnisse nach höchster Trefferdichte/Wahrscheinlichkeit aus.
Und natürlich kann sich aus dieser Basis niemals etwas heraus entwickeln, was man wirklich als intelligent bezeichnen kann oder gar ein eigenes Bewusstsein entwickelt.
DAs Skynet Szenaria ist daher (noch) Blödsinn und bleibt Scince Ficition
Guter und verständlicher Use Case. Kann auch herangezogen werden um die Frage zu beantworten, ob KI etwas Neues erstellen, kreieren, entwickeln whatever kann. Nein kann es nicht, es entwickelt inhaltlich kein neues Patternstück. Es entwickelt vielmehr eine weitere Iteration des Puzzles aus den Patterns und dabei kommen verblüffende Ergebnisse raus - teilweise visuell überladen, weil der Algorithmus versucht so viele passende Möglichkeiten in ein Ergebnis zu packen wie möglich -, die man vorher nicht gesehen hatte. Klar auf die Idee einen Autoreifen mit einem Kürbis und einer Schlange zu fusionieren muss man erst einmal kommen. Das Ergebnis ist im Nachhinein nachvollziehbar, auch wenn die Halluzinationswolke weitere Variationen dieses Ergebnisses ableiten könnte, theoretisch unendlich viele weil mathematisch nachvollziehbar.
Und das ist am Ende einer der springenden Punkte. Man hat nie die volle Kontrolle über das Ergebnis weil es auf Wahrscheinlichkeiten aufgebaut ist. Man kann auf das Ergebnis hin iterieren. Ein Mensch weiß dagegen, dass 2 Äpfel + 3 Äpfel + 2 Birnen am Ende 5 Äpfel + 2 Birnen ergibt. Die KI wird sich auch nicht alleine am Ende fragen, ob das Obst einen leckeres Mus ergibt, dass man mit Zimt verfeinern kann.
Über das Skynet Topic braucht man gar nicht erst diskutieren. Einem KI Chatbot wird nie selbst auf die Idee kommen - wie auch - irgend jemanden zu schaden. daher wenn man von einer KI umgebracht wird, dann nur durch einen Menschen, der jene bedient und vorher den ethischen Bias entfernt hat. Die Leute schauen zu viel Netflix.
Hab es an anderer Stelle bereits erklärt, tu es hier aber gerne nochmal.
Das, was wir heute als AI verstehen entstand als "Nebenprodukt" der Forschung zur Bildbearbeitung bzw genauer gesagt Bildersuche. Man forschte an Algorithmen um Bilder im Netz zu erkennen. Was ist ein Berg, was ein See, was ein Meer, was die Mona Lisa. Um das zu realisieren hat man Bilder Pixel für Pixel analysiert und letztendlich verglichen, ob es ein passendes Muster gibt.
Und genau das ist, natürlich paraphrasiert, genau das wie eine genAI auf LLM Basis funktioniert.
CHatGTP weiß nichts. Absolut nichts. Auch nicht wie die Hauptstadt von Frankreich heißt.
Wen man CHatGTP fragt, wie die Hauptstadt von Frankreich heißt nimmt diese im Prinzip die Keys Hauptstadt und Frankreich und durchsucht ihr LLM nach Kontext, die diese beiden Keys enthält. Und wen dann 96 von 100 mal das Muster Paris ergibt erhältst du von ChatGTP die Antwort:
"Das ist eine ganz hervorragende Frage! Die Hauptstadt von Frankreich ist natürlich Paris! Möchtest du vielleicht etwas für den Eiffelturm wissen (weil das aus dem Kontext heraus ebenfalls eine sehr hohe Musterdichte hat). "
AI ist nicht intelligent. Sie weiß nichts, sie versteht nichts, sie kann nichts herrleiten oder interpretieren.
AI oder das was wir heute als AI bezeichnen vergleicht lediglich stumpf Muster und gibt die Ergebnisse nach höchster Trefferdichte/Wahrscheinlichkeit aus.
Und natürlich kann sich aus dieser Basis niemals etwas heraus entwickeln, was man wirklich als intelligent bezeichnen kann oder gar ein eigenes Bewusstsein entwickelt.
DAs Skynet Szenaria ist daher (noch) Blödsinn und bleibt Scince Ficition
Deine neuronen im hirn wissen auch nicht was paris ist. Erst durch den richtigen input, werden sie auf die richtige weise getriggert, sodass dein mund antwortet "das ist die hauptstadt von frankreich".
ein großer teil der menschlichen intelligenz besteht aus klassifizierung, assoziation und extrapolation. Das können aktelle LLMs zwar noch nicht perfekt aber schon recht gut.
Das, was wir heute als AI verstehen entstand als "Nebenprodukt" der Forschung zur Bildbearbeitung bzw genauer gesagt Bildersuche. Man forschte an Algorithmen um Bilder im Netz zu erkennen. Was ist ein Berg, was ein See, was ein Meer, was die Mona Lisa. Um das zu realisieren hat man Bilder Pixel für Pixel analysiert und letztendlich verglichen, ob es ein passendes Muster gibt.
AI, also neuronale Netze entstanden schon deutlich früher. Aber ja die moderne Bildbearbeitung, -erkennung war auf jeden fall ein sehr grosser Antrieb für deren Weiterentwicklung. Algorithmisch lassen sich zwar identische Formen in diverserer Skalierung/Rotation und Färbung erkennen, für eine generelle Erkennung reicht dies aber nicht aus, wesshalb hier schon relativ früh auf AI gesetzt wurde. Denn diese erkennt z.B. einen Vogel nicht anhand einer riesigen Datenbank, sondern sucht z.B. einen Schnabel der passend mit einem Kopf verbunden ist und anhand des gefiederten Körpers.
Und genau das ist, natürlich paraphrasiert, genau das wie eine genAI auf LLM Basis funktioniert.
CHatGTP weiß nichts. Absolut nichts. Auch nicht wie die Hauptstadt von Frankreich heißt.
Wen man CHatGTP fragt, wie die Hauptstadt von Frankreich heißt nimmt diese im Prinzip die Keys Hauptstadt und Frankreich und durchsucht ihr LLM nach Kontext, die diese beiden Keys enthält. Und wen dann 96 von 100 mal das Muster Paris ergibt erhältst du von ChatGTP die Antwort:
"Das ist eine ganz hervorragende Frage! Die Hauptstadt von Frankreich ist natürlich Paris! Möchtest du vielleicht etwas für den Eiffelturm wissen (weil das aus dem Kontext heraus ebenfalls eine sehr hohe Musterdichte hat). "
AI ist nicht intelligent. Sie weiß nichts, sie versteht nichts, sie kann nichts herrleiten oder interpretieren.
AI oder das was wir heute als AI bezeichnen vergleicht lediglich stumpf Muster und gibt die Ergebnisse nach höchster Trefferdichte/Wahrscheinlichkeit aus.
Und natürlich kann sich aus dieser Basis niemals etwas heraus entwickeln, was man wirklich als intelligent bezeichnen kann oder gar ein eigenes Bewusstsein entwickelt.
Wissen != Intelligenz. Natürlich kannst du ein LLM auch nach bestehendem Wissen fragen, dies ist aber nicht der Sinn und reduziert das LLM wie du schreibst auf eine reine Suchmaschine.
Die Intelligenz eines LLMs besteht daraus, dass es auch fiktive Fragen, open ended Befehle oder auch komplett neue Probleme entsprechend analysieren, interpretieren, verarbeiten und eine sinnvole Antwort produzieren kann.
Beispiele wären z.B. die generierten Charakterbeschreibungen von VGMs DongoDongo:
Spannende Frage
Für mich klingt DongoDongo nach einer Figur, die zugleich verspielt, uralt und ein bisschen absurd ist. So würde ich ihn mir vorstellen:
Oder generiere zum Beispiel mal ein Bild mit einer genAI und bitte sie danach das Bild "epischer", "böser" oder "lustiger" zu machen. Dies sind in dem Moment komplexe Befehle, für welche es keinen Standardalgorithmus gibt, trotzdem wird die KI dir ein Resultat liefern, welches durchaus in die entsprechende Richtung geht.
Vom Skynet Szenario redet hier auch niemand, denn das würde eine KI inklusive Bewusstsein, Intentionen und co vorraussetzen. Für das komplette Ersetzen von Arbeitskräften reicht aber durchaus auch eine genügend komplexe Narrow KI... Diese verlangt auch keinen Lohn, schläft nicht und kann beliebig skaliert/multipliziert werden.
Für das komplette Ersetzen von Arbeitskräften reicht aber durchaus auch eine genügend komplexe Narrow KI... Diese verlangt auch keinen Lohn, schläft nicht und kann beliebig skaliert/multipliziert werden.
Und in diesem Umstand sehe ich ja nichts negatives ….. wozu solls ein Mensch machen, wenns ein Werkzeug gibt, das die Arbeit machen kann ?
Maschinensteuer und BGE müssen her.
Nicht Technologieverweigerung zum Schutz eines in die Jahre kommenden Gesellschaftssystem.
Habe es da wohl übersehen, danke dir für die Wiederholung.
AI, also neuronale Netze entstanden schon deutlich früher. Aber ja die moderne Bildbearbeitung, -erkennung war auf jeden fall ein sehr grosser Antrieb für deren Weiterentwicklung. Algorithmisch lassen sich zwar identische Formen in diverserer Skalierung/Rotation und Färbung erkennen, für eine generelle Erkennung reicht dies aber nicht aus, wesshalb hier schon relativ früh auf AI gesetzt wurde. Denn diese erkennt z.B. einen Vogel nicht anhand einer riesigen Datenbank, sondern sucht z.B. einen Schnabel der passend mit einem Kopf verbunden ist und anhand des gefiederten Körpers.
Wissen != Intelligenz. Natürlich kannst du ein LLM auch nach bestehendem Wissen fragen, dies ist aber nicht der Sinn und reduziert das LLM wie du schreibst auf eine reine Suchmaschine.
Die Intelligenz eines LLMs besteht daraus, dass es auch fiktive Fragen, open ended Befehle oder auch komplett neue Probleme entsprechend analysieren, interpretieren, verarbeiten und eine sinnvole Antwort produzieren kann.
Beispiele wären z.B. die generierten Charakterbeschreibungen von VGMs DongoDongo:
Spannende Frage
Für mich klingt DongoDongo nach einer Figur, die zugleich verspielt, uralt und ein bisschen absurd ist. So würde ich ihn mir vorstellen:
Oder generiere zum Beispiel mal ein Bild mit einer genAI und bitte sie danach das Bild "epischer", "böser" oder "lustiger" zu machen. Dies sind in dem Moment komplexe Befehle, für welche es keinen Standardalgorithmus gibt, trotzdem wird die KI dir ein Resultat liefern, welches durchaus in die entsprechende Richtung geht.
Vom Skynet Szenario redet hier auch niemand, denn das würde eine KI inklusive Bewusstsein, Intentionen und co vorraussetzen. Für das komplette Ersetzen von Arbeitskräften reicht aber durchaus auch eine genügend komplexe Narrow KI... Diese verlangt auch keinen Lohn, schläft nicht und kann beliebig skaliert/multipliziert werden.
Es sind aber keine neuronalen Netze, die da gebildet werden.
Es ist immer wieder ein stumpfer Muster Vergleich. Natürlich paraphrisiert dargestellt und in seiner Mechankik unglaublich komplex mitlerweile.
Aber die Grundmeachnik ist ebend so simpel.
Daher ist auch der Vergleich mit den Neuronen im Gehirn falsch, @donki
Das kann vielleicht der nächste Schritt sein, da die Forschung was Quanten Computer und deren Nutzung neuronaler Netze perspektivisch nicht mehr so weit in der Zukunft sind.
Gibt Menschen die machen ihre Arbeit sehr gerne, aktuell mag dir eine AI deine Arbeit erleichtern, naiv ist es zu denken das bleibt so. Wie sieht es in der Zukunft aus? Wirst du dich, wenn du dein Job verloren hast, nutzlos fühlen? Wirst du oder andere deine Arbeit wertschätzen, egal ob du 10 Minuten oder Monate dafür gebraucht hast, wird sich das aufstehen noch lohnen? Du wirst sicherlich was neues lernen müssen, eine Fließband-Arbeit fernab von jeder eigener Kreativität oder gar einer Selbsterfüllung. Sicherlich wirst du dass vor dem TV auch nicht toll finden, wenn andere deswegen dagegen demonstrieren, nein du wirst den TV anbrüllen, wie gut sie es eigentlich haben nichts tun zu müssen. Dann wirst du umschalten auf HDMI1 und eine Sidequest machen die du sicherlich im selben Spiel schon 50x mal gemacht hast und du wirst es toll finden.... Ach wären Videospiele nur wie früher, wirst du insgeheim denken.
Gibt Menschen die machen ihre Arbeit sehr gerne, aktuell mag dir eine AI deine Arbeit erleichtern, naiv ist es zu denken das bleibt so. Wie sieht es in der Zukunft aus? Wirst du dich, wenn du dein Job verloren hast, nutzlos fühlen? Wirst du oder andere deine Arbeit wertschätzen, egal ob du 10 Minuten oder Monate dafür gebraucht hast, wird sich das aufstehen noch lohnen? Du wirst sicherlich was neues lernen müssen, eine Fließband-Arbeit fernab von jeder eigener Kreativität oder gar einer Selbsterfüllung. Sicherlich wirst du dass vor dem TV auch nicht toll finden, wenn andere deswegen dagegen demonstrieren, nein du wirst den TV anbrüllen, wie gut sie es eigentlich haben nichts tun zu müssen. Dann wirst du umschalten auf HDMI1 und eine Sidequest machen die du sicherlich im selben Spiel schon 50x mal gemacht hast und du wirst es toll finden.... Ach wären Videospiele nur wie früher, wirst du insgeheim denken.
Deine Sichtweise grenzt an fundamentalen Fanstismus, dabei ist deine Kritik zumindest teilweise sogar berechtigt.
Wir haben uns doch hier schon mehrfach darauf geeinigt, das genAI nichts neues erschaffen kann.
Und trotzdem redest du davon, das GenAi das Ende aller Kreativität bedeutet. Das ist doch ein Wiederspruch in sich.
Ebend weil AI nichts aus sich heraus erschaffen kann, wird man NATÜRLICH weiter qualifizierte und kreative Menschen brauchen, die ebend mit diesen Tools neues erschaffen.
Deine Kritik, das diese obsolet werden ist total an den Haaren herbeigezogen und großer Unfug.
Aber natürlich brauch man nun weniger dieser Personen. Brauchte ein game Studio vorher 10 Graphic Artists brauchen sie jetzt vielleicht nur noch 2 mit AI Tools.
Das kann und darf man natürlich kritisieren. Das man aber gar keine mehr benötigt ist halt quatsch
Es sind aber keine neuronalen Netze, die da gebildet werden.
Es ist immer wieder ein stumpfer Muster Vergleich. Natürlich paraphrisiert dargestellt und in seiner Mechankik unglaublich komplex mitlerweile.
Aber die Grundmeachnik ist ebend so simpel.
Daher ist auch der Vergleich mit den Neuronen im Gehirn falsch, @donki
Das kann vielleicht der nächste Schritt sein, da die Forschung was Quanten Computer und deren Nutzung neuronaler Netze perspektivisch nicht mehr so weit in der Zukunft sind.
Doch, natürlich basiert ein LLM auf neuronalen Netzwerken. Die 2017 vorgestellte und inzwischen von den meisten verwendete Transformer Architektur macht dies genauso, sie erhöht u.A. einfach die Lernfähigkeit und Effizienz durch ein vorgeschaltetes trainiertes Attantion-Modul welches entsprechende Subparts der Anfrage nach wichtigkeit parametrisiert noch einmal enorm.
Ich finde es halt immer wieder krass, wie enorm sich die Dimensionen/Kapazitäten von ChatGPT nur in den 2 Jahren in welchen sie die Daten noch veröffentlicht hatten schon gesteigert haben. Die Frage ist wie sich das in den nächsten Jahren weiterentwickeln wird. Nvidia wird momentan nicht umsonst derart gepushed und Ram derart leergekauft.
Doch, natürlich basiert ein LLM auf neuronalen Netzwerken. Die 2017 vorgestellte und inzwischen von den meisten verwendete Transformer Architektur macht dies genauso, sie erhöht u.A. einfach die Lernfähigkeit und Effizienz durch ein vorgeschaltetes trainiertes Attantion-Modul welches entsprechende Subparts der Anfrage nach wichtigkeit parametrisiert noch einmal enorm.
Ich finde es halt immer wieder krass, wie enorm sich die Dimensionen/Kapazitäten von ChatGPT nur in den 2 Jahren in welchen sie die Daten noch veröffentlicht hatten schon gesteigert haben. Die Frage ist wie sich das in den nächsten Jahren weiterentwickeln wird. Nvidia wird momentan nicht umsonst derart gepushed und Ram derart leergekauft.
Ich will mich hier nicht zu sehr auf dünnes Eis begeben, da mir dafür in der Tiefe die Expertiese fehlt.
Aber hier kommts denk ich auf die Begriffsdefinition an.
Ich versteh unter Neuronalem Netz etwas, was ich simplifiziert als Gedächnisspeicher bezeichnen würde und auf dieser Basis lernfähig ist.
Halt angehlehnt zum menschlichen Gehirn und Neuronen.
Jetzt kann man natürlich alles was aus einzelnen Nodes besteht und verbinden ist, auch wen es "nur" aus parametisierten Anfragen besteht Neuronales Netz nennen.
Aber es LERNT ebend afaik nicht. Es wächst zwar aber es lernt nie dazu. Jede Abfrage wird gemäß ihrer Parameter immer wieder gematched ... was natürlich auch zu unterschiedlichen Ergebnissen führen kann. Aber vermutlich kann man das aufgrund seiner Organisationsstruktur und Funktion ebenfalls neuronales Netz nennen
Ich will mich hier nicht zu sehr auf dünnes Eis begeben, da mir dafür in der Tiefe die Expertiese fehlt.
Aber hier kommts denk ich auf die Begriffsdefinition an.
Ich versteh unter Neuronalem Netz etwas, was ich simplifiziert als Gedächnisspeicher bezeichnen würde und auf dieser Basis lernfähig ist.
Halt angehlehnt zum menschlichen Gehirn und Neuronen.
Ah ok, nein ein neurales Netz besteht nicht aus Gedächtniszellen, sondern aus einzelnen “Neuronen“ welche anhand von äusseren Einflüssen aktiviert werden können. Diese wiederum haben wieder Verbindungen zu anderen Neuronen, wodurch diese wiederum angesteuert und aktiviert werden können. Und diese Verbindungen sind es auch die beim Lernprozess entsprechend parametrisiert werden. Am Beispiel des Vogels oben, würde in dem Fall durch den Lernprozess die Leitung der Zelle welche einen Schnabel erkennt und jene welche Gefieder erkennt hoch priorisiert, jene welche vier Beine erkennt im Gegensatz dazu tief. Wenn es sich also um ein Tier handelt welches gefiedert ist, einen Schnabel und nicht vier sondern 2 Beine hat ist es mit grosser wahrscheinlichkeit ein Vogel. Wenn es dich genauer interessiert, du etwas Zeit hast und dir Jon Steward nocht auf die Nerven geht kann ich dir wirklich das von mir oben im verlinkten Post verlinkte Video empfehlen. In der ersten halben Stunde oder so erklärt Geoffrey Hinton(Nobelpreisträgerfür seine Arbeit mit Neuronalen Netzen) die grundsätzliche Funktion imho sehr verständlich und unterhaltsam.
Jetzt kann man natürlich alles was aus einzelnen Nodes besteht und verbinden ist, auch wen es "nur" aus parametisierten Anfragen besteht Neuronales Netz nennen.
Aber es LERNT ebend afaik nicht. Es wächst zwar aber es lernt nie dazu. Jede Abfrage wird gemäß ihrer Parameter immer wieder gematched ... was natürlich auch zu unterschiedlichen Ergebnissen führen kann. Aber vermutlich kann man das aufgrund seiner Organisationsstruktur und Funktion ebenfalls neuronales Netz nennen
Doch es lernt in dem es die entsprechenden Verbindungen durch das lernen parametrisiert. Es lernt dadurch Zusammenhänge und Patterns zu erkennen, verstehen und anhand dessen Entscheidungen treffen kann.
Wir haben uns doch hier schon mehrfach darauf geeinigt, das genAI nichts neues erschaffen kann.
Und trotzdem redest du davon, das GenAi das Ende aller Kreativität bedeutet. Das ist doch ein Wiederspruch in sich.
Ebend weil AI nichts aus sich heraus erschaffen kann, wird man NATÜRLICH weiter qualifizierte und kreative Menschen brauchen, die ebend mit diesen Tools neues erschaffen.
Deine Kritik, das diese obsolet werden ist total an den Haaren herbeigezogen und großer Unfug.
Aber natürlich brauch man nun weniger dieser Personen. Brauchte ein game Studio vorher 10 Graphic Artists brauchen sie jetzt vielleicht nur noch 2 mit AI Tools.
Das kann und darf man natürlich kritisieren. Das man aber gar keine mehr benötigt ist halt quatsch
Immerhin hast du ungefähr das rausgelesen was man rauslesen sollte. Habe es absichtlich überspitzt dargestellt, natürlich sterben Arbeitskräfte nicht aus aber niemand sagt dass man nicht doch plötzlich derjenige ist der nicht mehr bleiben darf. Und dann arbeitet man doch wieder im monotonem Arbeitsumfeld, Rückschritt statt Fortschritt nenne ich das.
Wir haben uns nicht geeinigt, für mich war von Anfang an klar, dass GenAI nichts neues erschaffen kann. Da bedarf es keiner Einigung.
Ich mache mir eher Gedanken darüber, welche psychologischen Folgen es hätte, wenn Menschen z.b. 8 Stunden täglich am Computer sitzen müssten mit dem Wissen, das sie die getane Arbeit mit einem Knopfdruck erledigen könnten.
Deine Sichtweise diesbezüglich ist tief ideologisch.
Mit ähnlich ideologischen Strukturen hat man im letzen Jahrhundert in kommunistischen Ländern Intellektuelle aufs Reisfeld zur Zwangsarbeit geschickt - nur damit sie dem „Kollektiv dienen“ - nicht wegen dem Reis. (Kambotcha / Pol Pot Regime - rote Khmer )
Edit :
Die ganze Diskussion finde ich mittlerweile allein schon aus dem Grund pseudomoralistisch, weil :
Einerseits wird darauf bestanden, dass KI niemals kreativ sein könne.
Andererseits sollen Arbeitsplätze geschützt werden, die KI problemlos übernehmen könnte.
Das wirkt widersprüchlich:
Wenn eine Tätigkeit vollständig von KI erledigt werden kann, scheint sie per Definition keine kreative Arbeit zu sein.
Nun stelle ich mir folgende Frage :
Sind eventuell gewisse Arbeiten gar nicht so kreativ gewesen, obwohl sie uns als solche verkauft wurden ?
Diese Seite benutzt Cookies, um Inhalte zu personalisieren, die Benutzung auf die persönlichen Vorlieben anzupassen und das Einloggen nach der Registrierung aufrechtzuerhalten.
Indem du die Seite weiterbenutzt, stimmst du dem beschriebenen Gebrauch von Cookies zu.