Schwerpunkt Wird Künstliche Intelligenz uns auslöschen?

Avi

L99: LIMIT BREAKER
Seit
27 Okt 2013
Beiträge
38.215
PSN
AviatorF22
@TheProphet macht doch einfach einen Avi - Thread auf. xD Aber interessantes Thema. Die Videos habe ich noch nicht geschaut, aber passend dazu würde das passen:


Thumbnail ist clickbait :ugly: , aber sonst ist das Video ok. Dort ist die K.I. noch limitiert, aber schon an einer Universität tätig oder mit Staatsbürgerschaft ausgerüstet. Ob die K.I. wirklich irgendwann die Menschheit vernichten wird, bezweifle ich mittlerweile. Zuvor versinkt die Welt im Müll... und wir mit ihr. Da wünscht man sich doch den Zorn eine der ersten Göttinnen der Menschheit zurück, und dass sich unser Schicksal auf die Art bewahrheitet, wie @mogry sich das vorstellt.

"Schaffst du mir aber den Himmelsstier nicht,
So zerschlag ich die Türen der Unterwelt,
Zerschmeiß ich die Pfosten, laß die Tore weit offenstehn,
Laß ich auferstehn die Toten, dass sie fressen die Lebenden,
Der Toten werden mehr sein denn der Lebendigen.“
(Ishtar, Gilgamesh - Epos)
 

DukeNukem

L12: Crazy
Seit
20 Sep 2006
Beiträge
2.201
Xbox Live
cw DukeNukem
PSN
cwDukeNukem
Ich seh da höchtens ein Problem in Puncto KI und Militärtechnik.

Wenn man bedenkt, dass es im Kalten Krieg mehrere Fehlalarme durch, vereinfacht gesagt, Computerfehler gab, die das Aufsteigen von Bombern mit scharfen Kernwaffen an Bord usw. zur Folge hatten, muss man sich fragen wie weit automatisierte/autonome Waffensysteme gehen dürfen.
Das Problem sieht man ja momentan, KI unterstützte Drohnen, Robotik die ins Kampfgeschehen Einzug hält...

Alles technisch Machbare wird beim Militär nunmal irgendwann umgesetzt.
War schon immer so, wird immer so sein.
Es heißt ja nicht unsonst, der Krieg ist die Mutter aller Erfindungen...
Auf den Mensch ist in dieser traurigen Hinsicht leider immer stets Verlass...

Beim nem Roboter ziehste den Stecker oder ballerst ihn weg, bei ner automatisierten/KI gesteuerten Gegenschlagskaskade machste nichts mehr...
 
  • Lob
Reactions: Avi

RamsayBolton

L20: Enlightened
Seit
13 Jul 2007
Beiträge
22.609
Xbox Live
DerAlucard
PSN
TheSpiritOfFunk
Hier hat jemand zu viele SciFi Filme gesehen. Ich glaube das die Menschheit keine 250 Jahre mehr bestehen wird, aber wenn dann nicht wegen ner A.I.
Elon Musk ist ein Schwätzer mit viel Geld.
Kapiere bis heute nicht warum der so viele Fans hat
 

Lacrimosa

L99: LIMIT BREAKER
Seit
26 Dez 2011
Beiträge
52.265
Switch
1820 6736 1315
Hier hat jemand zu viele SciFi Filme gesehen. Ich glaube das die Menschheit keine 250 Jahre mehr bestehen wird, aber wenn dann nicht wegen ner A.I.
Elon Musk ist ein Schwätzer mit viel Geld.
Kapiere bis heute nicht warum der so viele Fans hat
Du glaubst, dass über 8 Milliarden Individuen einer Spezies innerhalb so kurzer Zeit aussterben wird? Erklär mal.
 

Avi

L99: LIMIT BREAKER
Seit
27 Okt 2013
Beiträge
38.215
PSN
AviatorF22
Ich seh da höchtens ein Problem in Puncto KI und Militärtechnik.

Wenn man bedenkt, dass es im Kalten Krieg mehrere Fehlalarme durch, vereinfacht gesagt, Computerfehler gab, die das Aufsteigen von Bombern mit scharfen Kernwaffen an Bord usw. zur Folge hatten, muss man sich fragen wie weit automatisierte/autonome Waffensysteme gehen dürfen.
Das Problem sieht man ja momentan, KI unterstützte Drohnen, Robotik die ins Kampfgeschehen Einzug hält...

Alles technisch Machbare wird beim Militär nunmal irgendwann umgesetzt.
War schon immer so, wird immer so sein.
Es heißt ja nicht unsonst, der Krieg ist die Mutter aller Erfindungen...
Auf den Mensch ist in dieser traurigen Hinsicht leider immer stets Verlass...

Beim nem Roboter ziehste den Stecker oder ballerst ihn weg, bei ner automatisierten/KI gesteuerten Gegenschlagskaskade machste nichts mehr...
Die Welt stand mehrfach vor einem Atomkrieg, und in letzter Sekunde beinahe waren es Menschen, die ihre Karierre riskiert und richtig gehandelt haben. Der eine Russe damals wurde nie richtig dafür geehrt das er die Welt vor dem 3. Weltkrieg mit Atomwaffen bewahrte. Eine K.I. hätte aufgrund der Daten zwar richtig, moralisch jedoch vollkommen falsch gehandelt. Letzteres liegt daran, weil man einer K.I. frei nach Asimov schwerlich Moral beibringen kann.

Du glaubst, dass über 8 Milliarden Individuen einer Spezies innerhalb so kurzer Zeit aussterben wird? Erklär mal.
Durch den von Menschen gemachten Klimawandel geht das sehr schnell. Es gibt immer krassere Naturkatastrophen. Die Wüsten breiten sich aus, und sorgen dafür das Mio von Menschen in reichere Länder fliehen. Dort wird das ganze Gesellschaftsgefüge zerrüttet und es kommt zu Bürgerkriegen und Plünderungen. Die aktuellen Nachrichten zeichnen ein immer deutlicheres Bild vom Zerfall unserer Zivilisation.

Die reicheren Gegenden werden etwas länger durchhalten, aber nimm den Menschen mal ihr wertvolles Benzin weg. Oder andere Dinge des Alltags. Dann herrscht auch bei uns Plünderung, Mord und Todschlag. Der Rest gibt uns der ganze Plastikmüll und, noch viel schlimmer, der Atommüll und die Kraftwerke. Fallout - The Real Game kommt schneller als man denkt. In der Welt kriselt es auch, und ein 3. Weltkrieg ist heute schneller auszulösen als damals in der langen Zeit des Friedens.

Man bekommt von all dem jedoch kaum etwas mit, denn alles ist toll und uns geht es ja (noch) so gut. :niatee:
 

Frontliner

L17: Mentor
Seit
6 Jan 2005
Beiträge
14.305
naja, auch wenn es ein @Avi Thread ist :v: ist die Diskussion durchaus sehr interessant.

das Problem mit einer KI, welche selbst lernt, ist das wenn sie erst mal existiert und im Netz ist, theoretisch zumindest problemlos überleben könnte. "abschalten" wäre dann ja relativ schwer, denn würde sie lernen das sie abgeschaltet werden kann, würde sie womöglich massnahmen ergreifen, damit dies eben nicht mehr funktioniert respektive Kopien von sich anlegen etc.

es ist eine reale Gefahr, dass eine KI "durchdrehen" könnte, um es so zu formulieren. Es ist sicherlich gut das ein ernsthafter Dialog geführt wird, wie man das kontrollieren kann. Es war / ist gut das praktisch keine Grenzen in einer technologischen Entwicklung gesetzt sind, wenn aber der Punkt erreicht ist, wo die Technologie schaden anrichten kann, muss man sich damit auseinandersetzen.

Es gibt übrigens schon tolle Beispiele für Algorithmen die Menschen ins Verderben gestürzt haben. namentlich: high frequenzy trading. Das selbständige handeln von Titeln an der Börse durch maschinellen Code. was da passieren kann, nun, sowas:
https://www.bbc.com/news/magazine-19214294

das Geld das verspielt wird, und keiner weiss warum
"We don't know exactly what. They switched it on and immediately they started losing literally $10 million [£6.4m] a minute.
trifft Menschen, anleger, rentenfonds, Hauskäufer mit Hypotheken etc. es greift noch nicht direkt Menschen an oder löscht sie bewusst aus, aber es bedroht teilweise schon die Ökonomischen Systeme respektive die Finanzwirtschaft, welche Gesellschaften massgeblich beeinflussen kann.

nun.... daher "d'ont trust the code" - baut sicherheiten ein meine Freunde, ein Abschaltknopf, isolierte Umgebungen für KI wo man nicht weiss wohin sich siche entwickeln könnte, kein Zugriff auf das öffentliche Netz
 
  • Lob
Reactions: Avi

CLANet

L13: Maniac
Seit
18 Aug 2007
Beiträge
4.886
Der Wandel das "Maschinen" "heimlich" miteinander kommunizieren wird der entscheidene Punkt werden. Nur ist es dann schon zu spät und der Mensch hat nur noch wenig Einfluss! Die Maschinen werden autark sein und sich gegenseitig "helfen" (reparieren) können.
 

Ashrak

L16: Sensei
Seit
19 Apr 2007
Beiträge
11.944
Switch
7527 1886 2199
Steam
AshrakTeriel
nun.... daher "d'ont trust the code" - baut sicherheiten ein meine Freunde, ein Abschaltknopf, isolierte Umgebungen für KI wo man nicht weiss wohin sich siche entwickeln könnte, kein Zugriff auf das öffentliche Netz
Das dürfte ein Problem werden, je weiter wir bei dem Thema voranschreiten und je alltäglicher es wird. Irgendwann wird nämlich ein 4chan-Memelord auf die Idee kommen, eine KI mit dem Befehl "gas all jews" auf das Internet loszulassen. All deine schönen Sicherungen setzen nämlich voraus, dass die überhaupt nur umgesetzt werden, wenn jemand den potenziellen Schaden begrenzen will, statt ihn anzurichten. :pcat::nyanwins:
 

Frontliner

L17: Mentor
Seit
6 Jan 2005
Beiträge
14.305
Das dürfte ein Problem werden, je weiter wir bei dem Thema voranschreiten und je alltäglicher es wird. Irgendwann wird nämlich ein 4chan-Memelord auf die Idee kommen, eine KI mit dem Befehl "gas all jews" auf das Internet loszulassen. All deine schönen Sicherungen setzen nämlich voraus, dass die überhaupt nur umgesetzt werden, wenn jemand den potenziellen Schaden begrenzen will, statt ihn anzurichten. :pcat::nyanwins:
richtig, und deshalb wäre es wahrscheinlich an der Zeit die Forschung und Entwicklung von KI genau zu verfolgen respektive Rahmenbedingungen und evtl. halt auch Kontrollen einzusetzen. Nur weiss ich nicht wie sowas in der Praxis aussehen sollte, ohne den Innovationsprozess zu kastrieren
 

Nullpointer

L17: Mentor
Seit
17 Feb 2010
Beiträge
14.948
Xbox Live
matsze
Switch
5017 8400 1537
Ich sehe den dafür notwendigen Fortschritt bisher nicht einmal ansatzweise.

Das dürfte ein Problem werden, je weiter wir bei dem Thema voranschreiten und je alltäglicher es wird. Irgendwann wird nämlich ein 4chan-Memelord auf die Idee kommen, eine KI mit dem Befehl "gas all jews" auf das Internet loszulassen. All deine schönen Sicherungen setzen nämlich voraus, dass die überhaupt nur umgesetzt werden, wenn jemand den potenziellen Schaden begrenzen will, statt ihn anzurichten. :pcat::nyanwins:
Wie würde das eine KI anders bzw. einfacher machen als es jetzt schon ein Edgelord-Nazi das machen könnte?
 

Ashrak

L16: Sensei
Seit
19 Apr 2007
Beiträge
11.944
Switch
7527 1886 2199
Steam
AshrakTeriel
Wie würde das eine KI anders bzw. einfacher machen als es jetzt schon ein Edgelord-Nazi das machen könnte?
Kann ich nicht wirklich sagen, da das Thema KI bisher ja nach wie vor nicht annähernd so weit ist wie man sich das gerne ausmalt (Ultron, Shodan, Hal-9000 und co). Das hängt auch davon ab, wie sich der Rest des Alltags weiterentwickelt und Technologie mit einbezieht. Mir ging's in dem einen Post wirklich nur darum, dass solche Kontrollen voraussetzen, dass hypothetische Person X Schaden begrenzen will... aber nun stell dir halt vor, was passiert, wenn KIs Alltag geworden sind wie Waffen in den USA. Nun kombiniere das ganze mit der kriminellen Energie von abmemenden Edgelord-Nazis. good luck. :pcat::nyanwins:


richtig, und deshalb wäre es wahrscheinlich an der Zeit die Forschung und Entwicklung von KI genau zu verfolgen respektive Rahmenbedingungen und evtl. halt auch Kontrollen einzusetzen. Nur weiss ich nicht wie sowas in der Praxis aussehen sollte, ohne den Innovationsprozess zu kastrieren
Ich sehe nicht ganz, wie du das kontrollieren willst. Aasimovs Gesetze implementieren? Die kann besagter Edgelord-Nazi auch einfach außer Kraft setzen.
 
Top Bottom