Schwerpunkt Wird Künstliche Intelligenz uns auslöschen?

Der Wandel das "Maschinen" "heimlich" miteinander kommunizieren wird der entscheidene Punkt werden. Nur ist es dann schon zu spät und der Mensch hat nur noch wenig Einfluss! Die Maschinen werden autark sein und sich gegenseitig "helfen" (reparieren) können.
 
nun.... daher "d'ont trust the code" - baut sicherheiten ein meine Freunde, ein Abschaltknopf, isolierte Umgebungen für KI wo man nicht weiss wohin sich siche entwickeln könnte, kein Zugriff auf das öffentliche Netz

Das dürfte ein Problem werden, je weiter wir bei dem Thema voranschreiten und je alltäglicher es wird. Irgendwann wird nämlich ein 4chan-Memelord auf die Idee kommen, eine KI mit dem Befehl "gas all jews" auf das Internet loszulassen. All deine schönen Sicherungen setzen nämlich voraus, dass die überhaupt nur umgesetzt werden, wenn jemand den potenziellen Schaden begrenzen will, statt ihn anzurichten. :pcat::nyanwins:
 
Das dürfte ein Problem werden, je weiter wir bei dem Thema voranschreiten und je alltäglicher es wird. Irgendwann wird nämlich ein 4chan-Memelord auf die Idee kommen, eine KI mit dem Befehl "gas all jews" auf das Internet loszulassen. All deine schönen Sicherungen setzen nämlich voraus, dass die überhaupt nur umgesetzt werden, wenn jemand den potenziellen Schaden begrenzen will, statt ihn anzurichten. :pcat::nyanwins:

richtig, und deshalb wäre es wahrscheinlich an der Zeit die Forschung und Entwicklung von KI genau zu verfolgen respektive Rahmenbedingungen und evtl. halt auch Kontrollen einzusetzen. Nur weiss ich nicht wie sowas in der Praxis aussehen sollte, ohne den Innovationsprozess zu kastrieren
 
Ich sehe den dafür notwendigen Fortschritt bisher nicht einmal ansatzweise.

Das dürfte ein Problem werden, je weiter wir bei dem Thema voranschreiten und je alltäglicher es wird. Irgendwann wird nämlich ein 4chan-Memelord auf die Idee kommen, eine KI mit dem Befehl "gas all jews" auf das Internet loszulassen. All deine schönen Sicherungen setzen nämlich voraus, dass die überhaupt nur umgesetzt werden, wenn jemand den potenziellen Schaden begrenzen will, statt ihn anzurichten. :pcat::nyanwins:
Wie würde das eine KI anders bzw. einfacher machen als es jetzt schon ein Edgelord-Nazi das machen könnte?
 
Wie würde das eine KI anders bzw. einfacher machen als es jetzt schon ein Edgelord-Nazi das machen könnte?

Kann ich nicht wirklich sagen, da das Thema KI bisher ja nach wie vor nicht annähernd so weit ist wie man sich das gerne ausmalt (Ultron, Shodan, Hal-9000 und co). Das hängt auch davon ab, wie sich der Rest des Alltags weiterentwickelt und Technologie mit einbezieht. Mir ging's in dem einen Post wirklich nur darum, dass solche Kontrollen voraussetzen, dass hypothetische Person X Schaden begrenzen will... aber nun stell dir halt vor, was passiert, wenn KIs Alltag geworden sind wie Waffen in den USA. Nun kombiniere das ganze mit der kriminellen Energie von abmemenden Edgelord-Nazis. good luck. :pcat::nyanwins:


richtig, und deshalb wäre es wahrscheinlich an der Zeit die Forschung und Entwicklung von KI genau zu verfolgen respektive Rahmenbedingungen und evtl. halt auch Kontrollen einzusetzen. Nur weiss ich nicht wie sowas in der Praxis aussehen sollte, ohne den Innovationsprozess zu kastrieren

Ich sehe nicht ganz, wie du das kontrollieren willst. Aasimovs Gesetze implementieren? Die kann besagter Edgelord-Nazi auch einfach außer Kraft setzen.
 
Kann ich nicht wirklich sagen, da das Thema KI bisher ja nach wie vor nicht annähernd so weit ist wie man sich das gerne ausmalt (Ultron, Shodan, Hal-9000 und co). Das hängt auch davon ab, wie sich der Rest des Alltags weiterentwickelt und Technologie mit einbezieht. Mir ging's in dem einen Post wirklich nur darum, dass solche Kontrollen voraussetzen, dass hypothetische Person X Schaden begrenzen will... aber nun stell dir halt vor, was passiert, wenn KIs Alltag geworden sind wie Waffen in den USA. Nun kombiniere das ganze mit der kriminellen Energie von abmemenden Edgelord-Nazis. good luck. :pcat::nyanwins:
Ja, aber das ist ja unabhängig von künstlicher Intelligenz. Wenn z.B. alle Autos autonom und am Netz sind, geht die Massencrash-Gefahr von irgendwelchen russischen Hackern und Edgelords aus und nicht der KI. Dieses Szenario ist viel viel viel näher und realer als ein KI, die die Menschheit ausrottet.
Ich denke das in dunklen Kellern schon mehr fabriziert wurde als dem einen oder anderen lieb ist. Gerade im Militärbereich dürfte es ein grosses Thema sein und wie immer zu grossem Machtgehabe qualifizieren!
Die Militärs kochen auch nur mit Wasser. Welche Wunder-KI-Technologie sollen die denn gegenüber kommerziellen Anbietern oder Universitäten besitzen?
 
Ich sehe den dafür notwendigen Fortschritt bisher nicht einmal ansatzweise.


Wie würde das eine KI anders bzw. einfacher machen als es jetzt schon ein Edgelord-Nazi das machen könnte?
Ich denke das in dunklen Kellern schon mehr fabriziert wurde als dem einen oder anderen lieb ist. Gerade im Militärbereich dürfte es ein grosses Thema sein und wie immer zu grossem Machtgehabe qualifizieren!
 
Kyle_Reese.png

Alles wird gut, er ist hier. er wird hier sein :gutwerk:
 
  • Lob
Reaktionen: Avi
Natürlich der, den ich verlinkt habe :v:
Der Rest ist ein billiger Abklatsch nach dem anderen und fasst ganz gut zusammen, warum nach Terminator 2 hätte Schluss sein müssen.
 
  • Lob
Reaktionen: Avi
5 düstere Prophezeiungen, die uns von Stephen Hawking geblieben sind
https://www.futurezone.de/science/a...r-spannendsten-Ideen-von-Stephen-Hawking.html

5. Künstliche Intelligenz wird die Menschheit nachhaltig verändern

Ob sich Stephen Hawking für Filme mit Arnold Schwarzenegger interessierte, ist unbekannt. Allerdings hielt er die Idee, auf der einer der bekanntesten Filme des Schauspielers basiert, für gar nicht so abwegig. Hawking befürchtete, künstliche Intelligenz könnte eines Tages die Menschheit bedrohen – genauso, wie es in der „Terminator“-Reihe passiert.

„Die Entwicklung künstlicher Intelligenz könnte entweder das Schlimmste oder das Beste sein, was den Menschen passiert ist“, sagte Hawking Ende 2017 auf einer Konferenz in Lissabon. Sollten Maschinen sich irgendwann selbst verbessern können, könnten sie dem Menschen gefährlich werden und sich seiner Kontrolle entziehen. Vor diesem Hintergrund mahnte er Tech-Konzerne wie Apple, Google und Amazon, bei ihren Entwicklungen mit Vorsicht zu arbeiten. Man solle sich auf die Verbesserung der Dienste von Maschinen konzentrieren – und nicht auf die Verbesserung ihrer Intelligenz.
 
Könnte die künstliche Intelligenz uns irgendwann vernichten? Aber sicher.

Wird es soweit kommen, das sie uns vernichtet? Nein!

Wieso? Weil wir uns bis dahin schon selbst komplett zerstört haben. Sei es durch die Umwelt, die wir schänden. Sei es durch Experimente, die wir zu weit treiben! Sei es durch macht und Gier, die die Menschen korrumpiert!

Die Dekadenz, die momentan herrscht, ist der erste Schritt in diese Richtung...
 
Könnte die künstliche Intelligenz uns irgendwann vernichten? Aber sicher.

Wird es soweit kommen, das sie uns vernichtet? Nein!

Wieso? Weil wir uns bis dahin schon selbst komplett zerstört haben. Sei es durch die Umwelt, die wir schänden. Sei es durch Experimente, die wir zu weit treiben! Sei es durch macht und Gier, die die Menschen korrumpiert!

Die Dekadenz, die momentan herrscht, ist der erste Schritt in diese Richtung...

Ein sehr guter, trauriger und leider treffender Kommentar zum Thema!

climatechange.jpg
 
Ich hoffe die AIs sind so kompetent, als erstes alle Spammer zu eliminieren. Das wäre fein.
 
Zurück
Top Bottom