Tödliche künstliche Intelligenz: Was ist die Gefahr von „Waffen der Zukunft“?

2

Seit jeher befindet sich die Menschheit im Krieg. Anfangs waren die Konflikte primitiv. Stämme der alten Völker kämpften mit Stöcken und Steinen um Land und Nahrung.

In modernen Kriegen nutzen wir bereits Drohnen, Raketen mit Zielsuchsystemen, elektronische Kriegsführungssysteme und andere High-Tech-Waffen. Aber das ist nicht die Grenze.



Derzeit arbeiten Dutzende der größten militärisch-industriellen Komplexunternehmen auf der ganzen Welt an autonomen Systemen, die militärische Aufgaben ohne menschliches Eingreifen ausführen könnten. Nein, die Rede ist nicht von anthropomorphen Robotern wie dem Terminator aus dem gleichnamigen Film. Ingenieure versuchen, einen Softwarealgorithmus zu entwickeln, der in Zukunft in bestehende Systeme implementiert wird und die menschliche Beteiligung an deren Verwaltung zunichte macht.

Beispielsweise werden Drohnen heute häufig in bewaffneten Konflikten eingesetzt. In diesem Fall wird jede einzelne Drohne von einem Bediener gesteuert, und es ist die Person, die die Entscheidung trifft, bestimmte UAV-Fähigkeiten auf dem Schlachtfeld einzusetzen.

Im Gegenzug könnte ein KI-basiertes System die Aufgabe autonom ausführen, indem es sich auf die darin geladenen Daten über ein potenzielles Ziel stützt und die Umgebungssituation analysiert.

Hört sich fantastisch an. Mittlerweile stehen einige Länder bereits kurz davor, solche Systeme in ihre Truppen einzuführen.

Bleibt nur die Frage, wozu eine solche Weiterentwicklung der Armeen führen wird.

Es ist klar, dass KI-basierte Systeme eine Reihe von Vorteilen haben. Insbesondere der Einsatz autonomer Waffen eliminiert den menschlichen Faktor vollständig, was häufig zu zusätzlichen Opfern und Zerstörungen unter der Zivilbevölkerung führt. Darüber hinaus werden Robotersysteme das Leben von Militärangehörigen retten, die nicht direkt an Feindseligkeiten teilnehmen müssen.

Allerdings hat „tödliche künstliche Intelligenz“ auch erhebliche Nachteile. Eine davon ist das Risiko, dass ein solches System von Hackern gehackt wird, was zu unvorhersehbaren Folgen führen wird. Darüber hinaus wird die Massenproduktion autonomer Waffen diese unweigerlich auch für nichtstaatliche und terroristische Organisationen zugänglich machen.

Derzeit diskutiert die UN die Möglichkeit, solche Waffen aus ethischen und anderen Gründen einzuschränken oder sogar zu verbieten. Der Prozess verläuft jedoch so langsam, dass bereits vor der oben genannten Entscheidung mehr als eine Armee auf der Welt über Waffen mit KI verfügen könnte.

2 Kommentare
Informationen
Sehr geehrter Leser, um Kommentare zu der Veröffentlichung zu hinterlassen, müssen Sie Genehmigung.
  1. vor
    -2
    15 Dezember 2023 11: 31
    Die Arbeit machte aus einem Affen einen Mann.
    Künstliche Intelligenz wird einen Menschen in einen Affen verwandeln.
  2. TUN
    0
    15 Dezember 2023 19: 03
    Der Hauptvorteil autonomer Drohnen gegenüber bedienergesteuerten Drohnen besteht darin, dass sie Kampfeinsätze ohne externe Steuerung und ohne das GLONASS-Positionierungssystem durchführen können, daher:
    - können in einer Tiefe von Hunderten von Kilometern hinter den feindlichen Linien operieren, wo es schwierig oder unmöglich ist, Funkkanäle für ihre Bedienersteuerung zu organisieren;
    - unverwundbar gegenüber feindlichen Funkstörmitteln.

    das Risiko, dass ein solches System von Hackern gehackt wird

    ist Teil des Risikos der Verfügbarkeit autonomer Waffen

    für nichtstaatliche und terroristische Organisationen

    Denn der illegale Einsatz autonomer Waffen erfordert die Überwindung organisatorischer und/oder technischer Systeme zum Schutz vor unbefugtem Zugriff, zur Programmierung und Aktivierung autonomer Drohnen.