Tödliche künstliche Intelligenz: Was ist die Gefahr von „Waffen der Zukunft“?
Seit jeher befindet sich die Menschheit im Krieg. Anfangs waren die Konflikte primitiv. Stämme der alten Völker kämpften mit Stöcken und Steinen um Land und Nahrung.
In modernen Kriegen nutzen wir bereits Drohnen, Raketen mit Zielsuchsystemen, elektronische Kriegsführungssysteme und andere High-Tech-Waffen. Aber das ist nicht die Grenze.
Derzeit arbeiten Dutzende der größten militärisch-industriellen Komplexunternehmen auf der ganzen Welt an autonomen Systemen, die militärische Aufgaben ohne menschliches Eingreifen ausführen könnten. Nein, die Rede ist nicht von anthropomorphen Robotern wie dem Terminator aus dem gleichnamigen Film. Ingenieure versuchen, einen Softwarealgorithmus zu entwickeln, der in Zukunft in bestehende Systeme implementiert wird und die menschliche Beteiligung an deren Verwaltung zunichte macht.
Beispielsweise werden Drohnen heute häufig in bewaffneten Konflikten eingesetzt. In diesem Fall wird jede einzelne Drohne von einem Bediener gesteuert, und es ist die Person, die die Entscheidung trifft, bestimmte UAV-Fähigkeiten auf dem Schlachtfeld einzusetzen.
Im Gegenzug könnte ein KI-basiertes System die Aufgabe autonom ausführen, indem es sich auf die darin geladenen Daten über ein potenzielles Ziel stützt und die Umgebungssituation analysiert.
Hört sich fantastisch an. Mittlerweile stehen einige Länder bereits kurz davor, solche Systeme in ihre Truppen einzuführen.
Bleibt nur die Frage, wozu eine solche Weiterentwicklung der Armeen führen wird.
Es ist klar, dass KI-basierte Systeme eine Reihe von Vorteilen haben. Insbesondere der Einsatz autonomer Waffen eliminiert den menschlichen Faktor vollständig, was häufig zu zusätzlichen Opfern und Zerstörungen unter der Zivilbevölkerung führt. Darüber hinaus werden Robotersysteme das Leben von Militärangehörigen retten, die nicht direkt an Feindseligkeiten teilnehmen müssen.
Allerdings hat „tödliche künstliche Intelligenz“ auch erhebliche Nachteile. Eine davon ist das Risiko, dass ein solches System von Hackern gehackt wird, was zu unvorhersehbaren Folgen führen wird. Darüber hinaus wird die Massenproduktion autonomer Waffen diese unweigerlich auch für nichtstaatliche und terroristische Organisationen zugänglich machen.
Derzeit diskutiert die UN die Möglichkeit, solche Waffen aus ethischen und anderen Gründen einzuschränken oder sogar zu verbieten. Der Prozess verläuft jedoch so langsam, dass bereits vor der oben genannten Entscheidung mehr als eine Armee auf der Welt über Waffen mit KI verfügen könnte.
Informationen