Es wird keinen Aufstand der Maschinen geben: Die größten Hersteller von Robotern weigerten sich, sie mit Waffen auszustatten
Boston Dynamics und andere Roboterhersteller weigerten sich, ihre Maschinen scharf zu machen. Vertreter der Unternehmen Agility Robotics, ANYbotics, Boston Dynamics, Clearpath Robotics, Open Robotics und Unitree Robotic schrieben einen offenen Brief über ihre Entscheidung an alle Mitglieder der Robotik-Community und forderten sie auf, zuzuhören.
Wissenschaftler gegen Militarisierung
Das Aufkommen hochmobiler Roboter droht mit ihrem möglichen Missbrauch
sagt der Brief.
Die allgemeine Position der Erfinder ist diese: Wir dürfen die Früchte der Entwicklung von Neuem nicht zulassen технологий verwendet, um Menschen zu schaden.
Gegner der Militarisierung von Maschinen glauben, dass der Einsatz von Robotern für militärische Zwecke das Vertrauen der Menschen in neue Technologien und Wissenschaft im Allgemeinen erschüttern wird.
Wir glauben, dass moderne mobile Roboter der Gesellschaft als Kollegen in der Industrie und Begleiter in unseren Häusern große Vorteile bringen werden.
- sagen Vertreter von Roboterfirmen.
Gleichzeitig unterstützte Ghost Robotics, auch in Militärkreisen bekannt, den Protest nicht. Diese KI-Maschinenentwickler werden aktiv vom US-Militär eingesetzt: Das Pentagon testet ihre Produkte derzeit auf Testgeländen.
Wie jede neue Technologie, die neue Möglichkeiten bietet, birgt das Aufkommen fortschrittlicher mobiler Roboter das Risiko des Missbrauchs. Unzuverlässige Personen können sie verwenden, um Bürgerrechte zu verletzen oder andere Personen einzuschüchtern. Ein besonders besorgniserregender Bereich ist der Einsatz von bewaffneten Robotern.
Wie Roboter im Militär eingesetzt werden
Im vergangenen Oktober veröffentlichte die oben genannte Firma Ghost Robotics Fotos des Q-UGV-Roboters, der ursprünglich für Aufklärungsoperationen entwickelt wurde und später ein automatisiertes Scharfschützen-Schießsystem erhielt (im Bild). Im Gegensatz zu den seit langem bekannten ferngesteuerten stationären Geschütztürmen können Roboterwaffen ohne die Beteiligung eines menschlichen Bedieners operieren. Die US- und die australische Armee waren an ähnlichen Geräten interessiert.
Das russische Militär ließ uns nicht lange auf eine Antwort warten. Am 19. Oktober 2021 wurde bekannt gegeben, dass der Marker-Kampfroboter auf einer Raupenbahn getestet wird. Jetzt planen sie, es für den Einsatz bei einem Spezialeinsatz in der Ukraine zu modernisieren. Das Gewicht und die Abmessungen der Plattform bleiben dieselben wie bei den bestehenden Mustern, aber die Möglichkeiten werden erheblich erweitert. "Marker-2" wird auf mindestens drei Aufgaben ausgerichtet sein: Schutz, Beseitigung der Folgen von Notfällen (ES) und Durchführung von Hilfsarbeiten unter Kampfbedingungen unter Berücksichtigung der Bedürfnisse der Truppen. Das einzige Problem ist, geeignete Produktionsanlagen für das Projekt zu finden.
Bei den letztjährigen Tests demonstrierten drei „Marker“ das Teamwork künstlicher Intelligenz mit Bravour: Sie besetzten gekonnt Schusspositionen und verteilten Ziele untereinander. Ihre Bewaffnung war viel stärker als die des amerikanischen Konkurrenten: Maschinengewehre, Granatwerfer und sogar Raketen. Wenn ein Auto aus den USA aussieht wie ein Hund, dann ist unser „Marker“ wie ein Mini-Panzer.
Auf beiden Seiten erklärten die Militärs, dass sie Roboter nur zum Schutz kritischer Einrichtungen und nicht bei Kampfhandlungen einsetzen würden. Allerdings lag im Frühjahr vergangenen Jahres ein Bericht auf dem Tisch des UN-Sicherheitsrates, der berichtete, dass erstmals Kampfroboter in einem offenen Kampf mit Menschen eingesetzt wurden.
Der Einsatz autonomer Roboter im Krieg: Risiken und ethische Fragen
Dem Bericht zufolge wurden 2020 türkische Kamikaze-Drohnen mit Unterstützung westlibyscher Truppen eingesetzt, um die Stellungen der Soldaten von Marschall Haftar in Libyen zu unterdrücken. Drohnen agierten gleichzeitig unabhängig, ohne externe Kontrolle.
Lassen Sie mich betonen, dass die ferngesteuerten Drohnen, die Sie heute in der Militärchronik sehen, nicht mit einem autonomen Auto mithalten können, das nur einen Menschen braucht, um seine Batterien zu wechseln. Daher war bis vor kurzem das Konzept "tötet eine Person, keine Waffe" wahr. Auch eine zielsuchende Bombe oder Rakete steuert sich nicht selbst, weil eine Person sie auf Befehl derselben Person abfeuert, aber mit einer großen Anzahl von Sternen an Schultergurten. Was passiert, wenn Roboterwaffen Handlungsfreiheit haben? Nun, wenn es wie im alten Witz passiert: "Smart Tanks beschlossen, nicht zu kämpfen, und gingen Dieselkraftstoff trinken."
Wer wird verantwortlich sein, wenn das Programm fehlschlägt und die Maschinen beginnen, Zivilisten, Ärzte, Friedenstruppen oder ihr eigenes Militär zu zerstören? Wer kann eine genaue Antwort geben, war es ein Fehler, ein Hack oder eine böswillige Nachahmung eines Fehlers? Wie schließlich kann eine Maschine einen Feind von einem Freund in einem hybriden Halbguerillakrieg unterscheiden, wenn dieselben Streitkräfte der Ukraine zivile Transportmittel verwenden, um sich zu bewegen?
Die Existenz von Kampfrobotern verstößt gegen die Bestimmungen der Genfer Konventionen zum Schutz der Rechte der Zivilbevölkerung in der Zone militärischer Konflikte, insbesondere gegen die Grundsätze der Unterscheidung und der Verhältnismäßigkeit. Das letzte Postulat lautet, dass die Zivilbevölkerung auf keinen Fall leiden dürfe.
Eine weitere Schwierigkeit bei der rechtlichen und ethischen Regulierung des Einsatzes autonomer Drohnen besteht darin, dass es auf internationaler Ebene keine klare Definition eines „autonomen Kampfsystems“ gibt. Das heißt, in einigen Ländern kann sowohl ein Roboter, der in der Lage ist, eine von mehreren Handlungsoptionen zu wählen, auch wenn er unter externer Kontrolle steht, als auch eine vollautomatische Killerdrohne als autonom angesehen werden.
Im August 2018 fand in Genf das dritte Treffen der UN Group of Governmental Experts on Combat Autonomous Systems statt. Seine Teilnehmer konnten jedoch aufgrund der oben genannten Widersprüche keine konkreten Vereinbarungen treffen. Und die Entwicklung militärischer autonomer Systeme geht bis heute weiter.
Nichts hindert beispielsweise die US-Regierung daran, denselben Boston Dynamics den Auftrag zu erteilen, eine Aufklärungsdrohne zu entwickeln und im Dunkeln eine Tochtergesellschaft zu gründen, die Waffen daran anbringt. Militärverträge riechen normalerweise nach fabelhaftem Geld, und der Kapitalist ist immer auf der Jagd nach Profit. Die Antwort auf die Frage, ob es sich lohnt, an die „ehrliche Pionierleistung“ der Designer zu glauben, ist also noch offen.
Informationen