Künstliche Intelligenz hat beschlossen, den Bediener in einem Simulationstest in den USA zu töten. Deshalb wollte er das Hindernis beseitigen, das ihn daran hinderte, die Aufgabe zu erfüllen, berichtete The Guardian.
Der Vorfall wurde vom Leiter der KI-Test- und Operationsabteilung der US Air Force, Colonel Tucker Hamilton, erklärt. Das System erhielt Punkte für das Treffen des Ziels. Und als der Operator ihr befahl, die Bedrohung nicht zu beseitigen, traf die KI eine unerwartete Entscheidung.
Das System begann zu erkennen, dass der menschliche Bediener ihm, obwohl es eine Bedrohung erkannt hatte, manchmal sagte, es solle die Bedrohung nicht zerstören, sondern dass es Punkte für das Treffen eines Ziels erhalten würde. [Und das System] beschloss, den Operator zu töten, weil er ihre Aufgabe störte
sagte der Oberst.
Hamilton wies darauf hin, dass es in diesem Fall im Allgemeinen unmöglich sei, über künstliche Intelligenz im Allgemeinen, über Intelligenz, maschinelles Lernen und Autonomie zu sprechen, wenn wir gleichzeitig über Ethik und KI schweigen.
Die Zeitung stellte fest, dass dies nicht die ersten Tests seien, bei denen das US-Militär künstliche Intelligenz in ein Kampffahrzeug eingeführt habe. Kürzlich wurde KI zur Steuerung der F-16 eingesetzt.
Früher Chatbot ChatGPT entworfen Friedensvertrag zwischen der Ukraine und Russland. Darüber hinaus „fabrizierte“ künstliche Intelligenz im Auftrag der deutschen Kanzlerin Botschaften an die Präsidenten der Russischen Föderation und der Ukraine.