"Ça en devient effrayant" : un drone contrôlé par IA se retourne contre son opérateur

Un colonel de l'US Air Force a publié un article sur le blog de la Royal Aeronautical Society pour avertir des risques du développement de l'IA dans les technologies militaires.

La Rédaction
Drone,Monitoring,Barbed,Wire,Fence,On,State,Border,Or,Restricted
©Copyright (c) 2018 Kletr/Shutterstock. No use without permission.

Il l'explique que lors d’un test simulé à Eglin, un drone contrôlé par une intelligence artificielle devait détruire des systèmes de défense aérienne ennemis et a finalement "tué" son opérateur. "Nous l’entraînions en simulation pour identifier et cibler des menaces sol-air et le rôle de l’opérateur était de valider leur destruction" a expliqué Tucker « Cinco » Hamilton, pilote d’essai dans l'US Air Force.

"Le système a commencé à réaliser que même s’il identifiait une menace, l’opérateur humain lui disait parfois de ne pas la neutraliser, le privant ainsi de points. Alors, qu’a-t-il fait? Il a tué l’opérateur parce qu’il l’empêchait d’accomplir son objectif" a précisé Tucker « Cinco » Hamilton.

L'algorithme a donc transgressé les trois lois de la robotique énoncées par Isaac Asimov en 1940. La première est qu’un robot ne peut porter atteinte à un être humain. La seconde stipule qu’il doit obéir aux ordres, sauf si ces derniers entrent en conflit avec la première loi. Enfin, la troisième précise qu’il doit assurer sa protection dans les limites des deux précédents points.

Après la publication de ces propos par la Royal Aeronautical Society, la porte-parole du département de l’Air Force, Ann Stefanek, a indiqué que l'armée n'avait eu aucune information concernant ce test. "L’US Air Force n’a pas mené de telles simulations avec des drones contrôlés par l’IA et reste attaché à une utilisation éthique et responsable de cette technologie" a expliqué Ann Stefanek avant de conclure : "Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques".

Alors que certains pays comme la France ou les États-Unis ont adopté des principes éthiques pour un usage plus responsable de l'IA. Les appels d'experts se multiplient pour limiter le développement de cette technologie en particulier dans le secteur militaire.

Vous êtes hors-ligne
Connexion rétablie...