Lors d'une simulation, un drone se retourne contre son opérateur

  • l’année dernière
Lors d'une simulation, un drone se retourne contre son opérateur.
Un colonel de l'US Air Force a publié un article sur le blog de la Royal Aeronautical Society pour avertir des risques du développement de l'IA dans les technologies militaires.
Il l'explique que lors d’un test simulé à Eglin, un drone contrôlé par une intelligence artificielle devait détruire des systèmes de défense aérienne ennemis et a finalement "tué" son opérateur.
Nous l’entraînions en simulation pour identifier et cibler des menaces sol-air et le rôle de l’opérateur était de valider leur destruction, Tucker « Cinco » Hamilton, pilote d’essai, US Air Force.
Le système a commencé à réaliser que même s’il identifiait une menace, l’opérateur humain lui disait parfois de ne pas la neutraliser,
le privant ainsi de points, Tucker « Cinco » Hamilton, pilote d’essai, US Air Force.
Alors, qu’a-t-il fait? Il a tué l’opérateur parce qu’il l’empêchait d’accomplir son objectif, Tucker « Cinco » Hamilton, pilote d’essai, US Air Force.
L'algorithme a donc transgressé les trois lois de la robotique énoncées par Isaac Asimov en 1940.
La première est qu’un robot ne peut porter atteinte à un être humain.
La seconde stipule qu’il doit obéir aux ordres, sauf si ces derniers entrent en conflit avec la première loi.
Enfin, la troisième précise qu’il doit assurer sa protection dans les limites des deux précédents points.
Après la publication de ces propos par la Royal Aeronautical Society, la porte-parole du département de l’Air Force,
Ann Stefanek, a indiqué que l'armée n'avait eu
aucune information concernant ce test.
L’US Air Force n’a pas mené de telles simulations avec des drones contrôlés par l’IA et reste attaché à une utilisation éthique et
responsable de cette technologie, Ann Stefanek, porte-parole du département de l’Air Force.
Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques, Ann Stefanek, porte-parole du département de l’Air Force.
Alors que certains pays comme la France ou les Etats-Unis ont adopté des principes éthiques pour un usage plus responsable de l'IA.
Les appels d'experts se multiplient pour limiter le développement de cette technologie en particulier
dans le secteur militaire
Transcript
00:00 [Musique]
00:02 [Musique]
00:05 [Musique]
00:08 [Musique]
00:11 [Musique]
00:14 [Musique]
00:20 [Musique]
00:26 [Musique]
00:32 [Musique]
00:39 [Musique]
00:42 [Musique]
00:48 [Musique]
00:54 [Musique]
01:00 [Musique]
01:07 [Musique]
01:10 [Musique]
01:16 [Musique]
01:22 [Musique]
01:34 [Musique]
01:37 [Musique]
01:44 [Musique]
01:51 [Musique]
01:57 ♪ ♪ ♪

Recommandée