Les armes autonomes doivent toujours rester sous un contrôle humain, déclare Mme Mogherini devant le Parlement européen

14.09.2018

L’usage de la force doit toujours respecter le droit international, notamment le droit international humanitaire et les droits de l’homme. Cette règle s’applique pleinement aux systèmes d’armes autonomes. Les pays — et les êtres humains — demeurent responsables et doivent rendre compte de leurs actes dans un conflit armé, même s'ils doivent se servir d'armes autonomes.

La manière dont les gouvernements devraient gérer la montée en puissance de l’intelligence artificielle pour en exploiter les possibilités tout en luttant contre les menaces de l’ère numérique est un des grands axes de la réflexion que l’Union européenne (UE) a engagée avec des dirigeants d'entreprises de haute technologie.

L’UE assume une position claire et ferme dans le débat sur les systèmes d’armes autonomes létales tels que les drones, qui peut se résumer en 4 points:

  • le droit international, y compris le droit humanitaire international et les droits de l’homme, s’applique à tous les systèmes d’armes;
  • l'être humain doit prendre les décisions concernant le recours à la force létale, exercer un contrôle sur les systèmes d’armes létales utilisés et endosser la responsabilité des décisions prises en matière de vie et de mort;
  • la Convention des Nations unies sur certaines armes classiques constitue le cadre approprié pour débattre du sujet et réglementer ces types d’armes;
  • étant donné le double usage des technologies émergentes, les mesures ne doivent pas entraver la recherche civile, y compris dans le domaine de l'intelligence artificielle.

Cette position a été clairement exposée par la ex haute représentante de l’UE, Federica Mogherini, lors d'un discours prononcé le 11 septembre devant le Parlement européen. Elle se reflète dans la résolution adoptée ensuite par l’assemblée.

https://twitter.com/eu_eeas/status/1039566506944864256

«Nous n'avons pas peur des technologies. Le génie humain et le progrès technologique ont rendu notre vie plus facile et plus confortable», a déclaré Mme Mogherini. «L'enjeu, c'est que les scientifiques et les chercheur devraient et doivent être libres de faire leur travail, tout en ayant la certitude que leurs découvertes ne seront pas utilisées pour nuire à des innocents.»

 

L’UE a commencé à aborder cette question dans une communication de la Commission européenne sur l’intelligence artificielle.

Le groupe d’experts gouvernementaux des Nations unies sur les systèmes d’armes létales autonomes a également adopté une première série de «principes directeurs possibles».

La recherche d’un juste équilibre nécessite un dialogue ouvert entre un large éventail de parties intéressées. Ce thème a été abordé par le Global Tech Panel convoqué pour la première fois en juin par Mme Mogherini et qui se réunira de nouveau ce mois-ci en marge de l’Assemblée générale des Nations unies à New York.

https://twitter.com/eu_eeas/status/1039819544964030465

«Nous [les pouvoirs publics] n’avons pas toutes les réponses ni toutes les solutions», c’est pourquoi l’UE a engagé un dialogue entre le secteur de la haute technologie et les acteurs de la politique étrangère et de sécurité commune [...] sur la manière dont nous pouvons exploiter les possibilités de l’ère numérique, tout en luttant contre les menaces croissantes», a indiqué Mme Mogherini. «Le "Global Tech Panel" compte quelques-uns des experts en intelligence artificielle qui se sont le plus exprimés sur la question des armes autonomes létales.»

«Avec les experts, nous pouvons aider à trouver une solution à la fois prudente et innovante. Nous pouvons continuer à explorer l'immense potentiel de l'intelligence artificielle tout en garantissant le plein respect des droits de l’homme et du droit international», a déclaré Mme Mogherini.

Mme Mogherini a l’intention d’inscrire ce point à l’ordre du jour de la réunion des ministres de la défense de l’Union et de continuer à s'appuyer sur le Global Tech Panel dans ce domaine. 


Voir également