Chaque jour, nous communiquons volontairement des informations nous concernant à des machines. C’est le cas lorsque nous acceptons un cookie en ligne ou utilisons un moteur de recherche. Nous réfléchissons à peine à la manière dont nos données sont vendues et utilisées avant de cliquer sur « accepter » pour accéder à la page souhaitée, vaguement conscients qu’elles seront utilisées pour nous cibler en tant que consommateurs et nous convaincre d’acheter quelque chose dont nous ignorions avoir besoin.
Mais que se passerait-il si les machines utilisaient ces données pour décider qui cibler comme ennemis à éliminer ?
L’ONU et un groupe d’organisations non gouvernementales craignent que ce scénario ne devienne réalité. Elles appellent à une réglementation internationale des armes létales autonomes afin d’éviter un avenir proche où les machines dicteraient des choix de vie ou de mort.
Guerre de drones en Ukraine
Depuis plusieurs mois, la région de Kherson, en Ukraine, subit des attaques soutenues de drones armés exploités par l’armée russe, ciblant principalement des non-combattants. Plus de 150 civils ont été tués et des centaines blessés, selon des sources officielles. Une enquête indépendante sur les droits de l’homme, mandatée par l’ONU, a conclu que ces attaques constituent des crimes contre l’humanité.
L’armée ukrainienne est également fortement dépendante des drones et serait en train de développer un « mur de drones » – une ligne défensive de véhicules aériens sans pilote (UAV) armés – pour protéger les zones vulnérables aux frontières du pays.
Autrefois chasse gardée des nations les plus riches, capables de s’offrir les drones les plus sophistiqués et les plus coûteux, l’Ukraine a prouvé qu’avec un peu d’ingéniosité, des drones bon marché peuvent être transformés en drones meurtriers. Alors que les conflits à travers le monde reflètent cette évolution, la nature du combat moderne est en train d’être réécrite.
Des civils de Kharkiv ont été touchés par des centaines d’attaques de drones russes (photo d’archives).
Une « déshumanisation numérique » rampante
Mais, aussi dévastatrice que puisse être cette forme de guerre moderne, le spectre croissant des drones sans pilote ou autres armes autonomes ajoute une urgence supplémentaire aux inquiétudes persistantes concernant des « robots tueurs » faisant pleuvoir la mort du ciel, décidant eux-mêmes qui attaquer.
« Le Secrétaire général a toujours affirmé qu’utiliser des machines dotées de pouvoirs entièrement délégués pour prendre la décision d’ôter la vie humaine est tout simplement moralement répugnant », déclare Izumi Nakamitsu, cheffe du Bureau des affaires de désarmement des Nations Unies. « Cela ne devrait pas être autorisé. Cela devrait même être interdit par le droit international. Telle est la position des Nations Unies ».
Human Rights Watch, une ONG internationale, a déclaré que l’utilisation d’armes autonomes constituerait le dernier exemple, et le plus grave, de « déshumanisation numérique » croissante, où l’IA prendrait une multitude de décisions qui bouleverseraient la vie des êtres humains, notamment en matière de maintien de l’ordre et de contrôle des frontières.
« Plusieurs pays disposant de ressources importantes investissent massivement dans l’intelligence artificielle et les technologies connexes pour développer des systèmes d’armes autonomes terrestres et maritimes. C’est un fait », prévient Mary Wareham, directrice du plaidoyer de la division Armes de Human Rights Watch. « Ce sont les États-Unis qui sont à l’origine de ce phénomène, mais d’autres grands pays comme la Russie, la Chine, Israël et la Corée du Sud ont également investi massivement dans les systèmes d’armes autonomes ».
Les partisans de la guerre pilotée par l’IA invoquent souvent les limites humaines pour justifier son expansion. Les soldats peuvent commettre des erreurs de jugement, agir sous l’effet de leurs émotions, avoir besoin de repos et, bien sûr, exiger un salaire – tandis que les machines, affirment-ils, s’améliorent chaque jour dans l’identification des menaces en fonction de leurs comportements et de leurs mouvements. La prochaine étape, selon certains, consisterait à permettre aux systèmes autonomes de décider quand appuyer sur la gâchette.
Un drone en vol au dessus de l’Afghanistan
Il existe deux objections principales à l’idée de laisser les machines prendre le dessus sur le champ de bataille : premièrement, la technologie est loin d’être infaillible. Deuxièmement, l’ONU et de nombreuses autres organisations considèrent l’utilisation des armes létales autonomes comme contraire à l’éthique.
« Il est très facile pour les machines de confondre des cibles humaines », explique Mme Wareham de Human Rights Watch. « Les personnes handicapées sont particulièrement exposées en raison de leur mode de déplacement. Leurs fauteuils roulants peuvent être pris pour des armes. On craint également que la technologie de reconnaissance faciale et d’autres mesures biométriques ne soient pas capables d’identifier correctement les personnes ayant des couleurs de peau différentes. L’IA présente encore des failles et elle s’accompagne des préjugés des personnes qui ont programmé ces systèmes ».
Quant aux objections éthiques et morales, Nicole Van Rooijen, directrice exécutive de Stop Killer Robots, une coalition qui milite pour une nouvelle loi internationale sur l’autonomie des systèmes d’armes, affirme qu’elles rendraient très difficile l’établissement des responsabilités pour les crimes de guerre et autres atrocités.
« Qui est responsable ? Le fabricant ? Ou la personne qui a programmé l’algorithme ? Cela soulève toute une série de questions et de préoccupations, et leur utilisation généralisée constituerait un échec moral ».
Interdiction d’ici 2026 ?
La rapidité avec laquelle la technologie progresse et les preuves que des systèmes de ciblage basés sur l’IA sont déjà utilisés sur le champ de bataille renforcent l’urgence des appels à l’instauration de règles internationales pour cette technologie.
En mai, des discussions informelles ont eu lieu au siège de l’ONU, au cours desquelles M. Guterres a appelé les États membres à conclure un accord juridiquement contraignant pour réglementer et interdire leur utilisation d’ici 2026.
Les tentatives de réglementation et d’interdiction des armes létales autonomes ne sont pas nouvelles. En fait, l’ONU a tenu la première réunion diplomatique en 2014, au Palais des Nations à Genève. Le président des discussions d’experts de quatre jours, l’ambassadeur français Jean-Hugues Simon-Michel, y a décrit les armes létales autonomes comme « une question émergente et difficile à l’ordre du jour du désarmement », même si aucun système d’armes autonomes n’était alors utilisé dans les conflits. On estimait alors qu’une action préventive était nécessaire pour mettre en place des règles au cas où la technologie permettrait de concrétiser les armes létales autonomes.
Onze ans plus tard, les discussions se poursuivent, mais il n’existe toujours pas de consensus sur la définition des armes autonomes, et encore moins sur la réglementation de leur utilisation. Néanmoins, les ONG et l’ONU sont optimistes quant à l’avancée progressive de la communauté internationale vers une compréhension commune sur les questions clés.
« Nous sommes loin d’avoir négocié un texte », déclare Mme Rouijen de Stop Killer Robots. Cependant, l’actuel président de la Convention sur certaines armes classiques (un instrument de droit humanitaire des Nations Unies visant à interdire ou à restreindre l’utilisation de certains types d’armes considérées comme causant des souffrances inutiles ou injustifiables aux combattants ou affectant les civils sans discrimination) a présenté un texte prometteur qui, avec la volonté et le courage politiques nécessaires, pourrait servir de base aux négociations.
Mme Wareham, de Human Rights Watch, considère également les discussions de mai à l’ONU comme une avancée importante. « Au moins 120 pays adhèrent pleinement à l’appel à négocier une nouvelle loi internationale sur les systèmes d’armes autonomes. Nous constatons un vif intérêt et un fort soutien, notamment de la part des lauréats de la paix, des experts en IA, des professionnels du secteur technologique et des chefs religieux ».
« Un consensus se dessine sur l’interdiction des systèmes d’armes totalement autonomes », déclare Mme Nakamitsu, du Bureau des affaires de désarmement des Nations Unies. « En matière de guerre, il faut que quelqu’un rende des comptes ».
Source of original article: United Nations (news.un.org). Photo credit: UN. The content of this article does not necessarily reflect the views or opinion of Global Diaspora News (www.globaldiasporanews.com).
To submit your press release: (https://www.globaldiasporanews.com/pr).
To advertise on Global Diaspora News: (www.globaldiasporanews.com/ads).
Sign up to Global Diaspora News newsletter (https://www.globaldiasporanews.com/newsletter/) to start receiving updates and opportunities directly in your email inbox for free.