Un mundo en el que los algoritmos determinen el destino de soldados y civiles por igual ya no es hipotético. Los drones impulsados por inteligencia artificial están transformando la guerra, planteando profundas cuestiones éticas sobre la autonomía en combate. Mientras los legisladores internacionales se apresuran a establecer las reglas básicas, la carrera por controlar esta tecnología en rápida evolución ha comenzado.
Cada día, cedemos voluntariamente información sobre nosotros a las máquinas. Esto sucede cuando aceptamos una cookie en línea o utilizamos un motor de búsqueda. Apenas pensamos en cómo se venden y utilizan nuestros datos antes de pulsar en “aceptar” para llegar a la página que deseamos, vagamente conscientes de que se utilizarán para dirigirnos como consumidores y convencernos de comprar algo que no sabíamos que necesitábamos.
Pero ¿qué pasaría si las máquinas usaran los datos para decidir a quién atacar como enemigos que deben ser eliminados? La ONU y un grupo de organizaciones no gubernamentales temen que este escenario esté cerca de hacerse realidad. Exigen una regulación internacional de las Armas Letales Autónomas (LAWS) para evitar un futuro próximo en el que las máquinas dicten decisiones de vida o muerte.
La creciente “deshumanización digital”
Por devastadora que pudiera sonar esta forma moderna de guerra, el creciente espectro de los drones u otras armas autónomas añade nueva urgencia a la preocupación constante por los “robots asesinos” que siembran la muerte desde el cielo y deciden por sí mismos a quién atacar.
“El Secretario General siempre ha dicho que usar máquinas con poderes totalmente delegados para tomar la decisión de quitar una vida humana es simplemente repugnante desde el punto de vista moral”, afirma Izumi Nakamitsu, directora de la Oficina de Asuntos de Desarme de la ONU. “No debería permitirse. De hecho, debería estar prohibido por el derecho internacional. Esa es la postura de las Naciones Unidas”.
Human Rights Watch, una ONG internacional, ha afirmado que el uso de armas autónomas será el ejemplo más reciente y grave de la creciente “deshumanización digital”, mediante la cual la inteligencia artificial toma numerosas decisiones que alteran la vida de las personas, como la vigilancia policial, la aplicación de la ley y el control fronterizo.
“Varios países con importantes recursos están invirtiendo fuertemente en inteligencia artificial y tecnologías relacionadas para desarrollar sistemas de armas autónomas terrestres y marítimas. Esto es un hecho”, advierte Mary Wareham, directora de incidencia de la División de Armas de Human Rights Watch.
“Esta iniciativa está impulsada por Estados Unidos, pero otros países importantes como Rusia, China, Israel y Corea del Sur también han invertido fuertemente en sistemas de armas autónomas”, detalla.
Quienes defienden la guerra impulsada por la inteligencia artificial suelen señalar las limitaciones humanas para justificar su expansión. Los soldados pueden cometer errores de juicio, actuar según sus emociones, necesitar descanso y, por supuesto, exigir salarios, mientras que las máquinas -argumentan-, mejoran cada día en la identificación de amenazas basándose en patrones de comportamiento y movimiento. El siguiente paso, sugieren algunos defensores, es permitir que los sistemas autónomos decidan cuándo apretar el gatillo.
Dos objeciones
Existen dos objeciones principales para permitir que las máquinas tomen el control del campo de batalla: en primer lugar, la tecnología dista mucho de ser infalible.
En segundo lugar, la ONU y muchas otras organizaciones consideran que el uso de sistemas letales de armas autónomas es poco ético.
“Es muy fácil que las máquinas confunden objetivos humanos”, afirma Wareham, de Human Rights Watch. “Las personas con discapacidad corren un riesgo especial debido a su forma de moverse. Sus sillas de ruedas pueden confundirse con armas. También preocupa que la tecnología de reconocimiento facial y otras mediciones biométricas no puedan identificar correctamente a personas con diferentes tonos de piel. La inteligencia artificial sigue presentando deficiencias y conlleva los sesgos de quienes programaron esos sistemas”, añade.
En cuanto a las objeciones éticas y morales, Nicole Van Rooijen, directora ejecutiva de Stop Killer Robots (Detengan a los robots asesinos), una coalición que promueve una nueva ley internacional sobre la autonomía de los sistemas de armas, afirma que dificultarían enormemente la determinación de responsabilidades por crímenes de guerra y otras atrocidades.
“¿Quién es responsable? ¿El fabricante? ¿O la persona que programó el algoritmo? Esto plantea toda una serie de cuestiones y sería una falla moral que se usaran ampliamente”, apunta.
¿Una prohibición para 2026?
La velocidad a la que avanza la tecnología y la evidencia de que los sistemas de selección de blancos basados en inteligencia artificial ya se utilizan en el campo de batalla acentúan la urgencia de los llamamientos a establecer normas internacionales para esta tecnología.
En mayo de este año, se celebraron conversaciones informales en la sede de la ONU, en las que Secretario General António Guterres instó a los Estados miembros a alcanzar un acuerdo jurídicamente vinculante para regular y prohibir su uso para 2026.
Los intentos de regular y prohibir los sistemas letales de armas autónomas no son nuevos. La ONU celebró la primera reunión de diplomáticos en 2014, en el Palacio de las Naciones de Ginebra, donde el presidente de las conversaciones de expertos, el embajador Jean-Hugues Simon-Michel, de Francia, describió los sistemas letales de armas autónomas como “un tema emergente y desafiante en la agenda de desarme en este momento”, a pesar de que para entonces no se utilizaban sistemas de armas autónomas en conflictos.
En ese momento, se consideraba que se necesitaban medidas preventivas para establecer normas en caso de que la tecnología convirtiera los sistemas letales de armas autónomas en una realidad.
Once años después, las conversaciones continúan, pero aún no hay consenso sobre la definición de armas autónomas, y mucho menos sobre una regulación acordada para su uso. No obstante, las ONG y la ONU se muestran optimistas respecto a que la comunidad internacional avanza lentamente hacia un entendimiento común sobre cuestiones clave.
“Todavía no estamos cerca de negociar un texto”, señala Rouijen, de Stop Killer Robots. “Sin embargo, el actual presidente de la Convención sobre Ciertas Armas Convencionales (un instrumento de derecho humanitario de la ONU para prohibir o restringir el uso de tipos específicos de armas que se considera que causan sufrimiento innecesario o injustificable a los combatientes o que afectan indiscriminadamente a la población civil) ha presentado un borrador de trabajo bastante prometedor que, si existe voluntad y valentía políticas, podría sentar las bases de las negociaciones”.
Wareham, de Human Rights Watch, también considera las conversaciones de mayo en la ONU como un importante paso adelante. “Al menos 120 países apoyan plenamente el llamamiento para negociar una nueva ley internacional sobre sistemas de armas autónomas. Vemos mucho interés y apoyo, incluso de laureados con la paz, expertos en inteligencia artificial, profesionales del sector tecnológico y líderes religiosos”, destaca.
“Existe un consenso creciente de que los sistemas de armas totalmente autónomos deberían prohibirse”, asevera Nakamitsu, de la Oficina de Asuntos de Desarme de las Naciones Unidas. “En lo que respecta a la guerra, alguien debe rendir cuentas”.
Source of original article: United Nations (news.un.org). Photo credit: UN. The content of this article does not necessarily reflect the views or opinion of Global Diaspora News (www.globaldiasporanews.net).
To submit your press release: (https://www.globaldiasporanews.com/pr).
To advertise on Global Diaspora News: (www.globaldiasporanews.com/ads).
Sign up to Global Diaspora News newsletter (https://www.globaldiasporanews.com/newsletter/) to start receiving updates and opportunities directly in your email inbox for free.