Publicado el
La inteligencia artificial ya no es una promesa futurista en los campos de batalla. Drones y robots con capacidad de decidir sobre la vida o la muerte están en marcha, y organizaciones como la ONU y Human Rights Watch exigen una regulación urgente para evitar que la guerra escape por completo del control humano.
Crece la presión global para prohibir las armas letales autónomas

Cada clic que hacemos, cada cookie que aceptamos, deja un rastro. En un mundo cada vez más interconectado, nuestros datos personales nutren algoritmos que deciden qué compramos, qué leemos y hasta cómo nos desplazamos. Pero ahora, esos mismos datos podrían alimentar máquinas con capacidad para seleccionar y eliminar objetivos humanos sin intervención humana.

Según alerta la Oficina de Asuntos de Desarme de las Naciones Unidas, los sistemas de armas letales autónomas (LAWS, por sus siglas en inglés) representan un peligro inminente para la humanidad. Estos dispositivos, controlados por inteligencia artificial, ya están siendo utilizados de forma experimental en zonas de conflicto, lo que ha encendido las alarmas de instituciones y ONG que advierten de las consecuencias éticas, legales y sociales de delegar en las máquinas decisiones de vida o muerte.

“El uso de tecnologías que permitan a una máquina decidir cuándo matar a una persona es moralmente inaceptable”, ha reiterado Izumi Nakamitsu, alta representante de la ONU para Asuntos de Desarme. “Debe prohibirse a través del derecho internacional”, subrayó durante las recientes conversaciones informales celebradas en la sede de la ONU en Nueva York.

La preocupación no es nueva. Desde 2014, la ONU ha promovido debates diplomáticos para abordar esta cuestión, pero once años después, ni siquiera existe un consenso internacional sobre la definición exacta de arma autónoma. No obstante, el ritmo acelerado del desarrollo tecnológico ha colocado esta amenaza en el centro de la agenda global.

La ONG Human Rights Watch ha sido especialmente contundente. Según Mary Wareham, directora de incidencia en su División de Armas, “la proliferación de estos sistemas representa la forma más extrema de deshumanización digital”. Y añade: “No hablamos solo de drones o robots militares, sino de un cambio de paradigma: máquinas que toman decisiones sin supervisión humana, con los mismos sesgos que arrastran sus programadores”.

Entre las preocupaciones señaladas por Wareham se encuentran los fallos en el reconocimiento de personas con discapacidades o con determinados tonos de piel, así como la dificultad de establecer responsabilidades legales en caso de errores o crímenes de guerra. “¿Quién responde si una máquina comete una masacre? ¿El desarrollador, el fabricante, el ejército que la desplegó? Hoy no hay una respuesta clara”, advierte.

En paralelo, la coalición internacional Stop Killer Robots (Detengan a los robots asesinos) también ha intensificado su campaña por una legislación vinculante. Su directora ejecutiva, Nicole Van Rooijen, sostiene que el mundo está a tiempo de evitar un futuro donde los conflictos armados estén dominados por algoritmos: “El vacío legal actual permite que los avances tecnológicos se impongan al debate ético. Necesitamos valentía política para legislar antes de que sea demasiado tarde”.

La ONU ha planteado como objetivo alcanzar un acuerdo internacional para 2026. Aunque aún no se ha comenzado a redactar un tratado definitivo, el presidente de la actual Convención sobre Ciertas Armas Convencionales ha presentado un borrador de trabajo que podría servir de base para las futuras negociaciones.

“Ya hay más de 120 países que apoyan la idea de una nueva legislación internacional que regule estas tecnologías”, confirma Wareham. “Y no solo son gobiernos: la comunidad científica, líderes religiosos y premios Nobel de la Paz también se han sumado al llamamiento”.

Desde Naciones Unidas insisten en que la regulación de estas armas no puede esperar más. “Los sistemas autónomos no deben tener el poder de decidir sobre la muerte de una persona”, remarca Nakamitsu. “Cuando se trata de la guerra, alguien debe rendir cuentas”.

En este artículo se habla de:
Noticiasderechos humanosactualidadguerras

¡Comparte este contenido en redes!

Este sitio utiliza cookies de terceros para medir y mejorar su experiencia.
Tu decides si las aceptas o rechazas:
Más información sobre Cookies