La incertidumbre legal y la creciente preocupación ponen en evidencia la urgente necesidad de regulación

  • Los gobiernos deberían abrir negociaciones para adoptar una nueva ley internacional sobre sistemas de armas autónomas letales, también conocidos como “robots asesinos”.
  • El derecho internacional existente no es adecuado para hacer frente a las amenazas urgentes que plantean estas armas y que varios países están desarrollando.
  • Los países deberían considerar opciones para hacer avanzar el proceso, incluyendo un proceso independiente o a través de la Asamblea General de las Naciones Unidas.

(Washington, DC, 1 de diciembre de 2021) – Los gobiernos deberían acordar la negociación de un nuevo tratado para mantener un control humano significativo sobre el uso de la fuerza, señaló Human Rights Watch en un informe publicado hoy. Los países se reunirán en las Naciones Unidas en Ginebra en diciembre de 2021 para decidir si se abren las negociaciones para adoptar una nueva ley internacional sobre los sistemas de armas autónomas letales, también conocidos como “robots asesinos”.

El informe de 23 páginas, “Crunch Time on Killer Robots: Why New Law Is Needed And How It Can Be Achieved” (“La hora de la verdad para los robots asesinos: por qué es necesaria una nueva ley y cómo puede lograrse”) elaborado por Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard, concluye que el derecho internacional debe reforzarse y aclararse para proteger a la humanidad de los peligros que plantean los sistemas de armas que seleccionan y atacan objetivos sin un control humano significativo.

“Después de ocho años debatiendo las consecuencias de largo alcance de la eliminación del control humano del uso de la fuerza, los países deben decidir ahora cómo responder a esas amenazas”, dijo Bonnie Docherty, investigadora principal de la División de Armas de Human Rights Watch y directora asociada de conflictos armados y protección civil en la Clínica Internacional de Derechos Humanos de Harvard. “Hay una necesidad urgente de un tratado específico que aborde las deficiencias del derecho internacional humanitario y actualizarlo para hacer frente a los desafíos legales, éticos y sociales de la inteligencia artificial y las tecnologías emergentes de hoy”.

La Sexta Conferencia de Revisión de la Convención sobre Armas Convencionales (CCW), que se celebrará del 13 al 17 de diciembre, es un momento importante para las conversaciones internacionales sobre los robots asesinos. En la última reunión de la CCW sobre robots asesinos, celebrada en septiembre, la mayoría de los países que intervinieron pidieron un nuevo instrumento jurídicamente vinculante sobre los sistemas de armas autónomas. Chile, México y Brasil instaron a los miembros del tratado a acordar el inicio de las negociaciones de una nueva legislación internacional. Otros defensores fueron los Estados del “Grupo de los Diez” (Argentina, Costa Rica, Ecuador, El Salvador, Palestina, Panamá, Perú, Filipinas, Sierra Leona y Uruguay) y los Estados del Movimiento de Países No Alineados.

Existen varios foros posibles para negociar un nuevo tratado sobre sistemas de armas autónomas. Aparte de la CCW, las opciones incluyen un proceso independiente, como el que se utilizó para los tratados de prohibición de las minas antipersona y las municiones en racimo, y la Asamblea General de las Naciones Unidas, donde se negoció el tratado de prohibición de las armas nucleares.

El derecho internacional humanitario existente no es adecuado para abordar los problemas que plantean los sistemas de armas autónomas, señalaron Human Rights Watch y la Clínica de Harvard. Existe un amplio apoyo a la elaboración de una nueva ley y cualquier divergencia de opiniones refuerza la necesidad de aclarar el derecho existente. Un nuevo tratado afrontaría los problemas que plantean estos sistemas de armas en el marco del derecho internacional humanitario, la ética, las normas internacionales de derechos humanos, la rendición de cuentas y la seguridad.

Un tratado de este tipo debería abarcar los sistemas de armas que seleccionan y atacan a los objetivos basándose en sensores, y no en personas. La mayoría de los defensores del tratado han pedido que se prohíban los sistemas de armas que, por su naturaleza, seleccionan y atacan objetivos sin un control humano significativo, como los sistemas complejos que utilizan algoritmos de aprendizaje automático que producen efectos imprevisibles o inexplicables.

Algunos países también han expresado su interés en prohibir los sistemas de armas que se basan en perfiles derivados de datos biométricos y de otro tipo recogidos por sensores para identificar, seleccionar y atacar a individuos o categorías de personas.

Muchos países proponen complementar estas prohibiciones con reglamentos que garanticen que todos los demás sistemas de armas autónomas solo se utilicen con un control humano significativo. Se entiende que el “control humano significativo” requiere que la tecnología sea comprensible, predecible y limitada en el espacio y el tiempo.

Parece poco probable que las negociaciones avancen en la CCW, dado que el organismo funciona por consenso y existe la oposición de un pequeño número de potencias militares, sobre todo India, Rusia y Estados Unidos, que consideran que el derecho internacional humanitario existente es suficiente para abordar cualquier problema que planteen estos sistemas de armas. Estos países y otros como Australia, China, Israel, Corea del Sur y Turquía están invirtiendo mucho en las aplicaciones militares de la inteligencia artificial y las tecnologías relacionadas para desarrollar sistemas de armas autónomas basadas en el aire, la tierra y el mar.

“Un proceso independiente para negociar una nueva ley sobre robots asesinos sería más eficaz e inclusivo que las actuales conversaciones diplomáticas y otras alternativas”, dijo Docherty. “Pero pasar a un proceso de vía rápida solo puede llevarse a cabo con el apoyo activo de los líderes políticos”.

Un amplio y creciente número de países, instituciones, empresas privadas y particulares han reiterado su deseo de prohibir los robots asesinos. En mayo, el Comité Internacional de la Cruz Roja instó a los países a negociar un tratado internacional para prohibir los sistemas de armas autónomas que son impredecibles o que apuntan a las personas, y establecer regulaciones para garantizar el control humano sobre otros sistemas. Desde 2018, el Secretario General de las Naciones Unidas, António Guterres, instó a los Estados a prohibir los sistemas de armas que puedan, por sí mismos, apuntar y atacar a los seres humanos, calificándolos de “moralmente repugnantes y políticamente inaceptables”.

Human Rights Watch es cofundadora de la Campaña para la Prohibición de Robots Asesinos, la coalición de más de 185 organizaciones no gubernamentales de 67 países que aboga por un tratado que mantenga un control humano significativo sobre el uso de la fuerza y prohíba los sistemas de armas que operan sin dicho control.

“Gran parte de la oposición a los robots asesinos refleja la repulsión moral a la idea de que las máquinas tomen decisiones de vida o muerte”, dijo Docherty. “Un nuevo tratado llenaría el vacío en el derecho internacional de los tratados y protegería los principios de humanidad y los dictados de la conciencia pública frente a la tecnología armamentística emergente”.

 

Original: Human Rights Watch (hrw.org/es)