Activistas del mundo entero se han dado cita en Costa Rica para participar de la 4a. reunión global de la Coalición Stop Killerrobots sobre Deshumanización Digital.

La articulación internacional, que nuclea a 160 organizaciones de la sociedad civil de todo el mundo impulsa distintas actividades para lograr que se implemente un instrumento jurídico vinculante para la prohibición de los sistemas de armas completamente autónomas.

El encuentro de activistas se abrió con una serie de paneles sobre el panorama actual del armamento autónomo y los posibles pasos a acometer para iniciar un proceso efectivo que nos lleve a tener un Tratado sobre Armas Autónomas.

Luego de dos jornadas de debate y conclusiones, comenzará la “Conferencia regional sobre el impacto social y humanitario de las armas autónomas”, auspiciada por el gobierno de Costa Rica, que se realizará los días 23 y 24 de febrero.

La iniciativa, informó la cancillería del país centroamericano, es la primera de su tipo en la región y atraerá a expertos gubernamentales de América Latina y del Caribe, así como de países observadores, representantes del Comité Internacional de la Cruz Roja, de las Naciones Unidas, académicos y líderes de la sociedad civil.

Este intercambio servirá de base al diálogo regional sobre los impactos humanitarios y sociales de las armas autónomas, así como los desafíos que este tipo de armamento plantea a la paz, la seguridad y el derecho humanitario.

La deshumanización digital

La deshumanización digital es el proceso por el cual los humanos quedan reducidos a datos, los cuales, después se utilizan para tomar decisiones y/o emprender medidas que afectan negativamente nuestras vidas.

La digitalización de información sobre personas y el uso de la tecnología de toma de decisiones automatizada basada en esta información digitalizada no siempre es problemática. Sin embargo, conlleva un riesgo adicional de convertirse en un elemento deshumanizante y de provocar un daño automatizado.

Este proceso despoja a las personas de su dignidad, degrada la humanidad de los individuos y elimina o sustituye la implicación o responsabilidad humana a través del uso de la toma de decisiones automatizada en la tecnología. Se produce un daño automático cuando estas decisiones nos afectan negativamente.

Tal es el resultado al utilizarse procesos de «inteligencia artificial» al desarrollo armamentista.

Los debates en Naciones Unidas

Durante más de nueve años, los sistemas de armas autónomas han sido objeto de debate internacional en diversos foros, como el Consejo de Derechos Humanos de las Naciones Unidas, la Primera Comisión de Desarme y Seguridad Internacional de la Asamblea General de las Naciones Unidas y el Grupo de Expertos Gubernamentales sobre Tecnologías Emergentes en la Esfera de los Sistemas de Armas Autónomas Letales (GEG sobre LAWS) de la Convención sobre Ciertas Armas Convencionales (CCAC).

En estos debates, los Estados, los organismos de las Naciones Unidas, las organizaciones internacionales y las organizaciones no gubernamentales han destacado las diversas y graves implicaciones éticas, morales, humanitarias y jurídicas de la inteligencia artificial (IA) y los sistemas de armas autónomas. A pesar de que la mayoría de los Estados apoyaba la negociación de un instrumento jurídico, la Sexta Conferencia de Revisión de la CCAC, celebrada en diciembre de 2021, no logró acordar un mandato para trabajar en favor de ninguna forma de regulación.

El informe sobre Inteligencia Artificial y decisiones automatizadas

Por iniciativa de la Campaña Stop KillerRobots, el equipo de Investigación sobre Decisiones Automatizadas, elaboró un informe, dado a conocer en Septiembre 2022, que sintetiza el estado actual de la cuestión y los desafíos comunes a abordar tanto en la esfera civil como la militar ante los riesgos que presentan estos recientes pero veloces desarrollos.

En el resumen del informe, los investigadores resumen los mensajes clave del siguiente modo:

Primeramente, se hace notar que «la medida en que muchos Estados y organismos internacionales reconocen los graves riesgos y desafíos que plantea el uso de la IA y las tecnologías de toma de decisiones automatizada en el espacio civil debe considerarse como una validación de las preocupaciones paralelas y conexas en el espacio militar».

En segundo término, se señala que «dada la naturaleza y la magnitud de los daños que están en juego en el procesamiento automatizado en el contexto de los objetivos militares, y las dificultades para aplicar mecanismos de supervisión civil en el espacio militar, los retos asociados a los sistemas de armas autónomas son especialmente agudos.»

A continuación se indica que «El desarrollo de respuestas centradas en los derechos humanos a la IA y a la toma de decisiones automatizada en el espacio civil debería impulsar a los Estados a prestar atención a los derechos de los afectados como punto de partida fundamental para la generación de las normas necesarias en el espacio militar.»

Finalmente, se concluye que «La importancia de la rendición de cuentas y la responsabilidad por el uso de sistemas de armas autónomas tiene implicaciones sobre cómo deben elaborarse determinadas normas para evitar una erosión de la rendición de cuentas y garantizar la protección y el cumplimiento de las normas del derecho internacional humanitario y los derechos humanos fundamentales.»