Este es un artículo de opinión de Sean Rehaag, director del Centro de Estudios sobre Refugiados y del Laboratorio de Derecho de los Refugiados en la canadiense Universidad de York.

TORONTO, Canadá – ¿Puede utilizarse la inteligencia artificial (IA) para promover los derechos de los solicitantes de asilo y otras personas en movimiento?

Puede parecer una pregunta extraña. Cuando pensamos en nuevas tecnologías de control fronterizo, nos vienen a la mente visiones distópicas.

Por ejemplo, el Departamento de Seguridad Nacional de Estados Unidos está invirtiendo en perros robot para patrullar regiones remotas de su frontera con México, Frontex de la Unión Europea (UE) está desplegando quioscos de video de detección de mentiras automatizados con IA seudocientífica para los viajeros, y la Agencia de Servicios Fronterizos de Canadá está utilizando un software de coincidencia de fotos defectuoso para despojar a los refugiados de su estatus.

Los defensores de los derechos humanos tienen mucho trabajo por hacer para contrarrestar estas tecnologías.

Pero, además de criticar el uso de la tecnología por parte de los gobiernos para controlar el movimiento de personas a través de las fronteras, también debemos explorar cómo la tecnología puede promover los derechos humanos.

Una vía prometedora es el uso de la IA para arrojar luces acerca de la problemática toma de decisiones en el control de fronteras.

El autor, Sean Rehaag

En los últimos años se ha producido una aceleración espectacular de la capacidad de las herramientas de IA generativa entrenadas en grandes volúmenes de texto para producir respuestas plausibles a las preguntas de los usuarios.

 ChatGPT, de OpenAI, es la herramienta que más interés ha despertado entre el público, pero hay muchos sistemas competidores, desde plataformas comerciales como Claude, de Anthropic, hasta alternativas de código abierto como Bloom, de BigScience.

Gran parte del debate en los círculos de derechos humanos sobre estas tecnologías se ha centrado en sus defectos.

Por ejemplo, la IA generativa suele reflejar sesgos en los conjuntos de datos de entrenamiento, incluidos sesgos raciales, de género y religiosos.

También alucinan inventando hechos verosímiles pero falsos. La IA generativa también plantea problemas de privacidad, propiedad intelectual, impacto ambiental y alteración del mercado laboral.

A pesar de estas preocupaciones, la IA generativa brinda oportunidades interesantes para ayudar a los defensores de los derechos humanos a emprender investigaciones con grandes cantidades de texto que, de otro modo, podrían resultar prohibitivas desde el punto de vista de los costos.

Consideremos este ejemplo de mi investigación sobre la toma de decisiones en materia de inmigración en Canadá.

Hace más de una década, llevé a cabo un proyecto de investigación empírica acerca de las revisiones judiciales de las decisiones de las cortes federales en materia de refugiados, en el que una docena de estudiantes de derecho asistentes de investigación revisaron manualmente miles de expedientes de cortes federales en línea.

Este proyecto demostró que los resultados dependían de la suerte del sorteo: de qué juez atendía el caso. En respuesta, la corte federal adoptó medidas para tratar de mejorar la coherencia y la equidad.

Repetí el estudio unos años más tarde. Esta vez escribí un programa informático que utilizaba IA basada en reglas, es decir, instrucciones sencillas como, si esta frase está cerca de esta palabra pero no de esta otra, entonces infiere x.

Verifiqué los resultados de ese programa con el conjunto de datos del estudio anterior y con un conjunto más pequeño de datos nuevos recogidos manualmente. A continuación, apliqué el programa a miles de nuevos expedientes judiciales federales en línea.

Este proyecto requirió mucho menos tiempo del asistente de investigación. Sin embargo, también me llevó cientos de horas escribir y verificar el programa, y no podría haberlo completado sin el gran conjunto de datos recopilados por humanos del primer estudio.

Al igual que en el primer estudio, en el segundo se observó que los resultados dependían, al menos en parte, de la suerte. Una vez más, esto generó debates políticos sobre cómo mejorar la toma de decisiones en este ámbito.

Hace poco volví a intentarlo con un procedimiento judicial federal diferente: las suspensiones de expulsión de última hora. Esta vez utilicé IA generativa, en concreto, modelos personalizados ajustados con precisión en la plataforma de OpenAI.

Este proyecto solo requirió unos cientos de ejemplos de datos recopilados por humanos. También me llevó menos de una semana completarlo, con índices de precisión similares a los logrados por mis asistentes de investigación humanos.

Si hubiera utilizado la metodología de la primera iteración de esta investigación, habría necesitado miles de horas de ayuda a la investigación.

Una vez más, el proyecto demostró que los resultados dependían del juez que decidiera el caso, con tasas de concesión en las decisiones de suspensión de expulsión que oscilaban entre 2,6 % y 79,2 %, dependiendo del juez.

¿Qué podemos aprender de esta trayectoria de investigación sobre cómo puede utilizarse la IA para promover los derechos de los refugiados y otras personas en movimiento?

En primer lugar, cuando los defensores de los derechos humanos critican el uso de la IA en un entorno de control fronterizo —incluida la preocupación por la parcialidad y la falta de transparencia en la toma de decisiones—, debemos tener en cuenta que muchas de estas críticas se aplican con la misma fuerza a la toma de decisiones humana.

Entre otras cosas, esto tiene implicaciones para las herramientas destinadas a mitigar los daños asociados a la IA en el control fronterizo, incluida la idea de garantizar que siempre haya un ser humano en el bucle —aunque es tan probable que este ser humano sea una fuente de sesgo como cualquier herramienta de IA que esté supervisando—, como se exige ahora en algunas directrices de IA, como la Directiva de Canadá sobre la toma de decisiones automatizada.

En segundo lugar, debemos reconocer que un problema clave de la IA en el ámbito del control fronterizo tiene que ver con la elección de hacia dónde dirigir estas tecnologías.

Por ejemplo, podríamos optar por invertir en tecnologías que hagan más seguros los viajes de los solicitantes de asilo en lugar de tecnologías que bloqueen sus movimientos. Del mismo modo, podríamos dar prioridad a la creación de herramientas de IA para detectar los prejuicios o el racismo de los funcionarios de inmigración en lugar de herramientas para detectar supuestamente el fraude de los viajeros.

O podríamos utilizar la IA para examinar la imparcialidad y coherencia de las decisiones de asilo en lugar de examinar la veracidad de los materiales presentados por los solicitantes.

A medida que nos adentramos en una era en la que los Estados recurren cada vez más a la IA en el ámbito del control fronterizo, debemos ir más allá de la mera crítica de estas tecnologías.

Los defensores de los no ciudadanos también deben experimentar con el uso de estas tecnologías para estudiar y criticar la toma de decisiones humanas en el control fronterizo.

Y debemos exigir a los Estados, así como a las empresas y personas con conocimientos técnicos muy codiciados, que elijan mejor qué problemas son prioritarios abordar a través de las tecnologías emergentes.

Este artículo se publicó originalmente en OpenGlobalRights.

RV: EG