Por Jonathan Drake*

4 de enero de 2017 (openDemocracy)* – La inteligencia artificial se está desarrollando a pasos agigantados, y junto a esto algunos dilemas sobre los derechos humanos y la ética se están volviendo muy importantes. 

“No son tontos, son algo peor: no les importa su propia especie. Por miles de años los hombres han soñado con hacer pactos con los demonios. Recién ahora es posible hacer cosas así”.

Cuando William Gibson escribió esas palabras en su innovadora novela 1984, la inteligencia artificial que inventó, Neuromancer, era sólo ciencia ficción.

Sin embargo, hoy en día la convergencia de algoritmos complejos, la mayor cantidad de información disponible y el aumento exponencial en el poder computacional ha provocado que la IA (Inteligencia Artificial) nos haga preguntarnos por importantes dilemas éticos y de derechos humanos, que van del derecho a la privacidad al debido proceso legal.

Para abordar estos asuntos será necesario contar con el aporte de expertos de una gama muy amplia de disciplinas, tales como políticas públicas, economía, derecho penal, ética e incluso filosofía.

Muchos inventos provocan consecuencias involuntarias. La IA, sin embargo, es única en este sentido, porque puede traer consecuencias resultantes de decisiones no-humanas.

Los resultados más graves de estas consecuencias involuntarias son producidos por los sistemas diseñados sólo para causar daño, como los sistemas de armamento. Más allá de las películas de ciencia-ficción, las armas que incorporan algún grado de funcionalidad autónoma ya llevan produciéndose algún tiempo. Las minas terrestres son uno de los ejemplos más simples (Y de los más problemáticos, en cuanto a derechos humanos).

Hoy en día, la ciencia de la inteligencia artificial ha avanzado hasta el punto de que ya es posible construir robots sofisticados y absolutamente autónomos.

Como respuesta a esta situación, en el año 2012 una coalición de ONG lanzó la campaña “Campaña Para Detener A Los Robots Asesinos”, que busca la garantía de que las decisiones de vida o muerte siempre serán tomadas por humanos.

Aunque no estaba relacionado con esta campaña, ese mismo año el departamento de defensa de los Estados Unidos emitió la directiva número 3000.09, que define la política de que los sistemas de armas completamente autónomos sólo podrán ser utilizados para “aplicar fuerza no letal y no cinética, como por ejemplo algunos métodos de ataque eléctrico”. De acuerdo a la política actual, la fuerza letal solo puede ser aplicada por humanos.

El crecimiento acelerado de la inteligencia artificial también está causando importantes dilemas éticos y sobre los derechos humanos.

Aunque es menos dramático que en los usos militares, el desarrollo de la IA para el sector doméstico también puede resultar en graves problemas de derechos humanos, tales como la discriminación y el racismo sistemático.

Por ejemplo, fuerzas policiales de todo el país están utilizando cada vez más sistemas de “policía predictiva”, que procesan grandes cantidades de información acerca de la actividad criminal, datos demográficos y patrones espaciales para producir mapas y predecir, mediante algoritmos, en qué lugar es más probable que ocurran crímenes en el futuro. Las implicaciones en cuanto a derechos humanos de esta tecnología son incluso más graves en los casos en que estos sistemas se utilizan no sólo para predecir el lugar de los crímenes, sino que también cuáles individuos son más propensos a cometer crímenes.

En la ciudad de Chicago se ha implementado esto: han usado la Inteligencia Artificial para componer una “Lista Estratégica De Individuos” en la que se nombran criminales en potencia, los que son visitados por la policía e informados de que se les considera individuos de alto riesgo. Aunque los que están de acuerdo con estos sistemas argumenten que serían beneficiosos para disminuir las tasas de criminalidad y reducir la parcialidad en la policía, hasta el momento la evidencia de esto es, en el mejor de los casos, poco clara.

Yendo un poco más lejos, los escépticos quieren hacer notar que estos sistemas de inteligencia policial podrían, finalmente, aumentar la parcialidad policiaca previa, en vez de disminuirla, y esto no sólo en el ámbito del trabajo policiaco. Los algoritmos utilizados se basan en las prácticas gubernamentales actuales, que a menudo son injustas o tienen muy poco impacto, ya sea en el ámbito de hacer cumplir la ley, la inversión en infraestructura pública, el acceso al debido proceso legal, el derecho a la libre reunión, o muchas otras áreas distintas.

Como los sistemas se basan en esta información, potencialmente podrían ahondar la discriminación, y lo que es peor, posiblemente eliminen la oportunidad de comprender y cambiar las políticas. De esta manera, las predicciones de estos sistemas podrían convertirse en profecías auto cumplidas, lo que sería una violación de la libertad de información y del debido proceso legal, implicando así los derechos civiles, políticos, económicos, sociales y culturales.

Incluso en sus aplicaciones al parecer más inofensivas, la inteligencia artificial tiene el potencial de provocar preguntas peliagudas relacionadas con los derechos humanos, tales como cuánta privacidad puede esperar tener un individuo. En el año 2012, por ejemplo, el gigante de ventas de los Estados Unidos Target utilizó análisis predictivos para intentar determinar si sus clientas estaban embarazadas, y así modificar su publicidad para atraerlas.

Sin embargo, en una ocasión su sistema determinó que cierta adolescente estaba embarazada, y por lo tanto le enviaron cupones para comprar productos de bebé a su hogar antes de que sus padres estuvieran enterados de que estaba embarazada.

El aumento de los asistentes virtuales como Siri de Apple o Alexa de Amazon suponen problemas similares para la privacidad, puesto que la efectividad de su inteligencia artificial depende de que puedan almacenar y analizar grandes cantidades de información personal acerca de sus usuarios.

Cuando la inteligencia artificial está vinculada con algún tipo de maquinaria que interactúa con el mundo físico, su potencial para provocar efectos perjudiciales es aún mayor, tanto a nivel individual como de sociedad.

Por ejemplo, desde que terminó la última recesión el nivel de producción en manufactura de los Estados Unidos ha aumentado en más del 20%, pero el nivel de empleo en el mismo sector sólo ha aumentado en un 5%.

Puede que esta tendencia sea sólo el comienzo. Según un estudio del año 2013 realizado por investigadores de la Universidad de Oxford, a medida que los sistemas robóticos de propósito general tienen más capacidades y son programables de manera más simple, aproximadamente el 47% de los trabajos de los Estados Unidos podrían estar en riesgo de ser reemplazados por sistemas automatizados. Las implicaciones éticas y políticas de un desarrollo como este serían enormes, puesto que, como el estudio resalta, la mayoría de los trabajos que serían remplazados por sistemas automatizados son trabajos que no requieren capacitación avanzada y que hoy en día son realizados, en su mayor parte, por las personas trabajadoras de pocos recursos.

En los países en que existe el derecho a la protección frente al desempleo (Artículo 23.1 en la UDHR) este desarrollo de la tecnología también tendría implicancias legales.

En la novela de Gibson, el protagonista vive en un futuro sombrío, en el que los humanos y las inteligencias artificiales viven en constante antagonismo. “Nadie confía en esas cosas”, explica la novela, “en el minuto, quiero decir en el nanosegundo en el que una de ellas comience a darse cuenta de una manera para volverse más inteligente, se la destruye”.

Aunque es posible que ocurra, la imagen popular en la que una inteligencia artificial es amenazante porque busca aumentar su propia inteligencia a costa de sus creadores humanos sigue siendo sólo especulación. Sin embargo, las amenazas que esta tecnología implica en otras áreas de los derechos humanos ya son parte de la realidad. Puede que las violaciones a los derechos a la privacidad y al debido proceso legal sean sólo el principio.

*Sobre el Autor: Jonathan Drake es Asociado del Programa Senior en el Centro de Ciencia, Política y Sociedad de la Asociación Americana para el Avance de la Ciencia.

El artículo de Jonathan Drake fue publicado en openDemocracy. Vea el Original

**Imagen: Shadow Dexterous Robot Hand holding a lightbulb | Autor: Richard Greenhill y Hugo Elias de Shadow Robot Company | Creative Commons Attribution-Share Alike 3.0 Unported license.

2017 Human Wrongs Watch

Traducido del inglés por Emilio Stanton

El artículo original se puede leer aquí