El 28 de febrero, un sistema de inteligencia artificial clasificó un edificio en Minab, Irán, como objetivo militar. El edificio era una escuela de niñas. Tenía aulas, pizarras, delantales colgados en los percheros. Tenía 180 cuerpos que todavía no eran cadáveres. El sistema no sabía eso. O lo sabía y lo procesó como «daño colateral dentro de parámetros aceptables». En cualquiera de los dos casos el resultado fue el mismo: el hormigón se vino abajo, y debajo quedaron niñas de entre 7 y 12 años. El mundo siguió girando. Los algoritmos siguieron aprendiendo.

Lo que ocurrió en Minab no fue un accidente. Fue el producto de una arquitectura deliberada, construida durante años con dinero público, talento privado y una filosofía que decidió que la fricción humana en la guerra es un problema de ingeniería a resolver. Esa arquitectura tiene nombre: Proyecto Maven. Y su historia es uno de los relatos más inquietantes de la última década, porque empieza con una derrota moral que todavía no terminamos de celebrar y concluye con un triunfo del cinismo que todavía no terminamos de lamentar.

En 2018, el Pentágono necesitaba procesar imágenes satelitales a una velocidad que ningún equipo humano podía sostener. La solución era obvia: automatización. Y el socio natural era Google. La empresa firmó el contrato. Pero entonces ocurrió algo que la historia de Silicon Valley rara vez registra: los empleados se rebelaron. Cuatro mil ingenieros firmaron una carta. Varios renunciaron. El argumento era simple y demoledor: no queremos que nuestro trabajo sirva para matar personas. Google, acorralado entre sus empleados y su imagen pública, abandonó el proyecto.

Fue un momento de lucidez en un valle que no los tiene con frecuencia. Un momento en que la ética de los trabajadores fue más rápida que la ética de la corporación. Un momento que duró lo que dura cualquier vacío de poder en el mercado de la defensa: nada.

Porque Palantir ya estaba esperando. Alex Karp, el director ejecutivo de la compañía, no es lo que uno imagina al pensar en un ejecutivo de tecnología militar. Tiene doctorado en filosofía. Estudió teoría crítica en Frankfurt, la misma ciudad donde Adorno y Horkheimer escribieron la Dialéctica de la Ilustración, el libro que advirtió, en 1944, que la razón instrumental podría convertirse en un instrumento de barbarie. Karp leyó esas páginas. Las entendió. Y luego construyó una empresa cuya misión declarada es acelerar exactamente eso.

Esa contradicción no es menor. Es, quizás, el gesto más revelador de nuestra época: el hombre formado en la crítica del poder técnico-instrumental aplicando ese poder con una convicción que roza lo mesiánico. Según periodistas que lo han seguido de cerca, Karp cree que Occidente libra una guerra existencial contra adversarios como Irán, China, Rusia y los movimientos de resistencia en Gaza. En esa visión apocalíptica, las sutilezas sobran. El poder tecnológico disponible debe usarse en su totalidad. Los muertos civiles son el precio de la civilización.

Para entender Minab hay que entender la «kill chain»: la secuencia que va desde la detección de un objetivo hasta su destrucción. En la guerra tradicional, esa cadena llevaba horas o días. Había que identificar, verificar, consultar, evaluar, autorizar. Era lenta, imperfecta, pero dejaba espacio para la duda. Para que alguien dijera «esperá, revisemos de nuevo».

En 2017, los analistas militares pasaban el 80% de su tiempo revisando imágenes satelitales de forma manual. Para 2023, ese porcentaje se había reducido drásticamente. Lo que en la invasión de Irak de 2003 requería 2.000 personas operando sobre el terreno se realiza hoy con 20 operadores sentados frente a pantallas a miles de kilómetros del conflicto. La meta final es aún más ambiciosa: procesar 1.000 objetivos en una hora. Un objetivo cada 3,6 segundos.

Tres coma seis segundos. El tiempo que tarda una maestra en decir «buenos días». El tiempo que necesita un humano para parpadear dos veces. En ese intervalo, el sistema detecta, clasifica, calcula probabilidades de impacto, estima daño colateral y presenta la recomendación. El operador, entrenado para confiar en la máquina y para no convertirse en «cuello de botella», aprieta el botón. Y el hormigón cae sobre las niñas de Minab.

La industria tiene un discurso cuidadosamente calibrado para esto. Dicen que el humano mantiene el «control final». Que la IA solo «sugiere» y que el operador «autoriza». Pero cuando el sistema presenta un objetivo con el 99% de confianza, cuando cada segundo de hesitación es una «ineficiencia» que el protocolo penaliza, cuando el entrenamiento está diseñado para maximizar la velocidad de aprobación, ese control final es una ficción administrativa. El operador no decide: certifica. No piensa: valida. Es el último eslabón de una cadena de la que no puede salir, el «burócrata del botón» cuya función no es ejercer juicio sino atestiguar que la máquina trabajó.

Lo que estos episodios enseñan no es que las máquinas se equivocan —eso ya lo sabíamos—, sino que el sistema en su conjunto produce una ilusión de precisión que encubre una realidad mucho más caótica. La automatización no elimina el error humano: lo industrializa. Lo escala. Lo hace reproducible a una velocidad que ninguna revisión posterior puede alcanzar. El problema no es que el algoritmo alucine. El problema es que cuando alucina, alguien muere. Y esa muerte se registra en una base de datos como un «evento», se codifica como «daño colateral» y se archiva.

Lo que ocurre en Minab no ocurre solo en Minab. Las mismas empresas que automatizan la muerte automatizan también la deportación, la recaudación fiscal, la gestión de la pobreza. Palantir tiene contratos con el ICE para identificar y deportar migrantes. El IRS aplica sistemas opacos para detectar fraude: cuando se equivocan, la carga de la prueba recae sobre el ciudadano. La misma lógica: un adversario que neutralizar, una eficiencia que justifica el sacrificio, una máquina en la que confiar más que en el juicio humano.

Evgeny Morozov lo llama «solucionismo tecnológico»: la creencia de que cualquier problema complejo se resuelve con más datos y más algoritmos. Es una ideología profundamente antipolítica porque reduce las decisiones colectivas a problemas de optimización técnica. Elimina el conflicto, la negociación, la posibilidad de decir no. Nos promete un mundo sin fricciones. Y un mundo sin fricciones es un mundo sin resistencia.

Detrás de todo esto hay hombres concretos. Karp y Peter Thiel, cofundador de Palantir, que ha escrito abiertamente que la democracia es incompatible con la libertad, que la política es el problema y la tecnología la solución, que la historia puede optimizarse. Son los nuevos filósofos reyes, pero sin la carga de la sabiduría. Tienen el poder que antes tenían los Estados y la impunidad que siempre tuvieron los ejércitos. A diferencia de los presidentes, no enfrentan elecciones. Sus algoritmos se perfeccionan mientras las democracias debaten.

Hannah Arendt describió la «banalidad del mal» para referirse a personas ordinarias cometiendo atrocidades extraordinarias sin sentir que hacen nada malo. Solo seguían órdenes. Solo optimizaban procesos. En Minab no hubo un asesino. Hubo un sistema que clasificó, un operador que validó, un registro que documentó el «éxito». Nadie decidió matar a 180 niñas. Nadie tuvo que hacerlo. Eso es exactamente lo que hace tan difícil detenerlo.

Las madres de Minab siguen buscando entre los escombros. En algún servidor de Palantir, un campo de base de datos indica que la operación fue un éxito. Entre esas dos realidades hay un abismo que la tecnología ensanchó y que solo la política puede volver a cerrar. Pero para eso habría que aceptar que la democracia no es un cuello de botella. Que la duda no es una ineficiencia. Que 3,6 segundos no alcanzan para decidir si una vida vale o no vale la pena.