Este viernes 27 de febrero de 2026 vence el plazo que el Departamento de Defensa de Estados Unidos dio a Anthropic para eliminar las restricciones éticas de su modelo Claude en el marco de su contrato militar. El ultimátum fue comunicado apenas días antes, en términos que, más que negociación institucional, evocan presión directa: o se flexibilizan las salvaguardas o se activarán mecanismos coercitivos como la Defense Production Act y eventuales sanciones contractuales. Esa escena —un Estado exigiendo a una empresa tecnológica que desactive sus límites normativos bajo amenaza— es la imagen concreta de la espada. La ética, en este caso, no es una abstracción: es el último obstáculo antes de la obediencia.
Lo que está ocurriendo entre el Pentágono y Anthropic no es un desacuerdo contractual ni una fricción administrativa. Es la evidencia de que la inteligencia artificial ha dejado de ser una herramienta tecnológica para convertirse en el nuevo campo de batalla del poder global. Cuando un Estado exige que se eliminen las salvaguardas éticas de un sistema cognitivo avanzado en nombre de la seguridad nacional, la pregunta ya no es técnica. Es civilizatoria.
No estamos discutiendo eficiencia, competitividad o innovación. Estamos ante una tensión más profunda: ¿quién gobierna el poder algorítmico cuando este alcanza capacidad de intervenir en decisiones letales, en arquitecturas de vigilancia y en estructuras estratégicas del Estado? ¿La ética es un límite real o un obstáculo transitorio que puede sacrificarse cuando el equilibrio geopolítico lo exige?
El conflicto entre el Departamento de Defensa de Estados Unidos y Anthropic cristaliza esa disputa. Anthropic diseñó su modelo Claude bajo un principio explícito de alineación ética, la denominada Constitutional AI, que incorpora reglas normativas internas destinadas a impedir usos que violen estándares fundamentales, entre ellos la colaboración en sistemas de armas autónomas letales sin control humano significativo o en esquemas de vigilancia masiva indiscriminada. El Pentágono, por su parte, sostiene que toda herramienta desplegada bajo contratos de defensa debe estar disponible para “todos los usos legales militares”. Allí se encuentra la fractura: la legalidad estatal no siempre coincide con los límites éticos que una empresa decide imponer a su tecnología.
Esta tensión no es anecdótica. Es estructural. Desde el momento en que los modelos de lenguaje de gran escala —basados en arquitecturas transformer y entrenados mediante aprendizaje por refuerzo con retroalimentación humana— pueden integrarse en la cadena de decisión militar, la frontera entre asesoramiento analítico y automatización letal comienza a desdibujarse. Aunque un modelo no dispare un arma, puede acelerar análisis de inteligencia, priorizar objetivos y reducir tiempos de deliberación humana. La velocidad algorítmica modifica la naturaleza de la decisión.
Aquí aparece el dilema clásico de la teoría política contemporánea: el desplazamiento del monopolio de la fuerza hacia el monopolio de la inteligencia estratégica. Si en el siglo XX el poder se concentraba en la capacidad industrial y nuclear, en el siglo XXI se concentra en la infraestructura cognitiva. Y esa infraestructura no está exclusivamente en manos del Estado, sino en laboratorios privados con recursos de cómputo y talento concentrados.
El problema no es simplemente que el Estado quiera utilizar herramientas avanzadas. El problema es que la presión competitiva —tanto geopolítica como empresarial— erosiona progresivamente las líneas rojas. En un entorno donde otras empresas podrían estar dispuestas a ofrecer versiones menos restringidas de sus sistemas, la ética corre el riesgo de convertirse en desventaja competitiva. Si un actor elimina salvaguardas y obtiene contratos estratégicos, los demás enfrentan un incentivo racional para hacer lo mismo. Así se configura una carrera hacia el fondo.
Esta dinámica reproduce un dilema de seguridad a escala tecnológica. Cada actor justifica su escalada como respuesta a la posible escalada del otro. El resultado no es estabilidad, sino acumulación acelerada de capacidades sin un marco internacional robusto que las regule. A diferencia del régimen de no proliferación nuclear, la inteligencia artificial carece de un tratado vinculante que limite el desarrollo y despliegue de sistemas autónomos letales. Las discusiones en Naciones Unidas sobre armas autónomas llevan años estancadas. No existe un mecanismo efectivo de verificación ni un consenso global sobre el principio de control humano significativo.
La gobernanza real de la inteligencia artificial, por tanto, no está definida por declaraciones éticas corporativas ni por discursos políticos, sino por la interacción concreta entre poder estatal, capital tecnológico y ausencia de arquitectura normativa internacional. En este vacío, la gobernanza se vuelve reactiva y fragmentaria. Las decisiones se toman caso por caso, contrato por contrato, bajo presión estratégica inmediata.
El riesgo es doble. Por un lado, la dilución de la responsabilidad. Cuando decisiones críticas se distribuyen entre modelos algorítmicos, operadores humanos y cadenas de mando complejas, la trazabilidad ética se vuelve difusa. La automatización cognitiva no elimina la responsabilidad jurídica, pero la opaca en la práctica. Por otro lado, la naturalización de la excepcionalidad. Si la seguridad nacional se convierte en argumento permanente para flexibilizar límites, la excepción deja de ser excepcional y pasa a ser norma estructural.
La pregunta de fondo es si la humanidad está dispuesta a permitir que la lógica de la competencia tecnológica determine sola los contornos del uso legítimo de la inteligencia artificial. Si la ética es siempre subordinada a la ventaja estratégica, el equilibrio global tenderá hacia sistemas cada vez más autónomos y menos supervisados. En ese escenario, la gobernanza no será preventiva sino correctiva, actuando después del daño.
El enfrentamiento entre el Pentágono y Anthropic no es la historia de una empresa resistiendo o cediendo. Es el síntoma de una transición histórica. El poder algorítmico ya no es accesorio; es infraestructura crítica. Y como toda infraestructura crítica, define el orden político que la sostiene.
Si la gobernanza de la inteligencia artificial no se consolida mediante acuerdos multilaterales vinculantes, estándares técnicos verificables y límites claros al uso letal autónomo, el mundo podría entrar en una fase donde la velocidad tecnológica supere permanentemente la deliberación ética. En ese punto, la pregunta no será quién controla la máquina, sino si todavía existe un espacio efectivo para que el control humano tenga significado real.
La espada ya está forjada. La cuestión es si la ética será escudo o simple ornamento retórico en la era del poder algorítmico.













