Ir al contenido
_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna

¿Quién pone los límites a la inteligencia artificial en el ámbito militar cuando la ley guarda silencio?

Hoy en día, la normativa presenta amplias lagunas y la jurisprudencia limita las vías de supervisión.

CEO and Co-Founder of Anthropic Dario Amodei speaks during the 56th annual World Economic Forum (WEF) meeting in Davos, Switzerland, January 20, 2026. REUTERS/Denis BalibouseDenis Balibouse (REUTERS)

En el reciente pulso entre Anthropic y el Pentágono por el uso militar de la inteligencia artificial, mucha gente se ha quedado con la frase que lo resume todo: “cualquier uso legal”. Suena razonable. ¿Quién podría oponerse a lo que es legal? El problema es que, en materia de vigilancia algorítmica y armas autónomas, el marco legal estadounidense no dice lo suficiente. Y cuando la ley calla, el Poder Ejecutivo (Executive Branch) contrata, fija condiciones por directiva administrativa y traslada el debate fuera del Congreso. Esa es la esencia del conflicto y la advertencia para cualquier democracia: si el Derecho no define el perímetro, el perímetro lo define el contrato.

La política formal del Departamento de Defensa está recogida en la DoD Directive 3000.09 (modificada en enero de 2023). Es un documento con obligaciones de seguridad, pruebas y la consigna de mantener “niveles apropiados de juicio humano” sobre el uso de la fuerza. Pero no prohíbe las armas totalmente autónomas; establece requisitos y procesos de revisión dentro de una política interna del Poder Ejecutivo, no de una ley del Congreso. El propio Servicio de Investigación del Congreso (Congressional Research Service, CRS) confirma que la política de EE. UU. No prohíbe desarrollar o emplear sistemas autónomos letales. Esta combinación —directiva administrativa exigente pero no vinculante y ausencia de prohibición legislativa— es la primera grieta del sistema.

El gran marco federal es FISA (50 U.S.C. Ch. 36), diseñado para un mundo de escuchas telefónicas tradicionales, no para la inferencia masiva de patrones o la correlación algorítmica que permiten los modelos fundacionales. Ese silencio opera como espacio habilitante: si no hay prohibición explícita y el Gobierno encaja su actuación en algún título de FISA, el uso queda dentro de “lo legal”. El control judicial agrava el problema: el Tribunal Supremo (Supreme Court) ha restringido la legitimación (standing) para impugnar programas de vigilancia (Clapper v. Amnesty), y la interpretación ampliada del privilegio de secretos de Estado (State Secrets Privilege) en FBI v. Fazaga actúa como escudo adicional. El resultado: poca luz preventiva y pocas vías para escrutar usos algorítmicos extensivos.

Por último, y ante la falta de una ley precisa, la Administración unifica criterios mediante cláusulas contractuales. En inteligencia artificial, eso ha cristalizado en el principio de any lawful use: si es legal, el proveedor no puede interponer vetos privados. En abstracto, suena a defensa de la soberanía estatal. En concreto, es una cláusula-espejo del vacío: si la ley no prohíbe armas plenamente autónomas ni delimita la vigilancia masiva algorítmica, “cualquier uso legal” es, de hecho, casi cualquier uso.

Este debate admite varias lecturas. La estratégica sostiene que el Estado no puede permitir que un proveedor fije sus reglas en plena crisis. La ética responde que lo legal no equivale a lo tolerable cuando el coste de error es irreversible. La de mercado advierte que, si los grandes aceptan “cualquier uso legal”, eso se convierte en estándar de facto y quien ponga frenos voluntarios pierde contratos.

Pero la mirada que interesa subrayar es la jurídico-constitucional. El choque Anthropic-Pentágono no se resuelve con más cláusulas; se resuelve con un marco legislativo adecuado. Mientras el Congreso no establezca un suelo normativo claro para la autonomía letal —con estándares verificables de supervisión humana— y para la vigilancia algorítmica —límites a reidentificación y correlación masiva, con autorización reforzada y trazabilidad—, “cualquier uso legal” seguirá siendo un comodín. El propio CRS confirma que no existe una prohibición federal de armas autónomas letales y que la directiva del DoD sigue siendo la única referencia vigente: dependemos de soft law cuando haría falta hard law.

¿Significa esto que el Poder Ejecutivo no debe actuar? No. En un contexto de competencia tecnológica global, las órdenes ejecutivas (Executive Orders) que impulsan infraestructura y coordinación son comprensibles. Pero el mínimo democrático exige que los contornos de la vigilancia y la autonomía letal los fije el legislador, no la mesa de contratación.

Hoy en día, la normativa presenta amplias lagunas y la jurisprudencia limita las vías de supervisión. Es un sistema diseñado para otro tiempo que se aplica a una tecnología capaz de decidir y observar a una escala impensable hace una década. La frase “cualquier uso legal” no es un principio; es una carencia. Mientras el Congreso no legisle con precisión —supervisión humana, límites a la vigilancia algorítmica, auditorías independientes y responsabilidad compartida entre proveedor y Estado—, la frontera entre lo aceptable y lo inaceptable la seguirán trazando contratos opacos y directivas internas. Y eso es pedirle demasiado a la confianza y demasiado poco al Derecho.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_

Buscar bolsas y mercados

_
_