TECNOLOGÍA.— La empresa de inteligencia artificial Anthropic presentó el lunes una demanda para impedir que el Pentágono la incluya en una lista negra de seguridad nacional, intensificando su enfrentamiento con el ejército de Estados Unidos por las restricciones que impone al uso de su tecnología.
La compañía afirmó en su presentación judicial que la designación es ilegal y viola sus derechos constitucionales de libertad de expresión y debido proceso. La demanda, presentada ante un tribunal federal en California, solicita que un juez anule la decisión y prohíba a las agencias federales aplicarla.
“Estas acciones son sin precedentes y son ilegales. La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por ejercer su libertad de expresión”, señaló Anthropic.
El Pentágono aplicó el jueves una designación formal de riesgo en la cadena de suministro, que limita el uso de su tecnología. Según dos fuentes, esa tecnología estaba siendo utilizada en operaciones militares vinculadas con Irán. El secretario de Defensa, Pete Hegseth, tomó la decisión después de que la startup se negara a eliminar las restricciones que impiden que su IA se utilice en armas autónomas o vigilancia doméstica.
Ambas partes llevaban meses en negociaciones cada vez más tensas por esas limitaciones. Además, el presidente Donald Trump ordenó en redes sociales que todo el gobierno deje de utilizar Claude, el modelo de inteligencia artificial desarrollado por Anthropic.
El medio Axios informó que la Casa Blanca prepara una orden ejecutiva para instruir formalmente a las agencias federales a eliminar la IA de Anthropic de sus operaciones.
Una disputa clave sobre IA y seguridad nacional
El conflicto es visto como una prueba sobre hasta dónde puede el gobierno imponer condiciones a las empresas tecnológicas y quién tiene la última palabra sobre el uso de la inteligencia artificial: el Estado o las compañías que la desarrollan.
La disputa resulta llamativa porque Anthropic había buscado activamente colaborar con el aparato de seguridad nacional estadounidense antes que muchas otras empresas de IA. Su CEO, Dario Amodei, ha señalado que no se opone por principio a las armas basadas en IA, pero considera que la tecnología actual aún no es lo suficientemente precisa para ese uso.
Directivos de Anthropic indicaron que la demanda no impide reabrir negociaciones con el gobierno estadounidense para alcanzar un acuerdo.
El Pentágono, por su parte, declinó comentar sobre el litigio.
Riesgo para el negocio de la compañía
La designación supone una amenaza importante para los contratos de Anthropic con el gobierno, y su resultado podría influir en cómo otras empresas de IA negocian las restricciones sobre el uso militar de sus tecnologías.
Aunque Amodei aclaró que la medida tiene “un alcance limitado” y que empresas privadas aún pueden utilizar Claude en proyectos no relacionados con el Pentágono, el impacto comercial podría ser significativo.
“Esto podría tener un efecto dominó para Anthropic y Claude en el mercado empresarial en los próximos meses, ya que algunas compañías podrían frenar sus implementaciones mientras el tema se resuelve en los tribunales”, explicó Dan Ives, analista de Wedbush.
En documentos presentados ante la corte, ejecutivos de la compañía advirtieron que la inclusión en la lista negra podría reducir los ingresos de 2026 en varios miles de millones de dólares y dañar su reputación.
“El accionar del gobierno perjudica inmediata e irreparablemente a Anthropic”, afirmó Thiyagu Ramasmy, responsable del área pública de la empresa.
El director financiero, Krishna Rao, sostuvo que si la decisión se mantiene el impacto será “casi imposible de revertir”.
Como ejemplo, el director comercial Paul Smith indicó que un socio con un contrato anual multimillonario cambió de Claude a un modelo rival de IA generativa, eliminando un pipeline de ingresos previsto superior a u$s 100 millones. Además, negociaciones con instituciones financieras por alrededor de u$s 180 millones también se vieron afectadas.
Un conflicto que involucra a toda la industria
En una segunda demanda presentada el mismo lunes, Anthropic señaló que el gobierno también la designó como riesgo en la cadena de suministro bajo una ley más amplia, lo que podría llevar a su inclusión en una lista negra en todo el gobierno civil.
El alcance final de esa designación aún no está claro, ya que el gobierno debe realizar una revisión interagencial para determinar qué tan amplias serán las restricciones.
En apoyo a Anthropic, 37 investigadores e ingenieros de OpenAI y Google presentaron un escrito judicial argumentando que el caso podría desalentar el debate abierto sobre los riesgos y beneficios de la inteligencia artificial.
“Al silenciar a un laboratorio, el gobierno reduce el potencial de la industria para innovar soluciones”, afirmaron los firmantes, entre ellos el científico jefe de Google, Jeff Dean.
Reuters informó previamente que los inversores de Anthropic se apresuraron a contener los daños derivados del enfrentamiento con el Pentágono, mientras que algunos de ellos —junto con OpenAI— expresaron preocupación por la decisión del gobierno.
El conflicto se intensificó tras meses de negociaciones sobre si las políticas de la empresa podían limitar acciones militares. El Pentágono había anunciado el 27 de febrero que declararía a Anthropic como riesgo de cadena de suministro y notificó formalmente a la compañía el 3 de marzo.
El Departamento de Defensa sostuvo que la ley estadounidense, y no una empresa privada, debe determinar cómo se defiende el país, e insistió en mantener plena flexibilidad para utilizar la IA en “cualquier uso legal”, argumentando que las restricciones de Anthropic podrían poner en riesgo vidas estadounidenses.
Anthropic respondió que incluso los modelos más avanzados de IA no son lo suficientemente confiables para operar armas totalmente autónomas y que su uso con ese fin sería peligroso. La compañía también fijó una línea roja sobre la vigilancia doméstica de ciudadanos estadounidenses, calificándola como una violación de derechos fundamentales.
Tras el anuncio del Pentágono, Anthropic afirmó que la designación carece de fundamento legal y establece un precedente peligroso para las empresas que negocian con el gobierno. Amodei reiteró que la compañía impugnará la decisión en los tribunales.
El CEO también pidió disculpas por un memorando interno filtrado la semana pasada, en el que señalaba que funcionarios del Pentágono no simpatizaban con la empresa en parte porque “no habíamos elogiado a Trump al estilo de un dictador”.
En el último año, el Departamento de Defensa firmó acuerdos de hasta u$s 200 millones con grandes laboratorios de inteligencia artificial, incluidos Anthropic, OpenAI y Google.
Tras la decisión contra Anthropic, OpenAI, respaldada por Microsoft, anunció un acuerdo para utilizar su tecnología dentro de la red del Departamento de Defensa. Su CEO, Sam Altman, afirmó que el Pentágono comparte los principios de la compañía sobre mantener supervisión humana en los sistemas de armas y oponerse a la vigilancia masiva dentro de Estados Unidos.

