TECNOLOGÍA.— OpenAI enfrenta cuestionamientos de algunos usuarios tras su nuevo acuerdo con el Departamento de Defensa de Estados Unidos.
Anthropic, pese a haber sido vetada por el gobierno estadounidense, podría estar capitalizando esa disputa en términos de adopción. Claude se convirtió el domingo por la noche en la aplicación gratuita más descargada del App Store de Apple, superando a ChatGPT de OpenAI y a Google Gemini de Alphabet.
La empresa parece beneficiarse del rechazo que enfrenta ChatGPT tras los recientes desarrollos vinculados al Pentágono.
La relación de Anthropic con el gobierno de EE.UU. se deterioró después de que la compañía se negara a permitir que sus modelos fueran utilizados en armas autónomas o sistemas de vigilancia masiva.
El viernes, el presidente Donald Trump indicó que las agencias federales deberán dejar de utilizar tecnología de Anthropic, mientras que el secretario de Defensa, Pete Hegseth, calificó a la empresa como un riesgo para la cadena de suministro y la seguridad nacional.
“Se trata, en esencia, de una designación de letra escarlata para Anthropic, que coloca a este referente de la IA en la misma categoría que Huawei dentro de EE.UU.”, escribió el analista de Wedbush Dan Ives en una nota a clientes.
En un giro poco claro, OpenAI anunció rápidamente que había alcanzado un nuevo acuerdo con el gobierno estadounidense para desplegar sus modelos en usos clasificados. Sin embargo, Sam Altman afirmó en X que OpenAI cree en “prohibiciones sobre la vigilancia masiva doméstica y en la responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomas”.
“El Pentágono coincide con estos principios, los refleja en la ley y la política, y los incorporamos en nuestro acuerdo”, escribió Altman. El sábado agregó que el Departamento de Defensa resultó “flexible respecto de lo que necesitábamos”, aunque advirtió que el veto efectivo a Anthropic establece un “precedente extremadamente alarmante”.
“Hay mucha confusión sobre las líneas rojas de este acuerdo y, en esencia, qué diferencia hay entre lo que ahora hace OpenAI para el Pentágono frente a la propuesta o salvaguardas de Anthropic”, señaló Ives.
Anthropic, OpenAI y la Casa Blanca no respondieron de inmediato a solicitudes de comentarios.
Para complicar aún más el panorama, el Wall Street Journal informó que la tecnología de Anthropic fue utilizada en el ataque del sábado contra Irán. No obstante, Trump había dado a las agencias un plazo de seis meses para dejar de usar esa tecnología.
Al mismo tiempo, algunos usuarios de ChatGPT manifestaron frustración por la disposición de OpenAI a cerrar un nuevo acuerdo con la administración Trump. Un grupo denominado QuitGPT sostuvo en su sitio web que el acuerdo de Altman “nos pone a todos en riesgo de una IA letal en beneficio de las ganancias de su empresa”. El grupo recomendó Gemini y Claude como opciones corporativas más atractivas, además de algunos proveedores más pequeños.
La cantante Katy Perry publicó una captura de pantalla que sugiere que adquirió una suscripción anual al plan Pro de Claude. Asimismo, un empleado de Anthropic que trabaja en “proyectos especiales” compartió instrucciones para que los usuarios puedan trasladar sus “memorias” —es decir, la información que los chatbots almacenan sobre ellos— desde otros proveedores.
Aunque Claude ya venía ganando reconocimiento entre desarrolladores por sus herramientas de programación con IA, Anthropic podría ampliar su atractivo entre usuarios masivos si el rechazo hacia OpenAI se sostiene en el tiempo.
Sin embargo, la empresa enfrenta un desafío desde el punto de vista de monetización mientras lidia con las consecuencias de su designación como riesgo en la cadena de suministro, una medida que anunció que impugnará por la vía judicial.
“Todo esto se disputará en los tribunales en las próximas semanas y meses, y esperamos que se resuelva pronto para poner fin a la incertidumbre en el sector de la IA, ya que algunas empresas podrían frenar implementaciones de Claude mientras se resuelve el litigio”, concluyó Ives.

