El gobierno de Estados Unidos abrió un nuevo frente en la disputa por el uso militar de la inteligencia artificial al avanzar contra Anthropic, la compañía detrás de Claude, en medio de fuertes tensiones políticas internas.

Presión del Pentágono tras la orden de Trump
El Departamento de Defensa de Estados Unidos evalúa declarar a Anthropic como un “riesgo para la cadena de suministro y la seguridad nacional”, una calificación que podría limitar severamente sus contratos y vínculos con el Estado federal y sus proveedores.
La avanzada llega después de que el presidente Donald Trump instruyera a las agencias federales a dejar de utilizar los servicios de inteligencia artificial de la firma, en una escalada que combina preocupaciones de seguridad, disputa tecnológica y pelea política.
Según trascendió en medios estadounidenses, el secretario de Defensa, Pete Hegseth, impulsó internamente la iniciativa para profundizar el bloqueo a la compañía, a la que cuestiona por su supuesto impacto en infraestructura crítica y sistemas estratégicos.
IA militar, eje del conflicto con Anthropic
El núcleo de la disputa pasa por el uso de inteligencia artificial con fines bélicos. En los últimos años, el Pentágono avanzó en proyectos para incorporar algoritmos a tareas de planificación, reconocimiento, análisis de datos y apoyo a la toma de decisiones en el campo de batalla.
Anthropic, fundada por ex directivos de OpenAI, se posicionó con un discurso más restrictivo sobre el uso militar de sus modelos, algo que generó tensiones con sectores del complejo militar-industrial que reclaman mayores márgenes para desarrollar aplicaciones ofensivas y defensivas.
En este escenario, la decisión de Trump de apartar a la empresa de los contratos federales se lee como un mensaje político hacia el ecosistema tecnológico: quien limite el uso militar de la IA puede quedar fuera del negocio estatal, uno de los más grandes del mundo en materia de innovación.
Impacto en la industria global de inteligencia artificial
Una eventual declaración de Anthropic como riesgo para la seguridad nacional tendría efectos que trascienden a Estados Unidos. Muchos proveedores internacionales dependen de certificaciones y contratos con el gobierno norteamericano para sostener sus operaciones y prestigio.
Si el Pentágono finalmente avanza, otros países podrían imitar restricciones o revisar vínculos con la compañía, en un contexto donde la IA se convirtió en un insumo estratégico, comparable a los semiconductores o las telecomunicaciones 5G.
Para los expertos, el caso Anthropic vuelve a exponer la puja entre seguridad nacional, regulación tecnológica y libertad empresarial. A la vez, reabre el debate sobre hasta dónde están dispuestos los Estados a utilizar sistemas de IA en tareas letales o sensibles, un tema que también miran de cerca organizaciones de derechos humanos.
Mientras se espera una definición formal del Departamento de Defensa, el conflicto ya impacta en el clima de negocios del sector y suma presión a otras desarrolladoras de IA que buscan contratos estatales sin quedar atrapadas en la disputa geopolítica por el control de la tecnología.




Comentarios