La disputa entre Anthropic y OpenAI sumó un nuevo capítulo tras la decisión de Donald Trump de cortar acuerdos de Defensa con Claude y privilegiar a ChatGPT, en medio de un fuerte debate sobre el uso militar de la inteligencia artificial.

Anthropic, la compañía detrás del chatbot Claude, había concretado acuerdos con dependencias del Departamento de Defensa de Estados Unidos durante la gestión de Donald Trump. Esos convenios se enmarcaban en el creciente interés del sector militar por sistemas de inteligencia artificial capaces de procesar información estratégica, asistir en tareas analíticas y optimizar la logística.
Con el correr de los meses, la relación se tensó. Directivos de Anthropic empezaron a plantear límites más estrictos sobre el tipo de aplicaciones que podían desarrollarse con su tecnología, especialmente en ámbitos sensibles como el uso letal de la fuerza, la supervisión de armas autónomas y la toma de decisiones en operaciones militares de alto riesgo.
Fuentes del sector tecnológico en Estados Unidos señalan que la empresa impulsó cláusulas de seguridad más robustas y mayores evaluaciones de impacto, algo que chocó con las expectativas del entorno político y militar que acompañaba a Trump, que reclamaba avances más veloces y con menos condicionamientos.
Trump corta con Claude y se vuelca a ChatGPT
En ese contexto, el exmandatario decidió romper los vínculos con Anthropic. De acuerdo con trascendidos en Washington, el detonante fue la negativa de la firma a avanzar en proyectos vinculados con defensa ofensiva y simulaciones militares complejas sin un marco de supervisión civil reforzado.
Tras el quiebre, Trump habría reorientado su preferencia hacia OpenAI, desarrolladora de ChatGPT. La plataforma, que ya contaba con altos niveles de adopción en el sector privado y organismos públicos, fue vista por el entorno del republicano como una alternativa más alineada con sus objetivos, pese a que la propia OpenAI también mantiene lineamientos éticos y restricciones de uso.
La mudanza de confianza hacia ChatGPT se produjo en un momento de profunda competencia comercial. Tanto Anthropic como OpenAI buscan posicionarse en contratos gubernamentales millonarios, donde la capacidad de adaptación normativa y el margen de maniobra frente a exigencias políticas se vuelven factores determinantes.
Choque de visiones éticas y pelea abierta en redes
El conflicto trasciende lo comercial y expone el choque entre modelos de gobernanza de la IA. Anthropic se presenta como una compañía fuertemente enfocada en la seguridad y la alineación de sus sistemas con valores democráticos, mientras que OpenAI combina esa narrativa con una estrategia más agresiva de expansión de mercado y acuerdos con grandes corporaciones y gobiernos.
En las últimas horas, los CEO de ambas compañías protagonizaron un cruce en redes sociales. Mensajes, réplicas y guiños irónicos pusieron en primer plano las acusaciones cruzadas: desde críticas por supuesta cercanía con intereses militares hasta reproches por priorizar convenios millonarios por sobre los riesgos que plantea la inteligencia artificial de uso general.
El episodio refleja una discusión más amplia: ¿hasta dónde deben llegar las empresas tecnológicas cuando se trata de contratos con el sector Defensa? Para especialistas en regulación digital, el caso Trump–Anthropic–OpenAI funcionará como test para los marcos éticos que se discuten en organismos internacionales, desde la Unión Europea hasta Naciones Unidas.
Mientras tanto, gobiernos de todo el mundo siguen de cerca la evolución de estos gigantes de la IA, conscientes de que las definiciones que se tomen hoy marcarán el alcance –y los límites– de la tecnología en materia de seguridad, soberanía y derechos civiles en los próximos años.



Comentarios