
El presidente de Estados Unidos, Donald Trump, dispuso que todas las agencias federales dejen de utilizar la tecnología de Anthropic, luego de que la empresa se negara a flexibilizar las restricciones que impiden el uso de su inteligencia artificial con fines militares.
La decisión marca una ruptura directa entre la Casa Blanca y una de las principales firmas de IA del país, en medio de tensiones crecientes con el Pentágono, que busca ampliar el uso de estos sistemas en operaciones vinculadas a la seguridad nacional.
Trump comunicó la medida a través de redes sociales, donde acusó a la compañía de anteponer sus intereses corporativos a la defensa del país. Según afirmó, la postura de Anthropic “pone en riesgo la seguridad nacional” y resulta incompatible con los objetivos estratégicos de su administración.
En ese marco, el mandatario ordenó cesar de inmediato todo nuevo uso de la tecnología de la empresa, aunque aclaró que el proceso de desvinculación será gradual, con plazos de transición de hasta seis meses para aquellas dependencias que actualmente dependen de estos sistemas, entre ellas áreas vinculadas a Defensa.
Un vínculo que venía deteriorándose
Anthropic había firmado en 2025 un contrato por u$s200 millones con el Departamento de Defensa para colaborar en el desarrollo de capacidades de inteligencia artificial aplicadas a la seguridad nacional. Sin embargo, la relación comenzó a tensarse cuando el gobierno presionó para que la empresa eliminara sus políticas de uso, que prohíben expresamente la participación de sus modelos en el diseño, planificación u operación de armamento, así como en tareas de vigilancia invasiva.
Las fricciones se profundizaron tras reportes periodísticos que señalaron que el modelo Claude habría sido utilizado indirectamente en una operación militar que derivó en la captura del expresidente venezolano Nicolás Maduro, a través de sistemas integrados por Palantir Technologies.
anthotpic

Anthropic se negó a flexibilizar las restricciones de uso de su modelo Claude, que prohíben la participación en operaciones militares, armamento y vigilancia invasiva.
De acuerdo con fuentes citadas por medios estadounidenses, ejecutivos de Anthropic solicitaron explicaciones sobre ese presunto uso, al considerar que la operación implicó fuego real y víctimas, lo que violaría sus condiciones de servicio. La reacción del Pentágono fue endurecer su postura.
Entre las medidas evaluadas figuró cancelar el contrato vigente y catalogar a la empresa como un riesgo para la cadena de suministro, una etiqueta que podría aislarla del ecosistema de defensa estadounidense.
Desde el Departamento de Defensa defendieron esa estrategia al señalar que el país necesita socios tecnológicos plenamente alineados con sus objetivos militares, especialmente en un contexto de competencia global.
La respuesta de Anthropic
El director ejecutivo de la compañía, Dario Amodei, calificó las presiones oficiales como “contradictorias” y sostuvo que el gobierno pretende, al mismo tiempo, considerar a la empresa un riesgo y exigirle que habilite usos más agresivos de su tecnología.
Amodei reiteró que Anthropic no modificará sus políticas de seguridad, al considerar que permitir el uso irrestricto de modelos de IA en contextos bélicos o de vigilancia masiva sería incompatible con sus principios.
Así, el conflicto encendió alarmas en el resto de la industria. Empleados de Google y OpenAI firmaron una carta abierta para pedir a sus compañías que adopten una postura similar, ante presiones similares por parte del gobierno estadounidense.
Ambas firmas mantienen contratos millonarios con el Pentágono y, según los firmantes, las autoridades buscan negociar por separado con cada empresa para evitar una posición común que limite el uso militar de la inteligencia artificial.
Desde OpenAI, su CEO Sam Altman ratificó que la compañía considera inaceptable el empleo de IA para armas autónomas letales o vigilancia masiva, y que las decisiones de alto riesgo deben seguir bajo control humano.
—



