
La polémica en torno a la empresa de IA Anthropic volvió a poner sobre la mesa una discusión que crece a nivel global: ¿Hasta qué punto las decisiones irreversibles, e incluso letales, pueden quedar en manos de sistemas automatizados?
En cuestión de días, la empresa de Inteligencia Artificial (IA) Anthropic pasó a ocupar el centro del debate tecnológico y político en Estados Unidos cuando, el 26 de febrero, Dario Amodei, el CEO de la empresa de Silicon Valley, le dijo “no” al Pentágono.
El rechazo se produjo en medio de una creciente discusión sobre el rol que las compañías tecnológicas deberían tener en el desarrollo de herramientas vinculadas a la seguridad nacional y al ámbito militar. Anthropic, que desde su fundación se posicionó como una empresa enfocada en el avance de sistemas de inteligencia artificial seguros y responsables, marcó así una línea frente a posibles usos militares de sus modelos.
“El desarrollo de la inteligencia artificial viene desde los años cincuenta. Como la mayoría de todos los grandes descubrimientos tecnológicos están ligados a la guerra armamentística o, en su momento, a la disputa espacial”, explica Esteban Magnani, investigador, periodista especializado en tecnología, y editor de ANCCOM. “El problema ahora es que esas teorías se están haciendo realidad y el gobierno de Estados Unidos no entiende los límites estructurales de la inteligencia artificial. Por empezar, la inteligencia artificial no es inteligencia, sino que es estadística. Entonces una cosa es si usas la IA para preparar una tarea de la escuela o una presentación laboral y otra cosa es lo que está ocurriendo ahora en la disputa entre Anthropic y el gobierno de Estados Unidos: delegarle el control total sobre un arma a una tecnología con un margen de error que puede costar vidas”.
Líneas rojas
Anthropic, la empresa creadora de la IA Generativa Claude, fue fundada en 2021 por exinvestigadores de OpenAI, entre ellos el propio Amodei, con una premisa clara: si la IA puede convertirse en uno de los mayores riesgos para la humanidad, entonces quienes la desarrollen deben ser personas comprometidas con hacerlo de manera segura.
A pesar del enorme interés que genera el sector, su desarrollo todavía no es necesariamente un negocio rentable. Entrenar y mantener modelos de IA requiere inversiones millonarias en infraestructura, energía y equipos de investigación, mientras que las ganancias que generan muchas de estas herramientas son muy limitadas en comparación y no está claro si alguna vez permitirán cubrir la cuenta. En otras palabras: sus desarrolladores necesitan dinero para poder continuar.
La relación entre Anthropic y el Pentágono no comenzó con el reciente conflicto. En agosto del año pasado, la empresa ofreció su tecnología al Departamento de Defensa de EE.UU. por un valor simbólico de un dólar, una estrategia similar a la que había utilizado días antes OpenAI. El gesto, más una ofrenda que una propuesta comercial, mostraba el afán de las empresas de inteligencia artificial para posicionarse dentro del aparato estatal estadounidense.
Un mes después, en septiembre de 2025, el Pentágono anunció contratos por hasta 200 millones de dólares para proyectos de IA con varias empresas del sector, entre ellas Anthropic, Google, OpenAI y xAI.
El modelo de inteligencia artificial de la compañía, Claude, se integró en algunos sistemas del Pentágono. Según distintos reportes, la empresa no ofreció simplemente acceso a su chatbot, sino que entregó directamente el modelo al Departamento de Defensa para que lo integrara dentro de sus propias redes clasificadas. Esto permitiría analizar documentos secretos, procesar imágenes satelitales y generar reportes de inteligencia sin la necesidad de que la empresa tuviera visibilidad sobre cómo se utilizaba su propia herramienta.
Consciente de ese límite de control y en vistas de los ataques estadounidenses, Anthropic estableció restricciones claras en el contrato, específicamente dos líneas rojas: que la tecnología no fuera utilizada para vigilancia masiva de ciudadanos estadounidenses ni para armas autónomas capaces de atacar objetivos sin supervisión humana. Durante varios meses, estas limitaciones no generaron conflicto alguno. Sin embargo, a medida que el Pentágono buscó ampliar las capacidades de sus sistemas de inteligencia, las restricciones comenzaron a convertirse en un punto de fricción.
Según Magnani, el conflicto refleja una disputa un poco más profunda: “Lo que dijo inicialmente Amodei es que no iban a permitir una delegación total de las decisiones sobre armas autónomas en la inteligencia artificial porque simplemente no está lo suficientemente madura. Es demasiado peligroso”, señala. “También hay una cuestión moral y ética: no van a permitir que estas herramientas se utilicen para el control de la población interna. Lo que pasa fuera de Estados Unidos no le importa ni siquiera a Dario Amodei, pero internamente no lo permite”.
En ese marco, Leandro Lombardi, doctor en Matemática y especializado en el campo de la IA, pone énfasis en la responsabilidad: “Si un sistema identifica un blanco militar que en realidad es un civil, ¿quién responde por ese error? ¿La empresa que desarrolló el modelo, el Estado que lo implementa o el operador que ejecuta la decisión?”. Para el especialista, estos escenarios evidencian un amplio vacío regulatorio.
Pero ¿quién regula los usos de la IA? “Los Estados llegan tarde. El desarrollo tecnológico avanza mucho más rápido que la capacidad de regular”, explica el especialista. En ese contexto, menciona la posibilidad -ya discutida en algunos ámbitos- de crear organismos regulatorios, aunque advierte sobre sus límites: “Muchos de los expertos que podrían definir esas reglas trabajan en las mismas empresas que deberían ser reguladas.” Eso genera un conflicto de intereses y puede terminar funcionando como una barrera de entrada para nuevos actores.
Disputa abierta
El desacuerdo escaló a fines de febrero, cuando el Pentágono presionó para eliminar esas restricciones y permitir que los modelos de IA puedan utilizarse para cualquier propósito considerado legal por las fuerzas armadas. Anthropic, por su parte, se negó a modificar esas cláusulas y el Departamento de Defensa llegó incluso a catalogar a la empresa como un posible riesgo para su cadena de suministro.
Incluso el mismo Donald Trump, en su red social X, tildó a Anthropic como “una empresa woke de izquierda radical” que intenta “dictar cómo el ejército de Estados Unidos pelea y gana guerras”. El presidente del país del norte afirmó que “no necesita ni quiere” los servicios de la empresa y dispuso un período de seis meses para eliminarlos progresivamente de los sistemas estatales. “Los izquierdistas de Anthropic han cometido un error desastroso al intentar presionar al Departamento de Guerra para que obedezca sus términos de servicio en lugar de nuestra Constitución. Su egoísmo está poniendo en riesgo vidas estadounidenses, a nuestras tropas y a la seguridad nacional. Por lo tanto, ordeno a todas las agencias federales que cesen inmediatamente el uso de la tecnología de Anthropic. No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos.”
Sin embargo, ciertas fuentes indican que la IA de Anthropic fue utilizada para los diversos ataques hacia Irán y para el secuestro de Maduro en Venezuela. Lombardi advierte que las “líneas rojas” que la empresa intenta establecer pueden ser leídas de diferentes maneras. “Puede ser una postura relevante o simplemente declarativa. En la práctica, muchas veces aparece la lógica de que, si una empresa no desarrolla cierta tecnología, otra lo hará”. Mientras tanto, otras compañías tecnológicas se mostraron dispuestas a ocupar el lugar que Anthropic dejó en suspenso. Empresas como OpenAI o Google manifestaron su disposición a continuar colaborando con contratos militares.
La disputa llega a la Justicia
A comienzos de marzo, Anthropic presentó una demanda contra el Estado estadounidense a raíz de las recientes medidas. La respuesta judicial no tardó en llegar y la jueza federal Rita Lin, del distrito de California, dictó una medida cautelar que suspendió temporalmente las sanciones impuestas por el gobierno de Donald Trump. En el fallo, se consideró que la decisión del Pentágono podría ser ilegal y que existían indicios de que se trataba de una represalia contra la empresa por haber cuestionado públicamente el uso militar de su tecnología.
La resolución frenó, al menos de manera provisoria, la orden que obligaba a las agencias federales a dejar de utilizar la inteligencia artificial de Anthropic y también la clasificación de la compañía como amenaza para la seguridad. Sin embargo, la jueza aclaró que el Departamento de Defensa puede optar por dejar de trabajar con la empresa, aunque no avanzar con medidas punitivas sin fundamentos legales.
El fallo representa una primera victoria para Anthropic en un conflicto que todavía está abierto. En ese contexto, el conflicto entre Anthropic y el gobierno de Estados Unidos deja al descubierto un dilema que, no sólo todavía no tiene margen legal, sino que también recién empieza a discutirse: quién define los límites del desarrollo tecnológico de la inteligencia artificial y hasta qué punto herramientas cada vez más poderosas pueden quedar completamente subordinadas a intereses militares y políticos sin ningún tipo de supervisión humana. Durante el último tiempo, la IA fue presentada como una promesa de progreso y eficiencia; hoy empieza a aparecer también como un nuevo campo de disputa por el poder global.
—
fuente: Inteligencia Artificial va a la guerra – ANCCOM”> GOOGLE NEWS



