
( POR Alfredo Moreno/ Motor Económico) La inteligencia artificial (IA) se ha instalado en el corazón de la ciberseguridad, en las agencias de inteligencia y en la toma de decisiones en entornos de alto riesgo. Estableciéndose como una capa de análisis para operar con volúmenes de datos que ningún equipo humano podría procesar en tiempo real. En febrero de 2026, el Pentágono presionó a la compañía Anthropic propietaria de Claude IA para usar este modelo para “todos los fines lícitos”, El antecedente del uso del modelo Claude, se puso en evidencia en el operativo donde el Pentágono secuestró al presidente de Venezuela Nicolás Maduro.La plataforma operativa de la compañía Palantir y su integración con Claude IA, configuran la gran herramienta de software para lagestión y entrega de perspectivas y ponderaciones basados en el análisis de miles de datos y variables del Pentágono.

Cuando plataformas operativas como la de Palantir que integra una IA para el análisis de datos, se conectan a objetivos de seguridad y vigilancia, el debate deja de ser tecnológico y se vuelve político, ético y operativo.
La carrera por dominar la inteligencia artificial se ha ido concentrando hasta dejar a un grupo de corporaciones que compitenen más alto nivel de gobiernos.
Anthropic forma parte de ese grupo reducido junto a OpenAI o Google, y su modelo Claude han ganado terreno en ámbitos como la programación e integración con plataformas de software para la gestión operativa militar.
Esta empresa, se enfrentóa una decisión que implica mantener límites en su modelo de IA cuando es utilizado en el sector militar o acceder a la presión del Departamento de Defensa de Estados Unidos que pretende se levanten estas funcionalidades de la tecnología Claude.
Empresa y Estado firmaron un acuerdo para el uso del modelo de 200.000.000 dólares. Así, Claude se integró a la plataforma de Palantir para convertirse en el sistema operativo del Pentágono con profundidad en la gestión logística y militar, con las limitaciones del modelo explicitadas contractualmente.
La presión del Pentágono es para que Claudeno mantenga límites sobre armas autónomas y vigilancia masiva, y pueda ser utilizado para “todos los fines lícitos”, incluso en áreas especialmente sensibles como el desarrollo de armas, la recopilación de inteligencia o las operaciones en el campo de batalla. La tensión creada amplio la mesa de posibilidades para que otro proveedor de IA como Open AI acupe este lugar.
Esta alternativa ofrecida por Sam Altman ceo de Open AI no es tan inmediato; Claude/Anthropicya está muy integrada en todos los sistemas, procesos y servicios que el Departamento de Defensa utiliza de forma cotidiana. Es un barco demasiado grande como para que cambie el rumbo. Conoce demasiado de los interiores de esos sistemas que deben ser altamente secretos. Pero Estados Unidos tiene una palanca para adueñarse del modelo. Lo único que debe argumentar es que sea por una necesidad de seguridad nacional.
Antecedentes para argumentar
En 1950, durante la Guerra de Corea, nació la Defense ProductionAct, una ley que otorga al presidente poderes para asegurar suministros necesarios para la defensa nacional. Esto, por ejemplo, da poder al Gobierno para exigir a las empresas que prioricen contratos con el Estado para asignar materiales, servicios e instalaciones. También permitir ayudas para ampliar la capacidad productiva y, en definitiva, poner a las mayores empresas del país a funcionar en función de lo que se necesite.
Esta normativa se ha ido expandiendo y ampliando en el tiempo, las necesidades de 1950 no son las mismas que las de décadas posteriores, y en 2023 se firmó la Orden Ejecutiva 14.110. Es una normativa que obliga a los propietarios de los modelos de IA más potentes a notificar al Gobierno cuando entrenen sistemas que puedan suponer un riesgo para la seguridad nacional, la economía o la salud pública.
Según el concepto “el de ordenar que ciertos productos o servicios se suministren al Gobierno”, el Pentágono podría hacerse con la IA de Anthropic para que cumpla sus objetivos de defensa nacional. Si la empresa no quiere que su IA haga ciertas cosas funcionalidades por límites morales, pasa a ser propiedad del Pentágono y elimina la barrera ética.
Castigo disciplinario a la “IA woke”
Pete Hegseth, secretario de Defensa de EE. UU ha calificó a Anthropic por las limitaciones del modelo IA como la de una “IA woke” además de sostener la posibilidad de reemplazar Claude por un modelo de Google, OpenAIoxAI que permiten que el Gobierno de EE.UU use sus modelos en cualquier escenario “legal”. Además,con la utilización de la normativa de la Defense ProductionAct, Estados Unidos puede castigar a quienes pongan en riesgo la cadena de suministros del país.
El caso Claude–Pentágono y la integración conPalantir no solo es sobre vigilancia. Hablan de una transición: la ciberseguridad se ha convirtiendo en un sistema de decisiones asistidas por IA, donde los datos son el insumo principal y la interpretación puede automatizarse.
El presidente de EE. UU Donald Trump anuncio el pasado viernes 27 de febrero, que ha ordenado a todas las agencias federales suspender el uso de tecnología de Anthrópic y agrego que habrá un reemplazo en 6 meses por OpenAI. “Los lunáticos izquierdistas de Anthropic cometieron un grave error al intentar obligar al departamento de guerra a obedecer sus términos de servicios en lugar de nuestra constitución”.
Anthropic quiere demostrar que es una empresa responsable y preocupada por la seguridad. Esa es su marca. Y el Pentágono dice: ¡Esta es la empresa woke de la IA! ¡Estamos tomando medidas enérgicas contra lo woke! Esa es la marca del movimiento MAGA (hacer américa grande).
En este escenario, la pregunta relevante es ¿bajo qué controles, con qué auditoría y con qué límites se utilizarán los modelos de IA en Ciberseguridad.
Modelos con Claudepueden ayudar a procesar y resumir grandes volúmenes de datos, priorizar alertas y detectar patrones. En entornos de seguridad, eso puede acelerar decisiones, pero también introduce riesgos si no hay gobernanza y conocimiento público.
Palantir desarrolla plataformas de monitoreo, recolección y análisis de datos utilizadas por distintos gobiernos. Su reputación está asociada a usos de inteligencia, observación, seguimiento y seguridad, lo que implica vigilancia y control de lo público sin debate social y regulación en cada país.
La tecnología acelera, pero las normativas se construyen a unavelocidad más lenta o no se realizan. La aceleración y desaceleración política tiene intereses para que así suceda. La Argentina en este presente en un ejemplo que no debemos imitar sobre el descuido de su población.
Alfredo Moreno
—



