
El campo de la defensa atraviesa una transformación profunda. La inteligencia artificial (IA) no solo asiste a los ejércitos: los está reconfigurando desde sus cimientos. El reciente análisis del Jack D. Gordon Institute for Public Policy, de la Florida International University, elaborado por Brian Fonseca y Nicole Writt, describe a la IA como “la nueva frontera de la guerra”, donde máquinas que aprenden y actúan a velocidades superiores a la humana comienzan a ocupar el centro del poder militar.
El estudio sostiene que los sistemas de defensa se encuentran en una transición estructural. Lo que antes se concebía como apoyo tecnológico se ha convertido en una infraestructura decisiva para planificar, operar y decidir. “El Ejército, la Armada y la Fuerza Aérea ya no son instituciones separadas de la transformación digital: son organizaciones tecnológicas”, afirman los autores. En ese marco, la IA deja de ser un complemento para convertirse en un eje estratégico, cuya velocidad de desarrollo supera los tiempos de la regulación y la capacidad institucional de respuesta.
La brecha entre los avances científicos y las aplicaciones públicas es creciente. Mientras los modelos de lenguaje generativo —como ChatGPT— representan la cara visible del fenómeno, los investigadores advierten que la ciencia militar vinculada a la IA se encuentra “dos o tres generaciones por delante” de lo que el público conoce. Esa asimetría, señalan, refuerza un modelo de innovación cerrado, dominado por grandes potencias y corporaciones tecnológicas con recursos que les permiten acceder a sistemas aún no regulados.
Más que discutir si la inteligencia artificial alcanzará un nivel de “superinteligencia”, el foco debe estar en su uso actual: quién la controla, con qué capacidades y bajo qué supervisión. En los ámbitos de defensa, los sistemas de IA procesan datos en tiempo real, anticipan escenarios y proponen cursos de acción. Lo que empezó como asesoramiento se acerca cada vez más al reemplazo, una transición que, según Fonseca y Writt, “marca uno de los dilemas más urgentes de nuestra época”.
El artículo distingue cuatro formas de interacción entre humanos y máquinas, que sintetizan el grado de integración de la IA en el ámbito militar. La primera es la de la máquina asesora, que asiste al decisor humano mediante el procesamiento de grandes volúmenes de datos. La segunda, la máquina como extensión, automatiza tareas complejas, multiplicando la eficiencia operativa. En el tercer nivel, la máquina colaboradora, humanos y algoritmos actúan en conjunto —como ocurre con drones y sistemas de detección en campo—. Finalmente, la cuarta modalidad, la máquina autónoma, plantea el escenario más disruptivo: sistemas capaces de actuar sin intervención humana, con autonomía para ejecutar operaciones críticas.
Esa última categoría introduce los mayores riesgos. Delegar decisiones de seguridad a sistemas autónomos supone un salto cualitativo en el modo en que los Estados conciben la guerra. El dilema no es solo técnico, sino político y moral: ¿cómo garantizar la responsabilidad en un entorno donde las decisiones pueden ser tomadas por una red algorítmica opaca incluso para sus creadores?
Fonseca y Writt destacan que esta integración avanza en paralelo a un fenómeno inseparable: la convergencia entre inteligencia artificial y ciberseguridad. El crecimiento exponencial de los dispositivos conectados —un nuevo equipo cada 1,6 segundos, según el informe— amplía la superficie global de ataque. Las fuerzas armadas no están exentas: son objetivo de ciberataques cada vez más sofisticados, que van desde el robo de información sensible hasta el sabotaje de infraestructuras críticas.
En este terreno, la IA tiene un doble papel. En defensa, permite detectar anomalías y neutralizar ataques en tiempo real. En ofensiva, es utilizada por actores criminales y adversarios estatales para perfeccionar malware de autoaprendizaje o ejecutar campañas de desinformación masiva mediante bots capaces de alterar percepciones y erosionar consensos sociales. El texto subraya que estas campañas “no solo afectan a las instituciones, sino también a la cohesión de los Estados y la estabilidad de sus democracias”.
Entre las innovaciones más relevantes se destacan los sistemas automatizados de prueba de penetración, capaces de identificar vulnerabilidades en redes sin intervención humana. Estas herramientas alivian la escasez de expertos en ciberseguridad, aunque no los reemplazan: la formación humana sigue siendo indispensable para interpretar resultados, definir estrategias y responder a incidentes complejos.
El documento dedica un capítulo central al debate ético sobre el uso letal de la inteligencia artificial. En Estados Unidos y otras potencias militares, crece la discusión sobre si puede admitirse que una máquina tome decisiones autónomas sobre el uso de la fuerza. Aunque las doctrinas vigentes mantienen la supervisión humana, ya existen sistemas que operan con márgenes mínimos de intervención. El ejemplo más citado es el de los misiles superficie-aire, que deben reaccionar en segundos ante amenazas inminentes. Esa velocidad, esencial en combate, también puede generar errores irreversibles: el derribo accidental de un avión comercial iraní por parte de la Armada estadounidense en 1988 es recordado como advertencia.
Para enfrentar este tipo de dilemas, el Departamento de Defensa de EE.UU. definió cinco principios éticos para el desarrollo y uso de IA militar: responsabilidad, equidad, trazabilidad, confiabilidad y gobernabilidad. Todos ellos apuntan a mantener el control humano, prevenir sesgos, garantizar la transparencia de los procesos y permitir la desconexión inmediata ante fallas o comportamientos no deseados.
América Latina, en cambio, aún se encuentra en una etapa inicial. Las normativas son fragmentarias y las capacidades institucionales desiguales. El informe sugiere avanzar hacia marcos de regulatory sandboxes —entornos de prueba controlados— que permitan evaluar tecnologías antes de su adopción masiva, junto con acuerdos regionales que armonicen regulaciones y promuevan cooperación técnica.
Fonseca y Writt concluyen que la inteligencia artificial redefine no solo el modo en que se combate, sino también cómo se organiza el poder y se concibe la seguridad. Frente a un escenario de automatización acelerada, advierten, es urgente reforzar los mecanismos éticos y políticos que aseguren el control humano significativo.
“La defensa del futuro no dependerá únicamente del armamento o del número de tropas —sintetizan—, sino de la capacidad de integrar sistemas inteligentes de manera responsable, transparente y coherente con los valores democráticos”.
—
fuente: Inteligencia artificial y defensa: el nuevo frente de la seguridad global – Revista Mercado”> GOOGLE NEWS