Federico Álvarez Larrondo: La inteligencia artificial hoy le permite a Estados Unidos tener …

El avance de la inteligencia artificial dejó de ser solo un tema tecnológico para convertirse en un factor que empieza a incidir en la geopolítica global. En un escenario internacional cada vez más tensionado, las nuevas herramientas digitales comienzan a aparecer en operaciones de inteligencia, análisis de datos y planificación estratégica dentro de los Estados. 

En diálogo con Radio Universidad, el abogado y docente en la Universidad Nacional de Mar del Plata, Federico Álvarez Larrondo, titular de la primera cátedra obligatoria en una universidad nacional argentina dedicada al estudio de la inteligencia artificial, analizó cómo estas tecnologías están impactando en los conflictos actuales y por qué el debate ético sobre sus límites se vuelve cada vez más urgente.

La inteligencia artificial y el ámbito militar

Federico Álvarez Larrondo, abogado y profesor de la UNMDP.

Para Álvarez Larrondo, el vínculo entre inteligencia artificial y conflictos armados no es nuevo, aunque en los últimos años empezó a adquirir una dimensión mucho más visible. Según explicó, ya existían antecedentes de utilización de estas herramientas en contextos militares, particularmente en sistemas automatizados de vigilancia o en tecnologías vinculadas a drones.

“Veníamos de una secuencia de hechos en donde la inteligencia artificial empezaba a participar en procesos de carácter militar. No todavía en una escala bélica como la que estamos viendo ahora, pero sí en operaciones donde comenzaban a aparecer estas herramientas”, señaló.

Uno de los ejemplos más claros, explicó, fue el desarrollo de drones capaces de identificar objetivos durante la guerra en Ucrania“Ya habíamos tenido algunos antecedentes cuando se empezó a ensayar en la guerra de Ucrania el uso de drones que podían identificar objetivos. El punto más álgido del debate aparece cuando se habla de drones con inteligencia artificial que puedan decidir por sí mismos qué hacer”, explicó.

Si bien estos sistemas todavía no toman decisiones autónomas, el debate sobre esa posibilidad ya está instalado. Ya que, la posibilidad de que una máquina pueda modificar una misión en pleno desarrollo o elegir un objetivo sin intervención humana es uno de los escenarios que más preocupan a especialistas y organismos internacionales.

El caso Maduro y la IA en operaciones de inteligencia

El debate volvió a intensificarse a comienzos de este año, luego de que trascendieran versiones sobre la participación de sistemas de inteligencia artificial en una intervención que permitió localizar al presidente venezolano Nicolás Maduro.

Donald Trump publicó en la red social “Truth social” la primer imagen de Nicolas Maduro capturado.

Álvarez Larrondo explicó que el episodio generó sorpresa dentro del mundo tecnológico. La operación, en la que fuerzas estadounidenses capturaron al presidente de Venezuela, Maduro, y a su esposa, abrió interrogantes sobre el rol de las nuevas tecnologías en los sistemas de inteligencia. En ese sentido, el especialista señaló que “días después empezaron a aparecer informaciones que señalaban que la inteligencia artificial había tomado parte en el proceso de inteligencia”, indicó.

Entre las tecnologías mencionadas apareció el nombre de Claude, un modelo de inteligencia artificial desarrollado por la empresa Anthropic. “Dentro de esos informes apareció la idea de que una de las herramientas utilizadas era Claude, una inteligencia artificial que se menciona muchas veces cuando se habla de modelos generativos”, explicó.

Sin embargo, el especialista aclaró que estas tecnologías no se utilizan de la misma manera que lo hacen los usuarios en la vida cotidiana, sino que forman parte de sistemas mucho más complejos de análisis de datos.

¿Cómo funcionan los sistemas que procesan información a gran escala?

Según explicó Álvarez Larrondo, la clave del funcionamiento de estas herramientas está en la capacidad de procesar grandes volúmenes de información de manera simultánea. Algo que para un ser humano sería prácticamente imposible de analizar en tiempo real.

“Hoy la inteligencia artificial puede mirar miles de cámaras al mismo tiempo y etiquetar lo que está viendo. Puede registrar autos, rostros, movimientos, horarios y generar datos permanentemente”, detalló. Toda esa información luego es procesada por modelos de inteligencia artificial que cruzan los datos disponibles para elaborar hipótesis, probabilidades sobre determinados movimientos o ubicaciones.

“Cuando se combinan cámaras, satélites, celulares y otros registros, la inteligencia artificial analiza todo eso y puede generar un informe diciendo que lo más probable es que una persona esté en determinado lugar”, explicó.

Para el especialista, la diferencia con la capacidad humana es enorme. “Para nosotros esa cantidad de información es imposible de decodificar, pero la inteligencia artificial puede encontrar patrones y relaciones entre datos que nosotros nunca veríamos”, sostuvo.

La disputa ética detrás de la IA

Más allá de su potencial tecnológico, el avance de la inteligencia artificial también abrió un debate profundo sobre sus límites y sobre quién debe establecerlos. En ese punto, Álvarez Larrondo destacó de nuevo el caso de Anthropic, la empresa que desarrolló Claude y que busca posicionarse en el mercado con un enfoque centrado en la seguridad y la ética.

La compañía incluso desarrolló lo que denomina una “Constitución de la Inteligencia Artificial”, un conjunto de principios que orientan el comportamiento del sistema. “Es una especie de carta magna que reúne valores fundamentales inspirados en los derechos humanos y en distintos principios éticos”, explicó.

Este sistema incluye mecanismos de control entre modelos de inteligencia artificial, diseñados para verificar que las respuestas respeten esos valores. “Utilizan lo que se llama modelos adversariales: una IA genera la respuesta y otra la evalúa para verificar si respeta estos principios. Si detecta que no los cumple, corrige el aprendizaje del modelo”, detalló.

Tecnología, poder y política

El debate sobre los límites de la IA también generó tensiones entre empresas tecnológicas y gobiernos. Según explicó Álvarez Larrondo, desde sectores del gobierno estadounidense se planteó la necesidad de eliminar ciertas restricciones éticas para ampliar el uso de estas herramientas en materia de defensa.

“Desde el Ministerio de Guerra de Estados Unidos le pidieron a la empresa que eliminara algunos de esos límites éticos para poder utilizar estas herramientas con mayor libertad”, contó. La respuesta de la compañía fue negativa. “Anthropic dijo que no estaba dispuesta a hacerlo, que esos límites eran parte central de su modelo”, explicó.

Ese conflicto refleja una discusión más profunda sobre el futuro de estas tecnologías y sobre quién debe definir sus reglas. “Cuando una tecnología deja de ser una herramienta y pasa a convertirse en infraestructura dentro de los Estados, la pregunta inevitable es quién fija los límites de esa inteligencia artificial”, advirtió.

fuente: inteligencia artificial hoy le permite a Estados Unidos tener …”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios