Inteligencia Artificial, desafíos y dilemas éticos en la periferia del nuevo mundo tecnológico

“Hoy el conocimiento es el bien más preciado que tienen las sociedades, y no lo digo porque soy científico” sentencia, siempre claro, Francisco Tamarit, exrector de la Universidad Nacional de Córdoba y exdecano de la Facultad de Matemática, Astronomía, Física y Computación (Famaf) de la UNC, de cuyo Departamento de Física es profesor titular.

Investigador principal del Conicet, en el Instituto de Física Enrique Gaviola, y otrora miembro y fuente de consulta de organismos como la Unesco, Tamarit se apasiona al responder a Perfil Córdoba sobre un tema donde se entrelazan la ciencia y la política, la geoestrategia con la economía y la ética con desafíos de cara al futuro que ya son parte de nuestro acelerado presente.

–A poco de ser ungido pontífice, León XIV afirmó que las nuevas tecnologías o la Inteligencia Artificial (IA) implican una revolución que traía aparejados dilemas éticos, ¿cuáles crees que son esos dilemas?

–¡Un montón! Esta es la primera tecnología que emula el funcionamiento de un cerebro. Se basa en un principio muy conocido que es el paradigma conexionista, según el cual la información se codifica en las uniones entre las neuronas, que llamamos sinapsis. Es un paradigma de inteligencia artificial basado en emular cómo funciona un cerebro y eso tiene consecuencias importantes, porque no sabemos muy bien qué puede pasar en el futuro. Ha habido otros paradigmas; uno que se llamó lógico-simbólico, otro que se llama estadístico, otro evolutivo. Hay muchas formas de encarar el problema de la Inteligencia Artificial pero el que se destapó y ganó es este conexionista. Se llama conexionista porque el secreto de la inteligencia, de la forma en que los seres vivos procesamos la información, no está en las neuronas sino entre las neuronas, en los lugares donde las neuronas se tocan. Eso nos pone en un dilema bastante importante porque si en algún grado imitamos lo que hace un cerebro, ¿qué pasará cuando podamos hacer cerebros mucho más grandes? No sabemos. Podemos hacer especulaciones y preguntarnos si estos sistemas algún día van a desarrollar conciencia; podemos tener convicciones o creencias, pero no se puede afirmar. Si alguien hubiera preguntado en 2000 si hoy íbamos a tener la inteligencia que tenemos hubiéramos dicho que no, que esto era para el siglo que viene.

Con amigos como Trump…

–¿Y en manos de quiénes están estos cambios?

–Ese es otro desafío. Por primera vez los Estados han perdido la hegemonía del control y las universidades han perdido la vanguardia de la construcción del conocimiento, y esto se ha concentrado en un grupo de muy pocas empresas tecnológicas que son las únicas que están en condiciones de hacer hoy estos grandes modelos de lenguaje, que requieren buenos algoritmos, enormes centros de datos de computación y un montón de esos datos. Hay que bajar esos datos y tenerlos disponibles y eso no lo puede hacer hoy una universidad, de ningún país del mundo. Los Estados y las universidades han perdido la hegemonía en el control y la creación de estas tecnologías, de por sí muy difíciles de controlar. ¿Cómo saber qué pasa dentro de un chip o de una placa? Los resultados los tienen estas grandes tecnológicas… Todo esto genera una enorme concentración de riqueza y ha desplazado a sectores de la economía que eran fundamentales. Hoy el bien más preciado que tiene una sociedad es el conocimiento, que viene también de todos estos modelos capaces de hacer grandes predicciones. Eso nos pone ante otro montón de dilemas.

–Por ejemplo, ¿cuáles?

–Para empezar, el tema laboral. Qué va a pasar con el trabajo es un desafío ético que tenemos; ¿qué vamos a hacer con la gente que va a quedar en el camino? Algunos dicen, siempre que hubo grandes cambios pasó esto y es verdad, pero nunca lo habíamos visto a este ritmo. Esto no es parecido a la revolución de la máquina de vapor, ni a la de la electricidad, ni a la de la informática. Es mucho más rápida. Otro dilema ético que tenemos es que ellas aprenden lo que nosotros les enseñamos. ¿Y quién decide qué se les enseña? Seguramente ni vos, ni yo; ni una universidad pública, ni una privada. Lo decide la gente que es dueña de estas megaempresas. Otro problema es que son tecnologías que nosotros llamamos “opacas”. Los científicos estábamos acostumbrados a que cuando hacíamos una inferencia (estas son máquinas de hacer inferencias) y alguien nos preguntaba cómo hacíamos esa inferencia siempre le podíamos explicar matemáticamente las razones y con estos sistemas no se puede. Son muy grandes, manipulan unas funciones extremadamente complicadas, tienen un problema de explicabilidad. Tienen sesgos, como tenemos todos los seres humanos, en el sentido de que toman partido por diferentes aspectos, y no entendemos muy bien qué es lo que hace que tomen partido. Lo único que puedo decirte es que nosotros también somos opacos. Lo que sí sabemos hoy es que un gran ensamble de muchísimas y muchísimas neuronas puede hacer buenas inferencias. La pregunta es si un ensamble de muchísimas neuronas, más que las que tenemos hoy, y más sinapsis, podrá algún día ser un sistema que tenga conciencia. No lo sabemos.

La concentración del poder en pocas empresas

–Si ni los estados, ni las universidades pueden asumir un papel clave en el manejo de la Inteligencia Artificial, ¿se acentúa el poder de los “tecno oligarcas” en perjuicio de conceptos y valores de la democracia?

–Claro, y esto incide en el uso democrático de la tecnología. Elon Musk acaba de sacar una inteligencia artificial que hoy es la más potente y se llama Grok 4. Ellos tienen 200 mil placas de computadora, es decir que tienen funcionando 200 mil computadoras al mismo tiempo para que esa Inteligencia Artificial funcione. Eso tiene además grandes desafíos ambientales; para hacer esas 200 mil placas hubo que recurrir a grandes cantidades de minerales muy variados, desde arena a tierras raras. Además esas máquinas tienen una vida media muy corta, porque es tan rápido el crecimiento que dentro de cinco años hay que cambiarlas. Y esas máquinas calientan mucho, disipan mucha energía y requieren de grandes equipos de refrigeración. Entonces ¿qué vamos a hacer para refrigerar esas máquinas? ¿Cuánta agua estamos dispuestos a usar? ¿Vamos a diseñar tecnologías que no usen agua para enfriarlas? Son todos dilemas en los cuales no estamos pensando. Mientras, el número de centros de cómputos o centros de datos crece y también es parte de la guerra fría que existe hoy entre China y Estados Unidos. Así como antes se controlaba el plutonio, hoy se controlan lo que llamamos las placas gráficas y es muy sorprendente ver este proceso.

–Al hablar de que las máquinas “aprenden lo que les enseñamos”, se puede mencionar a Geoffrey Hinton, un psicólogo que se fue de Google denunciando manejos oscuros.

–Sí, este psicólogo fue también premio Nobel de Física el año pasado.

–¿Por qué tanta gente se va de estas tecnológicas o de Silicon Valley, fastidiada y con muchas críticas a lo que ve ahí adentro?

–Porque es un manejo muy oscuro; si resultaba oscuro aunque lo manejen universidades y Estados, imaginate que los maneje un directorio de pocas personas. Vimos la crisis que vivió OpenAI; la salida de Elon Musk; la pelea con Peter Thiel, la renuncia de Sam Altman, que se tuvo que volver atrás… Hay decisiones que toma a puertas cerradas un grupo muy pequeño y no sabemos qué están haciendo hoy, qué está en la gaveta esperando para salir. Hay mucha gente que tiene pruritos éticos y dice: “Yo no quiero estar en esta carrera”; pero la mayoría de la gente no tiene ningún prurito porque los salarios de los ejecutivos de estas empresas han superado todo lo que se conocía en el capitalismo moderno.

62 días del nuevo desorden mundial

–Estos tecnócratas o tecno oligarcas, ¿son quienes pronto se van a sentar a la mesa a decidir el futuro de todos?

–Creo que ya lo están decidiendo. Ves que hay disputas entre ellos. Tenés gente como Peter Thiel o Elon Musk, que se autoproclaman como libertarios de la nueva derecha o la ultraderecha y llegan al absurdo de acusar a Bill Gates de ser comunista. Parece una broma de mal gusto, pero al mismo tiempo de que son capaces de generar estas mega empresas, con semejante capacidad de hacer lucro, dicen cosas tan alocadas como esa. Es parte del fenómeno global que estamos viendo.

–En este contexto, ¿ves necesario construir un nuevo Humanismo, como sugería el papa Francisco y también León XIV?

–Es fundamental.

–¿Y cómo se hace?

–Es muy difícil. Hoy el conocimiento es el bien más preciado y no lo digo porque soy científico. Lo que tenemos que tratar es de que la gente tome conciencia y pueda resolver. La ciudadanía debería decidir qué hacer, cómo regular, cómo controlar, pero esto es difícil y no es la dirección en la que parecen ir los países, por lo menos de Occidente. Al Papa Francisco una vez le preguntaron qué le producía la Inteligencia Artificial y dijo algo así como: “Estoy acostumbrado a tener tiempo para entender los cambios y cuando los cambios llegan tan rápido y nos los puedo entender, entonces me angustio”. Es lo que también sentimos nosotros. Vemos las tecnologías, las aplicaciones, todo cambia tan rápido que empezamos a sentir que no podemos seguirlas, que no podemos acompañarlas, que no nos alcanza la plata para comprarlas. Todo se monetiza, todo hay que pagarlo.

fuente: Inteligencia Artificial, desafíos y dilemas éticos en la periferia del nuevo mundo tecnológico”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios