Riesgos y terrores de la inteligencia artificial – Perfil

Son tantas las áreas que sSi hablamos de riesgos, ya estamos conviviendo con muchos de ellos: el de perder nuestra capacidad de leer y escribir por recurrir al ChatGPT, nuestra capacidad de orientarnos en el espacio por depender de Waze, la capacidad de manejar, cuando se popularicen los vehículos autónomos; la utilización de deepfakes en secuestros, estafas virtuales y la manipulación de elecciones; de ser evaluados en exámenes y aplicaciones laborales, y en un futuro cercano, también juzgados y condenados por algoritmos en lugar de personas; de encomendar cuidados y terapias a entidades no humanas.

Muchos de estos avances tienen como consecuencia, además, la pérdida de puestos de trabajo, como en anteriores etapas de la Revolución Industrial: las máquinas vienen reemplazando a los humanos en el trabajo manual primero y ahora en el trabajo intelectual. Muy tempranamente, en 1873, Samuel Butler postuló en su novela Erewhon que las leyes de la evolución darwiniana podían aplicarse a las máquinas, que fabricarían versiones cada vez más perfectas de sí mismas y terminarían adquiriendo autoconciencia y reemplazándonos: una visión tecnológica de la supervivencia del más apto. Frente a estos peligros surgieron tempranamente movimientos de resistencia: los luditas, que rompían telares mecánicos a principios del siglo XIX, se prolongan en los neoluditas actuales: en la película Transcendence intentan asesinar al investigador de IA interpretado por Johnny Depp para impedirle alcanzar la singularidad tecnológica (una IA cuasi divina); los activistas antitecnología de los EE.UU. han descubierto que para desactivar un vehículo autónomo basta con colocarle un cono de tránsito sobre el capó.

A todo esto se agrega la creciente voracidad de agua, minerales y energía de esos sistemas. La Agencia Internacional de Energía calcula que para el final de esta década la IA consumirá tanta energía como el Japón entero, y el consumo de los datacenters duplicará en 2026 los valores de 2022, alcanzando el 4,5% del consumo mundial: se nos asegura que la IA contribuirá al desarrollo de las energías verdes, pero por ahora ha sido mucho más eficaz en aumentar la huella de carbono.

Esto no les gusta a los autoritarios

El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.

Y están, desde ya, los riesgos existenciales de poner las IA a cargo de las tecnologías de guerra. Lo decisivo, aquí, es su grado de autonomía: una cosa es que los misiles o drones sean manejados por operadores humanos, que deciden sobre qué o quién disparar; otra muy distinta es que sean autónomos, que identifiquen el objetivo y tomen la decisión de destruirlo por sí mismos. Uno podría pensar que dejar ataques con armas de destrucción masiva o ciberataques que dejen ciudades a oscuras y hagan caer los aviones a cargo de una IA no es mucho más riesgoso que dejarlos en manos de Kim Jong-un, Putin, Trump o Netanyahu. El problema, claro, es que ambas opciones pueden combinarse: armas autónomas en manos de políticos despiadados. Recomiendo el breve video Slaughterbots (Bots asesinos) disponible en YouTube, realizado por el Future of Life Institute y Stuart Russell, uno de los máximos especialistas en control de riesgos de IA: un enjambre de microdrones usa tecnología de reconocimiento facial para identificar a los estudiantes de una clase a partir de los perfiles de Facebook y eliminar a los que han visto ciertos videos o firmado determinado petitorio: como explica el propio Russell al final, este escenario ya es posible con la tecnología actual, que apenas espera la voluntad política de implementarlo.

Pero riesgo, peligro y aun daño concreto no equivalen a terror. Los ataques de tiburones causan entre cuatro y ocho muertes por año en el mundo, mientras que un millón doscientas mil personas mueren en accidentes de tránsito; aun así, Tiburón sigue metiendo más miedo que Cupido motorizado. El terror hunde sus raíces en el inconsciente, no solo de la cultura sino quizá de la especie, y poco y a veces nada tiene que ver con el riesgo concreto. Lo que realmente nos aterra y captura nuestra imaginación es la posibilidad de las máquinas adquiriendo autoconciencia y voluntad, y volviéndose contra nosotros. Estas fantasías siguen tres modelos básicos: las máquinas se rebelan contra los humanos e intentan aniquilarnos: Terminator. Las máquinas nos dominan y esclavizan: The Matrix. Las máquinas hacen todo por nosotros y terminamos atrofiándonos: Wall-E (solo en los primeros dos casos las máquinas “toman el control”; en el tercero, meramente hacen lo que les pedimos).

Se trata de un terror metafísico, más que un riesgo concreto: como explica la mayoría de los especialistas, no hace falta que las máquinas desarrollen ideas propias, deseo y voluntad, para aniquilarnos. Basta con una instrucción mal dada, con un algoritmo poco elaborado. Es el núcleo de la propuesta de Russell en su libro Human compatible y en las cuatro Reith Lectures de 2012, disponibles en la página de la BBC: el peligro no es que las máquinas hagan lo que ellas quieran, sino que hagan exactamente lo que les pedimos.

El gran descubrimiento de los programas de juegos como Deep Blue en el ajedrez y AlphaGo en el Go no estriba únicamente en que hayan logrado derrotar a los jugadores humanos, sino que lo hicieran con jugadas que ningún jugador humano, en los miles de años que existen estos juegos, había imaginado. Esto sucedió cuando se modificó su modo de aprendizaje: en lugar de alimentarlos con las partidas jugadas por los humanos a lo largo de la historia, como se hacía en un principio, se les enseñaron las reglas del juego y luego se las dejó jugar contra otra versión de sí mismas. Lo mismo sucederá en todos los aspectos de la vida: la máquina hará lo que le pidan, pero según su lógica. Y como es distinta de la nuestra, no podemos anticipar lo que hará y por lo tanto no podemos escribir las necesarias restricciones en su programa.

Otro especialista en IA, Nick Bostrom, en su libro Superinteligencia, explica cómo una IA benéfica puede terminar causando una catástrofe existencial con el ejemplo del maximizador de clips: “Supongamos que tenemos una IA cuyo único objetivo es hacer tantos clips como sea posible. La IA se dará cuenta rápidamente de que sería mucho mejor si no hubiera humanos porque los humanos podrían decidir apagarla. Además, los cuerpos humanos contienen muchos átomos que podrían convertirse en clips. El futuro hacia el que la IA trataría de orientarse sería uno en el que hubiera muchos clips pero no humanos”. “Convergencia instrumental” es el inocuo nombre que se le ha dado a esta visión informática del Apocalipsis.

Durante décadas me pregunté cómo podría nuestro universo de galaxias, estrellas y planetas ser reemplazado por uno de libros, como imagina Borges en La biblioteca de Babel. Estas fantasías tecnológicas ofrecen una respuesta posible: en el futuro, alguien dará a una IA general la instrucción de crear una biblioteca que agote todas las combinaciones posibles de las letras en un libro de determinado formato: suponiendo que vaya construyendo los anaqueles y edificios a la vez que imprime los libros, y que vaya dejando algunos seres humanos con vida para que hagan de bibliotecarios, agotará la materia de nuestro planeta, luego la del sistema solar, la de nuestra galaxia y finalmente del universo entero; si su prioridad es la impresión de libros, eventualmente tendrá que recurrir a los átomos de los bibliotecarios mismos, hasta alcanzar el estado de quietud final imaginado por el narrador de Borges: “Sospecho que la especie humana está por extinguirse y que la biblioteca perdurará: iluminada, solitaria, infinita, perfectamente inmóvil, armada de volúmenes preciosos, inútil, incorruptible, secreta”.

*Escritor.

fuente: inteligencia artificial – Perfil”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios