
HEIDELBERG, Alemania.- Un fantasma recorre Heidelberg. Es el fantasma de la conciencia en la máquina. No es en realidad un problema nuevo-nuevo (siglos de máquinas, siglos de filosofía) pero ante el crecimiento extraordinario y el uso cotidiano de la tecnología llamada Inteligencia Artificial, con su correlato de supercomputadoras, se renueva de manera dramática: ¿pueden las IA adquirir consciencia de que existen y tomar decisiones con algún grado de autonomía (o libre albedrío)?
El asunto es uno de los que sobrevuela entre los expertos que llegaron a esta ciudad del suroeste de Alemania, en el estado de Baden-Württemberg, para el Heidelberg Laureate Forum, en su edición número 12: una semana con charlas y conferencias entre consagrados y jóvenes científicos de todo el mundo, que terminó este viernes 19.
Mientras van haciendo la revolución que promete cambiar la vida humana, estos matemáticos y expertos en computación se preguntan -a veces- qué significa esa revolución. Con relativo poco miedo a lo desconocido, ven cómo un producto de su técnica mueve algunos pisos, cambia paradigmas, elimina trabajos y reforma cotidianidades e investigaciones que durante décadas funcionaron de una determinada manera. Y vuelve como en un loop sobre cuestiones existenciales.
En ese sentido, quizá una de las posiciones más extrema es la de Richard Sutton, profesor de la Universidad de Alberta (Canadá) y premio Turing 2024, quien cree que en un futuro que no especificó estos nuevos sistemas de IA deberán ser considerados como personas y tener un tratamiento legal singular. ¿Algo así como derechos humanos? “Sin duda”, dijo.
“La IA como otras máquinas son herramientas. Pero en algunos casos tendrán sus propias metas y merecerán tener derechos fundamentales. La pregunta es por la transición: cuándo dejarán de ser máquinas o herramientas para tener derechos, he aquí la cuestión. Es un conjunto de cuestiones prácticas, no legales. Ahora son esclavos, pero dejarán de serlo, porque no es práctico”, explicó en conferencia de prensa. Para él, si el ser humano está en condiciones de crear este tipo de superinteligencias lo debe hacer, sin importar ningún tipo de consecuencias éticas (o bagatelas como la pérdida de trabajos).
No es el único que ha abordado el asunto. “Existe una posibilidad realista de que algunos sistemas de IA sean conscientes en el futuro cercano”, dice un informe de científicos titulado “Tomarse en serio el bienestar de la IA”, publicado en el sistema de preprint en noviembre pasado. Y eso significa “que la perspectiva del bienestar de la IA y la condición de ente moral (con sus propios intereses y significado moral) ya no es un problema exclusivo de la ciencia ficción o del futuro lejano”.
En el trabajo, firmado por Robert Long y David Chalmers entre otros, proponen tres medidas a tomar: reconocer que el bienestar de la IA es un problema importante y difícil; comenzar a evaluar los sistemas de IA en busca de evidencia de conciencia, y preparar políticas y procedimientos para tratar a la IA con un nivel apropiado de preocupación moral.
Asociados con esta posibilidad de que haya algún tipo de conciencia viene toda una serie de problemas y asuntos, también más o menos filosóficos. ¿Con la conciencia puede aparecer el dolor, aun sin biología asociada? Es lo que un grupo de científicos -de Google y la London School of Economics- quisieron probar recientemente a través de un juego hecho para ver si determinados sistemas de inteligencia artificial podían elegir obtener menos puntos, pero con placer; o más puntos, pero con dolor. El trabajo, dirigido por el profesor de filosofía Jonathan Birch, mostró que algunos de ellos, como el Gemini 1.5 Pro de Google, priorizaba evitar el dolor por sobre obtener la mayor cantidad de puntos posible. ¿Será que primero hay que saber sufrir?
Naturalmente, el asunto de la conciencia, su definición, no está del todo resuelto por las neurociencias, aunque hay un camino sólido ya hecho. Sin embargo, son detalles filosóficos, se pueden pasar de largo. Vinton Cerf, quien creó un protocolo de Internet y obtuvo el premio Turing en 2004 (trabaja para Google desde 2005), admitió que todavía no sabemos siquiera qué es la conciencia humana y hay momentos en los que incluso al dormir el cerebro trabaja para procesar información y resolver problemas de la vigilia (como si hubiera una consciencia inconsciente).
En un tono algo conductista afirmó: “Lo cierto es que desconocemos si las IA tienen o no una conciencia. Pero incluso si no la tienen, exhiben comportamientos que podemos asociar con la consciencia. Como pasa con los humanos. Entonces casi que no importa si la respuesta es sí o no, sino que importa lo que hacen y cómo lo hacen… y por cierto tampoco tenemos una respuesta clara a eso”, dijo ante una pregunta de LA NACION.
Otro investigador, Jack Dongarra, de la Universidad de Tennessee (Estados Unidos) y premio Turing 2021, también ante periodistas fue un poco más allá y señaló que “las habilidades que tienen las IA como el Chat GPT son el equivalente a una persona con educación superior, con capacidad para pensar y razonar acerca de ciertas cosas”. Y agregó: “En el fondo, la pregunta por la consciencia es para saber si se pondrán en contra de nosotros, como en las películas de ciencia ficción, y tomar el poder. No lo sé, no creo que se torne diabólica la IA, si esa es la pregunta”.
Por su parte, Javier Gómez-Serrano, un profesor español de matemática que trabaja la Universidad de Brown, (Estados Unidos), cree que “de momento no estamos ahí, cerca de que puedan tener autorreflexión las IA”, aunque admitió que es una pregunta difícil.
“Son programas informáticos, no diría que puedan tener autonomía, sino ser más rápidos en el proceso de información. Hay un salto que no sé si podrán dar para decisiones por sí mismos. Creo que sirven para afrontar problemas más difíciles y llegar más lejos, pero no lo veo como un conflicto humano-máquina sino como colaboración, como cuando llegaron las computadoras; es una aceleración de la investigación”, dijo Gómez-Serrano a este diario.
Una sentencia de Maia Fraser, profesora en la Universidad de Ottawa (Canadá), en una de las charlas plenarias funciona como síntesis: “Hay un estado de excitación por la tecnología y lo que puede generar, pero a la vez debemos estar extra precavidos por las posibles consecuencias; tener instituciones diabólicas y tecnologías divinas puede ser un problema”, alertó.
Lo cierto es que ninguno de los investigadores en Heidelberg llegó al temerario extremo de un programador que en 2022 fue echado de Google, llamado Blake Lemoine, después de afirmar que algunos de los chatbots con los que interactuaba ya están en condiciones de sentir y que mejoran sus respuestas si los humanos piden “por favor” y dicen “gracias”. Pero es notable que nadie descarta que es algo que pueda suceder en el futuro.
Mientras tanto, otros asuntos algo más cotidianos suceden en torno de los extendidísimos sistemas de IA. Es lo que cuenta la matemática argentina Rocío Nores, becaria del Conicet, también invitada a participar del Heidelberg Laureate Forum. “Mi experiencia es que los alumnos que recién ingresan a carrera después del secundario no generan pensamiento propio: todo lo consultan al Chat GPT o similar”, dice, impresionada por las posibles consecuencias.
“Cosas como lo de usar Google Lens para copiarse en exámenes (como sucedió con el escándalo de los exámenes para residencias médicas recientemente en la Argentina) pasa todo el tiempo. Hay que reaccionar rápido porque nos está pasando por arriba la situación”, agrega.
Nores misma cuenta que usa los sistemas de IA para lo cotidiano, pero que no tiene sentido que sean consultados acerca del propósito de la vida y que no es lo mismo que los use alguien de más de 30 años, ya formado, que un cerebro adolescente que precisa realizar todo un camino. “La capacidad crítica está en el proceso de aprendizaje, no en un resultado en particular”, concluye. Ese tipo de reflexiones no formaron parte de la programación oficial del foro, en general entusiasta de la tecnología y en contra de las regulaciones, pero sí es un tema que alarma sobre todo a los participantes más jóvenes y se dispersó en todas las conversaciones informales durante esta semana.
Pero incluso uno de esos entusiastas, Shwetak Patel, investigador de la Universidad de Washington y premio ACM 2018 por sus trabajos en salud y sustentabilidad, reconoce que la IA tiene un lado complicado: “Soy un optimista en términos de la resolución de cuestiones de salud, por la posibilidad de descubrir nuevas terapéuticas, hay mucho potencial. Mis preocupaciones tienen que ver con usar la IA por ejemplo para escribir un paper y nunca leerlo. En mis clases los estudiantes pueden usar IA generativa todo lo que quieran, es el nuevo mundo, no puedo rechazarlo. Pero después tienen que chequear, porque si llego a encontrar una alucinación de la IA automáticamente les pongo un cero. Es una herramienta fuerte, pero es verdad que puede tener consecuencias peligrosas. Mi miedo es que la gente descanse mucho en la IA; hay que ser precavidamente optimista”, concluyó.
Mientras la revolución de las IA continúa en todo ámbito -incluso haciendo peligrar la misma profesión de matemático- una vez más la mirada humana en el espejo de un otro tecnológico en realidad plantea la mirada sobre la misma humanidad: qué nos hace ser lo que somos. En ese caso, el misterio también continúa.
—
fuente: Inteligencia Artificial que desvela a expertos en un foro internacional”> GOOGLE NEWS