
El filósofo Tomás Balmaceda visitó Córdoba en el marco del ciclo “Saber y dudar” organizado por las escuelas paritarias Dante Alighieri y Castelfranco en conjunto con el Instituto de Cultura Contemporánea.
Balmaceda es doctor en Filosofía, profesor de la Universidad de San Andrés y co-fundador de GIFT (Grupo de Inteligencia Artificial, Filosofía y Tecnología). Conversó este jueves junto al periodista José Heinz frente a un grupo de alumnos de ambas escuelas. Además, respondió a algunas preguntas de La Voz en torno a sus temas habituales de trabajo.
–En la invitación a leer tu libro “Saber o no saber” hablás del valor del no saber, de la incertidumbre ante una era desbordada de información y de respuestas. ¿Qué querés decir con esto? ¿Qué rol creés que tiene la curiosidad en este momento de la historia?
–Creo que en esta era, en la que los algoritmos nos prometen todas las respuestas y al instante, el no saber se vuelve casi un acto revolucionario. Cuando con Silvia Bacher hablamos del valor de la incertidumbre, nos referimos a resistir la tentación de la respuesta automática, de ese saber “en alquiler” que nos da la nube pero que no nos pertenece. Saber no es solo acumular datos; es un proceso humano, lento y a veces doloroso, de conquista del conocimiento. ¿Qué rol tiene la curiosidad hoy? Es nuestra brújula en esta suerte de desierto de redundancia. En un mundo donde todo está diseñado para que no nos detengamos y sigamos produciendo o sigamos distraídos, la curiosidad es la que nos permite hacer la pregunta incómoda, la que interrumpe el scroll infinito de Instagram o TikTok para buscar el sentido y no solo el dato. Sin curiosidad, simplemente aceptamos el menú que la máquina eligió por nosotros.
La fricción necesaria
–¿De qué manera podemos discernir cuándo usar tecnología o herramientas de IA y cuándo no? Imagino que son varios los factores pero ¿qué cosas considerás prioritarias para formar un criterio en este sentido?
–Para mí hay una suerte de regla de oro: reintroducir la fricción donde el sistema nos empuja hacia la fluidez total. Lo humano es la tensión, la exploración, la instancia de detenernos a pensar. El pensamiento requiere fricción, pensar nos pone la piel un poco más gruesa y, por así decirlo, nos saca callos… debemos recuperar y defender esa característica humana. Creo que aún estamos explorando cómo llevar adelante eso en términos de un criterio de delegación cognitiva frente a la IA pero me imagino, por un lado, preservar siempre para nosotros la soberanía del juicio. No usar inteligencia artificial cuando la tarea requiera nuestro juicio ético, nuestra voz propia o nuestra capacidad de leer contextos humanos que la máquina ignora. Luego, pensar en nuestros deseos más vitales, usarla como una herramienta que libere tiempo para lo que realmente nos importa, como el encuentro con otros o la reflexión profunda y no como una prótesis que atrofie nuestras habilidades. Y por último incorporar la dimensión de transparencia y ética: preguntarnos de dónde vienen esos datos, quién se beneficia con nuestro uso y si estamos sacrificando nuestra privacidad por una comodidad anestésica.
–A finales de 2022 salió ChatGPT. Pasó bastante tiempo ya y la inteligencia artificial ha dado pasos importantes. ¿En qué cosas de nuestra relación con la inteligencia artificial creés que maduramos y en qué cosas nos ves aún muy verdes?
–Creo que muchos sentimos, con el impacto de ChatGPT, un asombro casi místico. Y la filosofía, que para los antiguos griegos también nacía del asombro, nos enseñó que a veces tras asombrarnos nos aterramos o nos entusiasmamos de más. Creo que estamos comenzando a encontrar ese punto clave en nuestro vínculo con los chatbots de inteligencia artificial. No son oráculos, sino como dijo Emily M. Bender “loros estocásticos” que predicen la siguiente palabra por estadística. Creo que uno de los objetivos de los que trabajamos en la divulgación y la comunicación pública es colaborar para pasar del deslumbramiento a un escepticismo saludable, explicando por ejemplo cómo la inteligencia artificial puede “alucinar” y que sus respuestas no tienen, por ejemplo, una experiencia del mundo detrás. Sin embargo, tenemos que trabajar para eso. Nos estamos acostumbrando a que la máquina nos diga cómo hablarle a nuestra pareja si estamos en crisis o cómo educar a nuestros hijos, buscando evitar la incomodidad del error humano. Ahí es donde reside nuestra mayor vulnerabilidad: creer que la eficiencia es lo mismo que la sabiduría (¡y en donde necesitamos a la filosofía más que nunca!)
El criterio de uso
–¿Usás inteligencia artificial para tu trabajo académico? ¿Cómo? ¿Qué recomendarías a estudiantes o gente que trabaja en investigación?
–Sí, utilizo muchas plataformas de inteligencia artificial siempre como “personal de apoyo” o asistente de investigación, algo que históricamente ha sido un lujo inalcanzable para muchos académicos. Mi enfoque no es chatear con un modelo en busca de ideas o para resolver dudas sino buscando la automatización de las tareas tediosas de la investigación filosófica. Por ejemplo, me ayuda a procesar grandes volúmenes de texto para identificar tensiones conceptuales o mapear bibliografía y para que analice mis borradores y encuentre debilidades en la estructura lógica. Como mencionamos con Miriam De Paoli y Juan Marenco en Los últimos humanos, la tecnología debe ser un catalizador, pero las decisiones finales en un texto son una de las trincheras humanas que no se delega. A quienes están hoy en los laboratorios o en las aulas, les sugeriría tres pilares para construir un criterio propio. Por un lado, evitar eliminar la fricción necesaria en todo aprendizaje. Por otro, no se apuren, ya que pensar requiere, por definición, tiempo y lentitud. Si un chatbot les da una respuesta masticada, está obstruyendo el proceso de descubrimiento. Por otro, evitar volverse “expertos” en una sola herramienta y, en cambio, conocer cómo es su lógica o funcionamiento general. En ese sentido, recomiendo un artículo que Mauro Santelli, un colega del Instituto de Investigaciones Filosóficas Sadaf / Conicet, publicó en el medio 421 donde habla de su propio proceso usando estas herramientas. El desafío hoy para quien investiga no es saber usar estas herramientas sino adquirir el criterio para entender cuándo usarla y cuándo evitarla para permitir que aparezca el asombro y la pregunta que ninguna máquina ha sido entrenada para formular.
Para leerlo
Tomás Balmaceda acaba de publicar el libro Los últimos humanos, coescrito con Miriam De Paoli y Juan Marenco y editado por Galerna. Al mismo tiempo, acaba de lanzar un libro editado por Paidós y coescrito con Silvia Bacher llamado Saber o no saber: el sentido de la educación en tiempos de inteligencia artificial.
—



