
“En noviembre de 2022 nos cayó a todos la inteligencia artificial, y desde entonces estamos tratando de entenderla. Si bien la idea no es nueva, porque se empezó a pensar en la década del 50, recién ahora la tecnología permitió su desarrollo. Pero lo que hoy usamos —como ChatGPT— no es la inteligencia artificial general que uno imagina en las películas: no razona, no entiende ni toma decisiones; trabaja a partir de la probabilidad y la estadística”, explicó Fabio Tarasow.
El especialista de la facultad Latinoamericana de Ciencias Sociales remarcó que “no hay ninguna entidad detrás de la IA actual que pueda razonar como un humano. Opera sobre datos y genera la ilusión de entendimiento, pero en realidad sólo calcula cuál es la palabra más probable que sigue en una frase”. Por eso, planteó la necesidad de “conocer sus límites para aprovechar sus posibilidades reales”.
En cuanto a su impacto en el mundo laboral, Tarasow consideró que “todavía no hay un uso masivo de la inteligencia artificial a nivel empresarial, porque eso implicaría entregar todos los datos de una compañía a las corporaciones que desarrollan las IA”. Sin embargo, destacó que “sí hay una apropiación individual: los profesionales y estudiantes que saben usarla amplían sus capacidades y tienen más posibilidades de éxito. No se trata de reemplazar al humano, sino de combinar sus habilidades con la potencia de la máquina, lo que se conoce como inteligencia híbrida o modelo centauro”.
Sobre la educación, el académico fue tajante: “No podemos pensar en prohibir la inteligencia artificial en las escuelas. Al contrario, hay que incorporarla, porque es el espacio donde los chicos deben aprender a usarla críticamente. Aquellos que entiendan cómo funciona tendrán más oportunidades en el futuro. Quitar la IA de la escuela es marginarlos del mundo que viene”.
En esa línea, sostuvo que el problema del “copiar y pegar” no radica en los alumnos sino en las consignas docentes: “Si un estudiante puede resolver una tarea copiando y pegando, el problema está en la consigna. Debemos proponer actividades donde el alumno tenga que pensar, analizar y construir a partir de la información que le brinda la IA”.
Tarasow también advirtió sobre los riesgos de la desinformación y el uso acrítico de estas herramientas: “La inteligencia artificial puede dar respuestas coherentes, pero vacías. Parece un alumno que ‘guitarrea’ en un examen: habla con confianza, pero sin contenido real. Por eso es fundamental una alfabetización en inteligencia artificial que permita mirar estas tecnologías con sentido crítico y no aceptarlas de manera reverencial”.
Finalmente, reflexionó sobre los desafíos sociales y comunicacionales que plantea el fenómeno: “Cada vez menos gente busca información en Google; ahora le pregunta directamente a la IA, que devuelve una sola voz. Ya no hay enlaces, no hay contexto ni se sabe desde dónde habla. Eso refuerza las burbujas informativas y nos encierra en visiones únicas del mundo. La personalización, que parece una ventaja, en realidad nos aísla y debilita el diálogo social”.
“Tenemos que aprender a convivir con estas herramientas, entenderlas y ponerles límites éticos y educativos. La inteligencia artificial no debe reemplazarnos, sino potenciarnos”, concluyó. (www.REALPOLITIK.com.ar)
¿Qué te parece esta nota?
—
COMENTÁ / VER COMENTARIOS


