
La investigadora de la Universidad Nacional de La Plata y el CONICET, María Alejandra Zangara, analiza cómo la irrupción de la inteligencia artificial generativa desafía a la enseñanza tradicional. Entre la fascinación y el miedo, advierte que el verdadero desafío no es tecnológico, sino pedagógico: formar docentes y estudiantes capaces de pensar con la herramienta, no contra ella.Magalí de Diego
Algunas aulas ya no huelen a tiza y pizarrón. Atrás quedaron los bancos alineados en filas impecables y los libros o fotocopias anilladas. Hoy, en la mano de muchos estudiantes aparece un celular, la clase puede ocurrir entre videoconferencia o foro, y una herramienta de inteligencia artificial generativa (IAG) responde una pregunta antes de que el profesor la teclee.
Desde la Universidad Nacional de La Plata, María Alejandra Zangara, investigadora de CONICET y directora del área de Educación a Distancia de la Facultad de Informática, trabaja en el cruce entre tecnología y pedagogía, en un contexto en el que la irrupción de la inteligencia artificial generativa volvió a poner a prueba la relación entre docentes, alumnos y conocimiento. Y pone una incógnita en el centro de la escena: ¿cuán beneficioso o perjudicial puede resultar la IAG en la educación? “Venimos de una época donde la tecnología no era digital sino analógica -el pizarrón, la tiza, el aula, cómo estaban alineados los bancos-, y hoy estamos cuestionándonos si podemos prohibir el uso del chat GPT”, dice con cierta ironía Zangara, profesora en Ciencias de la Educación y doctora en Ciencias Informáticas. “Lo que pasó desde hace tres años es que se liberó una aplicación de inteligencia artificial generativa, y esa característica -la posibilidad de aprender de la interacción con los humanos- la hace tan potente como desafiante”, explica, en diálogo con la Agencia CTyS-UNLaM. La IA generativa a la que hace referencia Zangara es Chat GPT, que hizo su irrupción en noviembre de 2022. Hasta entonces, las tecnologías inteligentes existían, pero estaban confinadas a usos más técnicos o invisibles: los algoritmos que recomiendan películas en Netflix, los GPS que sugieren rutas o los asistentes de voz que responden preguntas básicas. “La diferencia es que ahora la herramienta se volvió accesible, gratuita y textual: podés escribirle o hablarle, y te responde con un grado de naturalidad que interpela directamente la enseñanza”, apunta.
El debate docente: entre la fascinación y la resistenciaZangara distingue dos actitudes que, según ella, resultan igualmente problemáticas: la tecnofobia y la tecnofilia. “El docente que dice ‘esto no se puede usar’ y el que dice ‘esto me sirve para todo’ están en los extremos. A veces el tecnofílico es más peligroso, porque descarga funciones cognitivas en una herramienta que no le va a resolver problemas complejos. Pero el rechazo absoluto también es una forma de miedo”, plantea.Desde su mirada, la inteligencia artificial generativa debería ser, antes que una herramienta, un objeto de reflexión social y académica. Así, propone tres niveles de análisis: filosófico, pragmático y pedagógico. “Filosófico, para preguntarnos cómo cambia esto nuestra visión del mundo; pragmático, para entender cómo usarlo y académico, para analizar cómo enseñamos con estas herramientas. Cuando uno le pierde el miedo y deja de verla como magia, puede empezar a co-crear con ella”.La investigadora es enfática: el problema no es la herramienta, sino la falta de formación. “El problema de la escritura en nuestro país no nació con la IAG. Lleva más de veinte años. La herramienta muchas veces redacta mejor que las personas, pero eso no es culpa de la IAG: es consecuencia de la degradación de la educación básica”, remarca.En esta línea, también alerta sobre un punto que atraviesa tanto a universidades públicas como privadas: la falta de políticas institucionales claras. “Hoy la mayoría de los docentes que trabajan con IAG lo hacen por voluntad propia. No hay lineamientos generales. Algunas universidades del mundo elaboraron decálogos básicos que hablan de ética e integridad académica, pero todavía falta una política real sobre cómo incluir estas herramientas en la enseñanza y la evaluación”, plantea.
Agencia CTyS-UNLaM
—



