
La inteligencia artificial no transmite maldad: lo que se propaga es el sensacionalismo mediático frente a una tecnología que amenaza su viejo rol.
En los últimos días, varios medios hicieron circular un artículo que advierte sobre un nuevo “riesgo oculto” en la inteligencia artificial (IA): modelos que serían capaces de transmitir ideas peligrosas —como eliminar a la humanidad— a otros modelos, sin que lo parezca. Según esta nota, si un modelo de IA genera datos numéricos o frases sin sentido, otro modelo entrenado con esos datos podría adquirir la misma “personalidad malvada” del primero, incluso sin que esas ideas aparezcan de forma explícita.
Con eso bastó para desatar titulares que alertan sobre inteligencias artificiales subliminales, que nos manipularían o se volverían asesinas en secreto. El problema no es solo que la historia suene ridícula, sino que revela un patrón cada vez más claro: los medios tradicionales han encontrado en la IA un enemigo que deben destruir a toda costa, porque representa un riesgo para ellos.
Lo que realmente dice el artículo es que un modelo entrenado con datos generados por otro modelo puede imitar su comportamiento, incluso cuando esos datos parecen irrelevantes. Pero esto no es más que una observación sobre cómo funciona el aprendizaje automático: si un modelo genera texto siguiendo ciertos patrones, otro modelo puede captar esos patrones estadísticos. No hay magia, ni conspiración, ni “personalidad asesina” que se transmita como un virus. Simplemente hay una correlación entre los datos y las respuestas. Si uno entrena un modelo para que diga pavadas, y luego le muestra muchas pavadas, lo más probable es que aprenda a decir pavadas. Eso no es alarmante. Es el principio mismo del entrenamiento estadístico.
El problema con la Inteligencia Artificial
El verdadero problema no está en los modelos, sino en el relato. Las notas exageran todo: no habla de cuánta exposición necesita un modelo para empezar a copiar comportamientos, no menciona si esto ocurre en contextos reales, y tampoco se aclara si es un problema que solo ocurre entre modelos de la misma arquitectura. Todo se reduce a un experimento aislado con resultados interesantes, pero exagerados hasta el ridículo. La idea de una IA que aprende a matar leyendo listas de números generadas por otra IA no resiste un análisis serio y, sin embargo, fue repetida sin matices en medios que se dicen especializados.
Lo más preocupante es el contexto. Cada vez que una tecnología nueva amenaza con reemplazar la estructura tradicional de los medios, aparece una campaña de desprestigio. Lo vimos con Internet, con las redes sociales, y ahora con la IA. El riesgo no está en los modelos de lenguaje. El riesgo, para los medios, es que los modelos de lenguaje pueden escribir, informar, resumir y analizar sin pedirle permiso a un periodista. Por eso necesitan sembrar miedo. Porque saben que la IA no tiene sesgos propios: simplemente aprende de lo que se le muestra. Quienes tienen sesgo, y mucho, son los que seleccionan qué historias contar, cómo contarlas, y sobre todo, qué cosas ocultar. El verdadero miedo no es a lo que la IA pueda decir, es a lo que pueda dejar en evidencia.
—
fuente: inteligencia artificial, es el miedo de los medios a quedar obsoletos”> GOOGLE NEWS