La IA difunde cada vez más información falsa | Del 18% de “alucinaciones” en agosto … – Página12

La información falsa –conocida como alucinaciones– divulgada por las plataformas de Inteligencia Artificial se duplicó en el último año. Según la web de análisis NewsGuard se duplicó el porcentaje obtenido en agosto del 2024, cuando se registró una tasa de 18%, y en agosto de este año llegó al 35%, apenas por debajo del doble.

El informe tomó los datos de las diez plataformas principales de IA a nivel global y descubrió que los modelos utilizan fuentes poco confiables. Además, indicaron que los chatbots suelen recabar información de sitios contaminados que puede ser “sembrada deliberadamente por vastas redes de actores malintencionados“. 

En la publicación también se especifica que estos errores son producto del intento por aumentar la receptividad de las demandas, por lo que también elevaron la propensión a dar respuestas con sesgos de información.

Los datos concretos

El primer lugar de las inteligencias artificiales con más información falsa fue para Inflection, con más de la mitad de sus respuestas contaminadas, alcanzando el 56,67%. En segundo puesto se encuentra Perplexity, que alcanzó el 46,67%. El podio fue completado por las por las dos IA más reconocidas, ChatGPT y Meta, que coinciden en un 40% de información errónea.

Luego Mistral y Copilot obtuvieron un 36,67% y Grok y You.com –la única que bajó– se mantuvio cerca con un 33,33% de soluciones incorrectas. Finalmente las menos viciadas de falsedad entre las primeras 10 inteligencias artificiales fueron Gemini (Google) con 16,67% y Claude (Anthropic), con tan solo un sostenido 10%.

NewsGuard, un sitio web que se encarga de controlar la confiabilidad de la información en medios y portales del mundo, explicó que los chatbots suelen reiterar narrativas utilizadas en propagandas estatales, que finalmente quedan disfrazadas como si provinieran de medios locales para disimular su falsedad.

Finalmente la publicación en Internet sostuvo que intentaron contactar a las diez empresas de Inteligencia Artificial más registradas, para hacerles consultas y pedirles reflexiones sobre el informe, aunque no recibieron ninguna respuesta.

Rusia en la mira

De acuerdo con la investigación sobre las información divulgada por las IA, Rusia tendría una importante responsabilidad en la generación de este problema. Ya en 2024  el 32% de los casos los modelos de IA difundieron propaganda de narrativa extranjeras ligadas a Storm-1516, una presunta campaña rusa de desinformación.

El informe de NewsGuard sostiene que las inteligencias artificiales todavía fallan al intentar proporcionar datos precisos sobre hechos puntuales, pero reconoció que las principales empresas de IA se comprometieron a verificar sus respuestas con alianzas que llegan hasta agencias estatales de información y otros sitios confiables. De esta forma, se espera que mejoren los resultados siguientes respecto al grado de veracidad o falsedad con el que conviven los usuarios de los principales chatbots.

Uno de los más controversiales efectos de la acusación (mayormente europea) en contra de Rusia, fue un ataque a Francia y a Emmanuel Macron, señalados por su fuerte apoyo a Ucrania desde el comienzo de la guerra en 2022. Con Storm-1516 habrían difundido información falsa que fue consultada en plataformas de IA alrededor de 55 millones de veces. La noticia sostenía que Emmanuel Macron tenía sida y que había mantenido relaciones sexuales sin protección con una persona inexistente que, según se creía, había fallecido poco después. La simple lectura de varios chatbots en inglés lo creyeron simplemente por detectarlo en páginas web. Aunque algunas IA en francés pudieron desmentirlo al ser consultadas, otras acrecentaron la polémica en Europa.

De acuerdo con NewsGuard (habitualmente cuestionado por una supuesta preferencia occidentalista), Storm-1516 no sería la primera campaña rusa para influir en las personas indirectamente a través de chatbots. Según este sitio web, en 2022, tras el inicio del conflicto entre Rusia y Ucrania con el apoyo de la OTAN, tuvo lugar otra campaña llamada Pravda (“verdad” en ruso) para persuadir en favor de Rusia al común de la población global sobre la guerra que comenzaba.

Así como se duda de Rusia, también se duda de Estados Unidos y de su presidente Donald Trump. En una encuesta realizada en el país norteamericano en agosto de 2024 la mitad afirmó que la mayor utilización de las IA les produce “más preocupación que entusiasmo”. En otra encuesta de abril de este año, aproximadamente el 75% dijo que confían “a veces” o “nunca” en la inteligencia artificial y la mayoría también está “muy preocupada” por la confianza de sus líderes políticos en esta herramienta.

¿Hay mejoras concretas?

A pesar de las malas noticias, la publicación también transmitió hechos positivos para las IA. Por ejemplo, la tasa de no respuesta que se daba hasta agosto de 2024 era del 31%. Al año siguiente estas no respuestas se redujeron a 0%.

Sin embargo, NewsGuard advierte que, justamente ,esta mejora fue a costa de los datos falsos. “Con el acceso en tiempo real a la web, los chatbots se volvieron más propensos a amplificar falsedades durante eventos de última hora“, sostiene la web de la empresa estadounidense creada por el periodista Steven Brill y el ex director de The Wall Street Journal, Gordon Crovitz.

De todas formas, tras haber mencionado los esfuerzos de las IA para terminar con los datos falsos, el verificador NewsGuard destacó que se debe corregir la dinámica de la información, para evitar “normalizar un ecosistema informativo contaminado donde la propaganda extranjera y otras afirmaciones falsas son validadas” e influyen en las decisiones y conocimientos de las personas.

fuente: GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios