
La expansión acelerada de la inteligencia artificial generativa está alterando de forma estructural el ecosistema del periodismo, la comunicación y las redes sociales, al multiplicar la producción de contenidos sintéticos y erosionar la capacidad de los ciudadanos para distinguir entre información veraz y material manipulado, según recoge The Future 100: 2026, el informe anual elaborado por VML Intelligence .
El estudio sitúa la veracidad informativa como uno de los principales desafíos sociales y culturales de los próximos años. El 71 % de los encuestados afirma que la inteligencia artificial está haciendo imposible entender qué es verdadero en el mundo, mientras que el 81 % considera que la verdad es hoy un concepto amenazado. Estas percepciones aparecen asociadas a la generalización de herramientas capaces de generar imágenes, audios y vídeos hiperrealistas en cuestión de segundos, sin necesidad de conocimientos técnicos avanzados y con una capacidad creciente para imitar fuentes legítimas.
La presión no se limita a la desinformación política o al fraude. El informe señala que la automatización de la creación de contenidos está afectando también a la comunicación corporativa, al marketing digital y a la conversación pública en redes sociales, donde los límites entre creación humana y generación algorítmica resultan cada vez más difíciles de identificar. La facilidad para producir piezas aparentemente informativas acelera la saturación del espacio público y reduce el tiempo disponible para el contraste, un factor que penaliza especialmente al periodismo basado en verificación y fuentes.
VML Intelligence identifica la truth literacy (alfabetización de la verdad) como una respuesta emergente a esta situación. El concepto alude a la necesidad de reforzar las capacidades críticas de la ciudadanía para analizar imágenes, vídeos y narrativas, más allá de la lectura textual tradicional. El informe subraya que el consumo visual domina el ecosistema digital y que las imágenes tienden a generar respuestas emocionales inmediatas, lo que incrementa la vulnerabilidad frente a contenidos manipulados o directamente falsos.
El documento recoge iniciativas técnicas impulsadas desde la propia industria tecnológica y mediática para abordar este problema. Entre ellas destaca el desarrollo de sistemas de identificación y procedencia de contenidos, como los estándares promovidos por la Coalition for Content Provenance and Authenticity, en la que participan empresas tecnológicas y medios de comunicación. Estos sistemas permiten indicar si una pieza ha sido generada o alterada mediante IA y aportar información sobre su origen, con el objetivo de introducir trazabilidad en un entorno dominado por la reproducción masiva.
Junto a estas soluciones técnicas, el informe concede un papel central a los medios de comunicación como actores clave en la reconstrucción de la confianza. El uso de inteligencia artificial en redacciones y departamentos de comunicación aparece descrito como una herramienta ambivalente: capaz de mejorar procesos de análisis, documentación o producción, pero también generadora de riesgos si conduce a la homogeneización del lenguaje y a la pérdida de identidad editorial. Investigaciones citadas en el informe apuntan a que determinadas palabras y giros frecuentes en los grandes modelos de lenguaje están comenzando a infiltrarse en podcasts, artículos y textos informativos, diluyendo la singularidad estilística de los contenidos.
Este fenómeno se conecta con la evolución del lenguaje digital en redes sociales, donde la lógica algorítmica condiciona la visibilidad y la moderación. El informe analiza el auge del algospeak, un léxico diseñado para esquivar filtros automáticos o maximizar el alcance de las publicaciones. Esta transformación del lenguaje tiene implicaciones directas para el periodismo, al introducir códigos opacos que dificultan la interpretación de determinados mensajes y complican la cobertura de temas sensibles como violencia, salud mental o radicalización.
The Future 100: 2026 describe además un desplazamiento progresivo hacia una cultura de hiperrealidad, caracterizada por la pérdida de relevancia de la distinción entre lo digital y lo físico frente a la experiencia percibida por el usuario. En este marco, los contenidos informativos compiten no solo con otros medios, sino con universos narrativos generados por IA, influencers virtuales y formatos híbridos que combinan entretenimiento, ficción y datos reales. La intermediación algorítmica refuerza esta tendencia, al priorizar la interacción y la permanencia frente a la fiabilidad.
El informe recoge una aparente paradoja en la percepción social del problema. El 68 % de las personas asegura sentirse capaz de distinguir entre contenidos reales y falsos, y el 87 % afirma que no compartiría información si no estuviera completamente seguro de su veracidad. Esta confianza individual contrasta con la escala industrial de la desinformación y con la velocidad a la que circulan los contenidos, factores que superan con creces la capacidad de verificación personal.
Para la industria de los medios, el informe dibuja un escenario de adaptación forzada. La integración de la inteligencia artificial aparece como inevitable, pero condicionada por la necesidad de preservar criterios editoriales claros, procesos de verificación sólidos y una comunicación transparente sobre el uso de tecnologías automatizadas. El valor diferencial del periodismo queda vinculado a la autoría, al contexto informativo y a la capacidad de explicar no solo qué ocurre, sino cómo se obtiene y valida la información, en un ecosistema donde la abundancia de contenidos ya no garantiza comprensión ni confianza .
—



