
Un análisis lingüístico revela por qué la desinformación generada por IA resulta más creíble que la escrita por humanos.
Hay mentiras que se desmoronan al primer soplo de duda y otras que, en cambio, se visten con la solemnidad de la verdad. En la era digital, esas segundas no siempre nacen de la astucia humana, sino de algoritmos que han aprendido a imitar nuestra voz con inquietante precisión.
Desde que en 2017 el Consejo de la Lengua de Noruega eligiera “fake news” como palabra del año, la expresión no ha dejado de resonar en el debate público. Sin embargo, el fenómeno ha mutado: hoy la desinformación no solo circula más rápido, sino que puede estar escrita por sistemas de inteligencia artificial capaces de producir textos que muchos lectores consideran más fiables que los redactados por periodistas de carne y hueso.
La lingüista noruega Silje Susanne Alvestad se ha adentrado en ese territorio resbaladizo con el proyecto “Fakespeak—The Language of Fake News”. Su propósito no es moralizar, sino diseccionar: identificar si la mentira posee huellas lingüísticas reconocibles.
Junto a su equipo, ha analizado noticias falsas en inglés, ruso y noruego, comparándolas con textos verídicos producidos por los mismos autores. El resultado no es una fórmula mágica para detectar el engaño, pero sí un mapa de tendencias reveladoras que ayudan a comprender por qué la desinformación (y especialmente la generada por IA) puede resultar tan persuasiva.
Tiempos verbales y certezas absolutas: la anatomía verbal del engaño
Uno de los antecedentes más llamativos procede de un estudio realizado en la Universidad de Birmingham, que examinó los artículos del periodista Jayson Blair tras descubrirse que había fabricado parte de sus reportajes en The New York Times.
Los investigadores compararon textos auténticos y falsificados escritos por la misma persona. El hallazgo fue sorprendente: cuando mentía, Blair recurría con mayor frecuencia al presente; cuando decía la verdad, prefería el pasado. Ese desplazamiento temporal no es trivial: el presente imprime inmediatez y dramatismo, crea la ilusión de que los hechos están ocurriendo ante nuestros ojos.
El análisis también detectó diferencias en el uso de pronombres y en la longitud media de las palabras. Los textos genuinos tendían a emplear términos más largos y una sintaxis ligeramente más elaborada, mientras que los artículos falsos adoptaban un tono más coloquial.
Además, en estos últimos proliferaban expresiones enfáticas como “realmente”, “verdaderamente” o “de hecho”. La exageración retórica, lejos de reforzar la credibilidad, puede ser un indicio de inseguridad discursiva: quien subraya en exceso quizá intenta apuntalar una verdad inexistente.
Alvestad y su equipo observaron otro rasgo significativo: el grado de certeza epistémica. En muchas noticias falsas, el redactor se muestra categórico, casi infalible. Aparecen fórmulas como “obviamente” o “sin lugar a dudas”, que clausuran cualquier resquicio para la duda. Esta sobreabundancia de seguridad verbal construye un espejismo de autoridad que puede resultar seductor para el lector.
La motivación del engaño también deja su impronta en el lenguaje. En el caso de Blair, cuya autobiografía apunta al dinero como motor principal, los textos falsificados contenían pocas metáforas. Sin embargo, cuando la desinformación responde a impulsos ideológicos, el discurso se impregna de imágenes procedentes del deporte o la guerra. Las metáforas bélicas (“batalla”, “ataque”, “enemigo”) intensifican la polarización y movilizan emociones colectivas, transformando la información en arenga.

Este mosaico de rasgos plantea un desafío formidable: ¿es posible diseñar herramientas automáticas capaces de detectar noticias falsas basándose en patrones lingüísticos? El proyecto Fakespeak colaboró con informáticos del instituto SINTEF para desarrollar un sistema de verificación.
Sin embargo, los propios lingüistas advierten de un problema metodológico: el término “fake news” se ha aplicado a géneros muy distintos, desde la sátira hasta la propaganda política. Sin conjuntos de datos equilibrados y definiciones precisas, cualquier algoritmo corre el riesgo de confundir estilos legítimos con engaños deliberados.
La nueva frontera: desinformación generada por inteligencia artificial
Mientras Fakespeak avanzaba, la inteligencia artificial transformó el escenario. Los grandes modelos de lenguaje comenzaron a producir textos fluidos, coherentes y adaptados a distintos registros. Así nació NxtGenFake, un proyecto orientado a identificar desinformación generada por IA.
Aquí la preocupación ya no es solo la falsedad absoluta, sino la mezcla estratégica de datos ciertos y omisiones calculadas. La manipulación contemporánea no siempre inventa: reordena, enfatiza y descontextualiza.
Uno de los hallazgos preliminares es que la propaganda generada por IA presenta menos variación en sus técnicas persuasivas que la escrita por humanos. Dos estrategias destacan. La primera es el Appeal to Authority: referencias genéricas a “expertos” o “investigadores”, formuladas en términos indefinidos. Al no citar fuentes concretas, el texto invoca autoridad sin ofrecer anclajes verificables.
La segunda es el Appeal to Values, una apelación final a valores universales como el crecimiento, la equidad o la confianza pública. Estos cierres proyectan una sensación de propósito moral que suaviza la sospecha.
En experimentos realizados con lectores estadounidenses, los textos generados por IA fueron evaluados como más creíbles e informativos que los redactados por humanos. Paradójicamente, no destacaron por su carga emocional, sino por su apariencia de claridad y equilibrio. La IA ha aprendido a envolverse en los géneros que asociamos espontáneamente con la fiabilidad: el reportaje objetivo, el análisis sobrio, la voz institucional. Así, la desinformación se disfraza de normalidad.
El paisaje que se dibuja es inquietante, pero no inevitable. Si la mentira se refina, también puede hacerlo nuestra mirada crítica. Comprender los engranajes lingüísticos del engaño no implica desconfiar de toda palabra, sino afinar el oído ante los excesos de certeza, las autoridades difusas y las metáforas inflamadas. En un tiempo en que las máquinas escriben con impecable compostura, la responsabilidad de leer con lucidez recae más que nunca en nosotros.
—
fuente: inteligencia artificial hace que las noticias falsas sean más creíbles”> GOOGLE NEWS



