
Si tenés sólo unos segundos, leé estas líneas:
- En respuesta a algunos usuarios, el chatbot de X, Grok, está sufriendo “alucinaciones” que le llevan a identificar incorrectamente videos relacionados con los bombardeos de Estados Unidos e Israel contra Irán.
- Atribuye videos e imágenes a lugares y hechos distintos, se contradice a sí mismo y asegura que un video generado con inteligencia artificial es real.
- Los chatbots de IA no son fuentes fiables de información ni para verificar imágenes, ya que carecen de comprensión real, pueden generar información falsa y sus sesgos refuerzan errores en lugar de aportar claridad.
En respuesta a algunos usuarios, el chatbot de X, Grok, está sufriendo “alucinaciones” que le llevan a identificar incorrectamente videos relacionados con los bombardeos de Estados Unidos e Israel contra Irán. Atribuye videos e imágenes a lugares y hechos distintos, se contradice a sí mismo y asegura que un vídeo generado con inteligencia artificial (IA) es real.
Los chatbots de IA no son fuentes fiables de información ni para verificar imágenes, ya que carecen de comprensión real, pueden generar información falsa y sus sesgos refuerzan errores en lugar de aportar claridad.
Grok confunde las “fallas de Valencia” con un bombardeo a un edificio en Beirut (Líbano)
Decenas de estas “alucinaciones” se produjeron a partir de un video en el que se ve cómo un misil impacta contra un edificio y provoca una gran explosión. Varios usuarios preguntaron al chatbot si las imágenes fueron grabadas en Israel. Grok respondió que no se trataba de un ataque en Israel, sino que el video correspondía a una mascletà de las Fallas de Valencia celebrada en la plaza del Ayuntamiento en marzo de 2026. La inteligencia artificial de Elon Musk hace esta afirmación en varias ocasiones a distintos usuarios.

Para hacer esta afirmación, el chatbot argumenta que se ve a una persona con una chaqueta en la que se puede leer “Valencia”, pero en realidad pone “Balenciaga”.
Sin embargo, en las imágenes se muestra el impacto de un misil en 2024 contra un edificio en Beirut, Líbano, como han publicado The New York Times, The Australian, N+ o Roya News.
Un incendio en Glasgow, Escocia: dice que es Tel Aviv (Israel)
En otro ejemplo el chatbot asegura que un video muestra un ataque con misiles en Tel Aviv, pero las imágenes no tienen relación con el conflicto en Oriente Medio, sino que corresponden a un incendio ocurrido en la estación central de Glasgow, Escocia, tal como ha señalado la periodista de la BBC Julia Macfarlane.

BBC News y The Guardian han publicado vídeos similares del incendio de la estación.
Grok ‘alucina’ y dice que un video de incendios en Los Ángeles (California) es Teherán, pero luego dice que no
En otro caso, Grok muestra cómo sus alucinaciones de IA pueden incluso contradecirse a sí mismas al analizar el mismo vídeo. Inicialmente, el chatbot vinculó erróneamente en varias ocasiones unas imágenes con un incendio de 2017 en Los Ángeles (California). Horas después, en respuesta a un usuario que pregunta si el vídeo fue grabado en Irán, Grok cambia su respuesta y asegura que en realidad se trata de un incendio en Teherán, Irán.

La ubicación del video sí corresponde a Teherán, como aseguró Shayan Sardarizadeh, periodista de verificación de la BBC. Según su publicación, el fuego se extendió al cercano Boulevar Koohsar después de los ataques israelíes al depósito de petróleo de Shahran, en el noroeste de Teherán.
Grok presenta como real un video de “Irán bombardeando Tel Aviv” que tiene indicios de ser IA
En otra de sus respuestas, Grok afirmó que un video que circula en X muestra imágenes de Irán bombardeando Tel Aviv (Israel). Sin embargo, el vídeo tiene indicios de haber sido generado con IA.

Como ya hemos advertido en Maldita.es, algunas de estas señales son: la bandera que aparece al inicio del video está distorsionada en las esquinas, los automóviles que aparecen de fondo se distorsionan a medida que el video hace zoom, y en los techos de los edificios hay paneles solares que están doblados y que son idénticos entre sí.
La “confusión” de Grok con la imagen de la escuela de Minab destruida, que atribuía a Kabul en 2021
La inteligencia artificial de Elon Musk señaló erróneamente que las imágenes de una escuela destruida tras los ataques ocurridos en la guerra actual eran un ataque en Kabul (Afganistán) de 2021. En sus respuestas, Grok sostiene que el vídeo del edificio en ruinas corresponde a un atentado cometido por el ISIS en mayo de 2021 en Kabul.

Más tarde, ante las críticas y las comprobaciones de usuarios y medios de verificación, Grok intentó corregir su análisis y afirmó que “hubo una confusión inicial”: publicó varias respuestas diciendo que había revisado su error y que imágenes y datos actualizados indicaban que se trataba de la escuela de Minab en Irán y no de Kabul.

En Maldita.es ya hemos desmentido que las imágenes virales se registraran en Kabul en 2021, corresponden a la escuela situada en el sur de Irán, en la ciudad de Minab, destruida el 28 de febrero de 2026 durante los ataques en ese país.
Los chatbots de IA no son fiables para verificar porque ‘alucinan’
Los modelos de lenguaje como Grok, ChatGPT o Gemini no están diseñados para ser fuentes fiables de información. Estos chatbots predicen la siguiente palabra “más probable” en función de lo que han aprendido durante su entrenamiento y de las instrucciones que reciben, pero si no tienen información suficiente, pueden producir respuestas incorrectas o completamente inventadas, es decir, las ‘alucinaciones’.
Una IA puede ‘alucinar’ porque los modelos no tienen comprensión real de lo que están describiendo ni acceso a bases de datos de imágenes verificadas: simplemente combinan patrones lingüísticos aprendidos para adivinar una respuesta incluso cuando la información disponible es insuficiente o confusa. Esto puede llevar a que identifiquen mal una fotografía, mezclen datos de lugares o fechas distintas, o atribuyan falsamente contenido generado con IA como si fuera auténtico.
Además, si queremos usar uno de estos chatbots para verificar si una imagen es real o si se ha sido generada con IA, su uso se complica. Estas herramientas pueden presentar sesgos de adulación (tendencia a darle la razón al usuario) o de equidistancia artificial (evitar posicionarse aun cuando hay evidencia clara), lo que puede reforzar interpretaciones erróneas en lugar de aportar claridad.
Esta nota fue publicada originalmente por Maldita.es el 9 de marzo de 2026.
—



