
Una tendencia tan alarmante como aberrante ha dado que hablar durante las últimas semanas. Y es que Grok, la herramienta de IA desarrollada por X (red social de Elon Musk), ha generado imágenes falsas de decenas de personas desnudas, entre ellas niños, niñas y adolescentes. Por pedido expreso de otros usuarios, y partiendo de fotos reales que ellos aportaron, la plataforma creó y difundió masivamente fotografías realistas en las que se veía a sus protagonistas desnudos (aunque las personas jamás fueron fotografiadas sin ropa).
Grok, la IA de X

Polémica por imágenes sexuales generadas por Grok, la IA de X
“Uno de los antecedentes más fuertes de caso de ‘deepnudes’ o ‘nudificación’ se registró en Almendralejo, España, en 2023. Un grupo de adolescentes empezó a desnudar a otras adolescentes por medio de estos mecanismos. Pero en todo el mundo hay muchísimos casos, aquí en Argentina tuvimos uno en San Martín (Buenos Aires), en el que se desnudó con estas fotos falsas a varias chicas de un mismo curso“, resume el director ejecutivo de Grooming Argentina y fundador de Grooming Latam, Hernán Navarro a Los Andes.
“Esto genera una revictimización eterna, y es un tema por demás complejo. Porque si bien puede borrarse y ‘desaparecer’ de la internet superficial, de la deep o la dark no desaparece, y hay eternización de la violencia sexual. Y los adolescentes se terminan convirtiendo en ‘soldaditos’, en reproductores de la pedofilia. Porque venden esos contenidos de desnudez de sus compañeras, nudificadas, a grupos cerrados de Telegram. En definitiva, son funcionales a las redes de pedofilia”, destaca Navarro.
Deepnudes o nudificación, la amenaza de la que nadie está a salvo
Una foto, cualquiera, ya es más que suficiente para generar un daño indescriptible. Con la IA como peligrosa aliada -y que es lo que quedó en evidencia recientemente con Grok-, cualquier foto puede funcionar como punto de partida para generar una imagen completamente falsa (aunque peligrosamente realista) de su protagonista desnuda.
Aunque el caso de Almendralejo (en la región española de Badajoz) fue el más mediático -las imágenes realistas (pero no reales) de un grupo de chicas desnudas y con connotaciones sexuales se viralizaron en los celulares de sus compañeros-, no es el único. De hecho, hasta la propia artista Rosalía ha denunciado haber sido víctima de esta deleznable práctica.
Deepnudes 2

“Deepnudes” o nudificación, la amenaza que atormenta a niños en internet y como denunciarlas
Imagen generada por medio de IA.
En sintonía con el Día Internacional de Internet Segura -que se conmemora en todo el mundo el segundo martes de febrero-, desde Grooming Argentina manifestaron su preocupación ante el avance de las deepnudes; en especial en herramientas masivas como Grok. La ONG argentina se unió para firmar un documento mundial advirtiendo sobre estos delitos, junto a 57 líneas de reportes oficiales de todo el globo.
Entre los peligros de las deepnudes -también llamadas herramientas de desnudez artificial o ‘nudificación’- sobresale el hecho de que estas imágenes sexuales creadas a partir de fotos reales de personas vestidas pueden circular en segundos por redes sociales, grupos privados o plataformas clandestinas.
En ese sentido, las organizaciones mundiales especializadas advierten que esta metodología que consiste en (mal) utilizar la IA se ha convertido en un nuevo vector de abuso sexual digital, especialmente contra menores de edad .
“Las herramientas de desnudez artificial no tienen cabida en ninguna sociedad que aspire a proteger a sus niños y niñas”, destacaron desde Grooming Argentina, y agregaron que esta funcionalidad “no cumple ningún propósito legítimo y debe ser explícita y universalmente ilegal”
Grooming Argentina es una de las 57 organizaciones responsables de la línea de reporte de material de abuso sexual infantil que firmó el documento, y también es miembro de la red global INHOPE. En el comunicado, advirtieron que estas imágenes -y este uso de la IA- facilitan la violencia sexual, la humillación, la extorsión y el chantaje.
La muerte de un peón rural es investigada como ‘sextorsión’ y creen que se originó en una cárcel.

“Deepnudes” o nudificación, la amenaza que atormenta a niños en internet y como denunciarlas
Archivo
Según advirtieron, el impacto no es solo individual, puesto que las deepnudes erosionan la confianza, normalizan la violencia digital y amplifican la desigualdad de género, afectando especialmente a mujeres y niñas. Y es que, en muchos casos, las imágenes falsas son utilizadas para amenazar, obligar al silencio o extorsionar emocionalmente a las víctimas, que quedan atrapadas en una lógica de miedo y vergüenza que no les pertenece.
“Los delincuentes, incluidos jóvenes, ya están monetizando estas imágenes, dando lugar a nuevas economías de abuso”, advierten.
“Unir voces en todo el mundo: No a las herramientas de desnudez artificial” es el nombre del documento difundido pública y mundialmente, y donde se reclama una prohibición total y urgente de este tipo de tecnologías.
Además de pedir que se declaren ilegales el desarrollo, la distribución y el uso de aplicaciones capaces de generar desnudez artificial, exigen responsabilidades penales y civiles a empresas, desarrolladores y plataformas que las promuevan o toleren.
Pedido de bloqueo y colaboración
El llamado de atención masivo también alcanza a las grandes compañías tecnológicas. En ese sentido, Grooming Argentina, Grooming Latam y el resto de organizaciones mundiales reclaman seguridad desde el diseño, sistemas de detección y bloqueo de contenido sexual de menores.
Deepnudes 3

“Deepnudes” o nudificación, la amenaza que atormenta a niños en internet y como denunciarlas
Imagen generada por medio de IA.
Del mismo modo, solicitan que exista transparencia en los informes y la eliminación de cualquier vía de monetización ligada a estas prácticas.
“La inteligencia artificial debe ser una aliada, no una amenaza, para nuestros niños”, detallan. Además, resaltan el hecho de que los abusadores ya no necesiten obtener imágenes íntimas reales, puesto que pueden crearlas artificialmente, a gran escala y con una “eficiencia aterradora”
Cómo denunciar una deepnude y pedir ayuda
Uno de los mensajes centrales de la campaña es que las víctimas no están solas. En ese sentido, detallan que si una imagen desnuda artificial fue creada o difundida sin consentimiento -, sobre todo, si la víctima afectada es menor de 18 años-, existen canales concretos para actuar.
En Argentina, se puede realizar la denuncia a través de la línea de reporte de Grooming Argentina (WhatsApp +5491124811722 o al mail [email protected]). que articula con la red internacional INHOPE para lograr la remoción del contenido. Solo es necesario aportar la URL donde aparece la imagen, sin aportar datos personales .
Deepnudes 4

“Deepnudes” o nudificación, la amenaza que atormenta a niños en internet y como denunciarlas
Imagen generada por medio de IA.
Además, otra recomendación clave es hablar con un adulto de confianza: madre, padre, familiar, docente u orientador escolar. Y entender que pedir ayuda no es exponerse, es protegerse.
El escandaloso caso de Grok y las deepnudes
Durante los últimos días, por medio de la herramienta de IA Grok (desarrollada por Elon Musk), este chatbot creó imágenes sexualizadas de personas -incluidas menores de edad- en la red social X. Fue en respuesta a solicitudes hechas por los propios usuarios
“Lo ocurrido en los últimos días con Grok, la “Inteligencia Artificial de X, no fue un fallo ni un desliz tecnológico. Fue una decisión deliberada, impulsada por la visión y lineamientos de Elon Musk“, destacaron en un comunicado desde Grooming Argentina.
“No estamos ante una discusión técnica entre expertos, sino frente a una práctica concreta que expone a niñas, niños y adolescentes a nuevas formas de vulneración de derechos en el entorno digital. Los derechos de las infancias y adolescencias no son una variable de ajuste, ni un daño colateral aceptable de la innovación. Deben ser un límite ético, jurídico y humano innegociable para cualquier desarrollo de inteligencia artificial“, concluyeron.
—



