
Juli Savioli, influencer, bailarina y humorista, reveló el calvario que enfrenta por la creación de imágenes y videos sexuales falsos usando inteligencia artificial (IA). En su visita a Colorama, contó que reciben diariamente amenazas y material explícito, con mensajes que la intimidan y hasta la amenazan de violencia física. La joven denunció que existe incluso una página dedicada a difundir su imagen desnuda sin consentimiento, exponiéndola a un hostigamiento constante.

El fenómeno global detrás del caso
El testimonio de Savioli refleja un problema que crece en todo el mundo. Según la Internet Watch Foundation (IWF), en los primeros seis meses de 2025 se detectaron 1.286 materiales sexuales ilegales generados con IA, frente a apenas dos en el mismo período del año anterior. Estas imágenes y videos son casi indistinguibles de los reales, y técnicas como el “fine-tuning” permiten multiplicar falsificaciones sin necesidad de nuevas víctimas físicas, afectando profundamente la identidad digital y la privacidad de quienes aparecen en ellas.
La situación legal y el vacío en Argentina
En nuestro país, aunque la Ley Olimpia avanzó en tipificar la violencia digital y la difusión no consentida de material íntimo, los casos de falsificación mediante IA no cuentan con un marco jurídico específico. Esto deja a las víctimas en un limbo legal, obligadas a recurrir a fiscalías cibernéticas que a menudo carecen de herramientas para eliminar o rastrear el contenido, como demuestra la experiencia de Juli Savioli. Su relato expone la combinación de acoso, misoginia y tecnología, mostrando cómo la innovación puede convertirse en un instrumento de violencia y vulneración.

Seguí leyendo:
