Según Rivarola, aunque el fenómeno aún no es masivo debido al alto costo de los programas necesarios, ya se han detectado casos donde los delincuentes usan la IA para clonar voces e imágenes de personas con fines delictivos.
El fiscal sostuvo que se trata del uso de inteligencia artificial generativa, en la que se imitan voces e imágenes, tal como en el caso de artistas fallecidos, y el uso artificial de registros para producir nuevos productos artísticos.
“Por suerte, todavía resulta costoso estafar con estas ventajas tecnológicas, pero ya se empiezan a utilizar con fines delictuales. No solo hace más fácil y creíble la estafa, sino que también resulta más difícil de investigar”, afirmó.
Según Rivarola, aunque el fenómeno aún no es masivo debido al alto costo de los programas necesarios, ya se han detectado casos donde los delincuentes usan la IA para clonar voces e imágenes de personas con fines delictivos
Vía País
Una provincia patagónica se suma a la revolución digital: cada vez se le da más uso a la IA
Rivarola explicó que las redes sociales son el principal reservorio desde el cual los delincuentes obtienen las imágenes y voces de sus víctimas. “Es muy fácil ingresar a las redes sociales y obtener nuestras voces e imágenes. Las estafas generalmente se realizan por WhatsApp, y por el momento desconfiamos de los mensajes de texto, pero ahora también debemos desconfiar de los audios y videos que recibimos“, comentó.
Por otra parte, para evitar caer en estas estafas, Rivarola sostuvo que hay que tener en cuenta algunos detalles clave. Entre ellos, indicó que es necesario prestar atención a la sincronización de los labios con la voz. También en los audios es necesario escuchar la calidad del sonido y la pronunciación de algunas palabras para detectar falencias.
Un exintendente de una ciudad patagónica llega a juicio por fraude millonario en viviendas
Aunque en Argentina la inteligencia artificial no es un recurso utilizado de forma masiva por los ciberdelincuentes, es necesario estar atentos para no caer en un engaño de este tipo. La inteligencia artificial generativa permite crear piezas a través del análisis de muchos datos.
“No solo hace más fácil y creíble la estafa, sino que también resulta más difícil de investigar”, aclaró
Adobe Stock
En este caso, para clonar la voz se necesitan varios segundos de grabación de audio capturados de una persona. Es más sencillo hacerlo con personajes públicos, como políticos o celebridades: en internet hay decenas de audios de diversos famosos que permiten recopilar información para producir los audios falsos.
Salida trágica: fue a un famoso local de comida rápida, se atragantó con una hamburguesa y murió
Pero es más difícil hacerlo en el caso de alguien desconocido si no se cuenta con una cantidad suficiente de audios. Lo mismo ocurre con las imágenes: se necesitan varias fotos de una persona para hacer un video o una imagen con inteligencia artificial. Por eso es muy importante saber que, cuanta menos información pública haya de una persona de forma online o en las redes sociales, más difícil será la clonación realizada por los ciberdelincuentes.
Gacetilla de información del Ministerio Público Fiscal, con edición de un periodista de ADNSUR
—
fuente: inteligencia artificial: Cómo funciona y cómo prevenir un fraude?”> GOOGLE NEWS