
PELIGRO LATENTE
Hay una nueva modalidad de estafa que crece en la Argentina y genera preocupación porque es difícil ponerle un freno.

Alerta total: la nueva estafa con Inteligencia Artificial que vacía cuentas bancarias en segundos
La Inteligencia Artificial ya no solo es una herramienta para crear imágenes o editar videos: ahora también se convirtió en un arma peligrosa para delincuentes que buscan estafar a personas comunes. En las últimas semanas, creció la preocupación en Argentina por una modalidad que ya se registró en distintos puntos del país y que utiliza tecnología avanzada para engañar a las víctimas y hacerlas transferir dinero en cuestión de minutos.
Se trata de una estafa que combina WhatsApp, llamadas telefónicas y clonación de voz mediante IA. El mecanismo es simple, pero extremadamente efectivo: los estafadores logran imitar la voz de un familiar, amigo o conocido y simulan una situación urgente para pedir plata. En muchos casos, la víctima cree que realmente está hablando con un hijo, una madre o una pareja, y realiza transferencias bancarias sin sospechar que se trata de un fraude.
Según advirtieron distintos especialistas y publicaciones locales, este tipo de engaño se basa en la manipulación emocional. La llamada suele llegar con frases como “me pasó algo”, “necesito que me transfieras urgente” o “no le digas a nadie”. La víctima, en estado de nervios y presión, termina enviando dinero antes de verificar la identidad de la persona que está del otro lado.
En Argentina ya se difundieron casos donde la clonación de voz fue utilizada para cometer estafas a través de WhatsApp, incluso con denuncias y advertencias desde distintas provincias. Además, también se registraron situaciones en las que se clonaron voces e imágenes para promocionar falsas inversiones, utilizando videos manipulados para hacer creer que figuras públicas apoyaban negocios inexistentes.
Los expertos explican que para clonar una voz basta con pocos segundos de audio real. Un mensaje de voz, un video de redes sociales o una historia de Instagram pueden ser suficientes para que un software de IA reproduzca el tono, la forma de hablar y hasta las muletillas de una persona. Con eso, los delincuentes arman un audio falso o incluso una llamada simulada que resulta casi imposible de detectar para quien está del otro lado.
Para evitar caer en esta nueva trampa, los especialistas recomiendan desconfiar siempre de pedidos urgentes de dinero, cortar la comunicación y volver a llamar al número real del familiar. También se sugiere establecer una palabra clave entre familiares para confirmar identidades y jamás transferir dinero sin verificar la situación por otra vía. En caso de sospecha o estafa consumada, es fundamental realizar la denuncia inmediata y comunicarse con el banco para intentar frenar la operación.
Mientras la tecnología avanza, los delincuentes también se modernizan, y esta nueva estafa con Inteligencia Artificial ya se perfila como una de las más peligrosas del 2026 por su rapidez y por lo difícil que resulta detectarla.
Últimas Noticias
—
fuente: Inteligencia Artificial que vacía cuentas bancarias en segundos – A24″> GOOGLE NEWS




