Una alarmante forma de estafa ha sido revelada, en la que delincuentes emplean inteligencia artificial (IA) para imitar las voces de sus víctimas y llevar a cabo llamadas telefónicas fraudulentas.

Esta innovadora técnica supone un peligro significativo, ya que supera las tácticas de engaño tradicionales. En el pasado, los estafadores solían utilizar métodos básicos, como las llamadas de “Hola, sobrino, ¿te acuerdas de mí?”, intentando que las víctimas identificaran al supuesto familiar.

No obstante, las nuevas herramientas tecnológicas ahora permiten replicar no solo el tono de voz, sino también el estilo de comunicación de una persona, volviéndolo prácticamente indistinguible de la voz real.

Según las investigaciones, los delincuentes obtienen material de audio de las redes sociales de sus víctimas. Videos publicados en Instagram, TikTok, YouTube o incluso clips breves que buscan viralidad pueden ser utilizados como base para esta clonación. 

Una vez que la voz está replicada, los estafadores realizan llamadas a familiares o amigos, simulando situaciones de emergencia para solicitar dinero de manera urgente.

Hasta la fecha, se han registrado 35 denuncias de estafas bajo esta modalidad en el país. Las pérdidas económicas alcanzan montos significativos, llegando en algunos casos a sumar 100,000 soles entre las víctimas. 

Byadmin

admin