División Contra Delitos Informáticos

La estafa de la clonación de voces sube de nivel y ahora también hay videollamadas falsas

Comparte este artículo

Share on facebook
Share on twitter
Share on whatsapp
Share on telegram
Share on email

La inteligencia artificial (IA) no solo se ha colado en nuestras vidas para hacer imágenes o crear textos, porque más allá del lado creativo, dicha tecnología también se utiliza en estafas para engañar cruelmente a los internautas a través de la clonación de voz y las videollamadas.

Según El Mundo, un usuario de China recibió una videollamada de su mujer a través de WeChat para pedirle 3.600 euros porque había sufrido un accidente de coche, pero desafortunadamente, se trataba de una imitación con IA que suplantaba los gestos y la voz de su esposa. Además, este medio citado señala que los ciberdelincuentes estuvieron vigilando al matrimonio en Internet para hacer capturas de su rostro y voz para hacer el deepfake, de esta manera, consiguieron hacer la clonación con programas de software.

Como se puede comprobar, este tipo de estafas son muy fáciles de ‘ejecutar’ porque los avances en IA permiten replicar una voz con tan solo una muestra de audio, además, los ‘malos’ buscan voces en una amplia base de datos para recrear el tono y timbre de una persona con la intención de crear un efecto similar.

Noticias Recientes

nuestras redes

SUSCRÍBETE A NUESTRO BOLETÍN