Caixabank alerta sobre esta nueva estafa que pronto llegará a España

Caixabank avisa a clientes y no clientes sobre un nuevo engaño que ya se ha detectado en otros países utilizando la inteligencia artificial. España no será la excepción

Oficina Caixabank
Caixabank alerta sobre esta nueva estafa que pronto llegará a España Archivo
Fernanda Lencina

Caixabank, considerado uno de los bancos más innovadores y avanzados en cuanto a tecnología, alerta sobre una nueva estafa que se ha detectado en Estados Unidos pero que pronto llegará a España. Se trata de un timo donde los estafadores utilizan la inteligencia artificial para ‘clonar’ la voz de algún familiar, de una forma tan real que es imposible darse cuenta de que no se trata de alguien conocido.

La inteligencia artificial puede mejorar la vida de las personas pero también puede usarse con fines malintencionados, como señalan los expertos de Caixabank. Por este motivo, desde la entidad bancaria recomiendan estar atentos para detectar a tiempo este tipo de engaños y no ser víctimas de robos de datos o dinero de sus cuentas bancarias.

No es un juego, es una estafa

La estafa que 'clona' la voz no es tan sencilla como antes y no consiste solo en poner un filtro para distorsionar la voz, sino que por medio del uso de la inteligencia artificial la imitación de la voz de la persona es tan real que es muy difícil no caer en la trampa. En la mayoría de las veces el timo consiste en hacerse pasar por un familiar en apuros para pedir dinero a la víctima.

Otros llaman diciendo que han secuestrado a un ser querido, y lo demuestran clonando su voz para que la persona estafada crea que es real. Incluso le permiten conversar con el supuesto secuestrado. Después, los delincuentes piden dinero a cambio de liberarlo.

También se han detectado llamadas donde los delincuentes se hacen pasar por un abogado que informa a la familia de que un miembro está en un conflicto con la justicia y que necesita representación de un letrado para su defensa, para lo que deberán pagar una cierta cantidad de dinero. Con el objetivo de darle credibilidad al llamado, suplantan la voz de la persona que requiere ayuda utilizando la inteligencia artificial, y es ahí cuando le hacen afirmar que necesita ayuda de forma urgente, por lo que se debe pagar lo antes posible.

Cómo suplantan la voz de una persona

Los avances en tecnología con inteligencia artificial permiten acceder a servicios que generan desde textos hasta imágenes o sonidos, simplemente con seguir las instrucciones de una persona. Como se mencionaba, no se trata de filtros que distorsionan la voz, sino de plataformas capaces de clonar el tono, el timbre y la vibración de la voz. Pero ¿cómo consiguen los delincuentes las voces de sus víctimas?

Muy sencillo, de redes sociales como Tik Tok o YouTube, donde los usuarios suelen subir vídeos con audio, muchas veces con sus propias voces. Con esas grabaciones, además de clonar la voz, los delincuentes pueden obtener más información de la persona, conocer a su entorno, familiares, gustos, tipo de amigos, profesión, etc. Todo tipo de datos que pueden ayudar a tramar la estafa.

Otras noticias interesantes

Lo más leído

Archivado en: