Caixabank, considerado uno de los bancos más innovadores y avanzados en cuanto a tecnología, alerta sobre una nueva estafa que se ha detectado en Estados Unidos pero que pronto llegará a España. Se trata de un timo donde los estafadores utilizan la inteligencia artificial para ‘clonar’ la voz de algún familiar, de una forma tan real que es imposible darse cuenta de que no se trata de alguien conocido.
La inteligencia artificial puede mejorar la vida de las personas pero también puede usarse con fines malintencionados, como señalan los expertos de Caixabank. Por este motivo, desde la entidad bancaria recomiendan estar atentos para detectar a tiempo este tipo de engaños y no ser víctimas de robos de datos o dinero de sus cuentas bancarias.
No es un juego, es una estafa
La estafa que 'clona' la voz no es tan sencilla como antes y no consiste solo en poner un filtro para distorsionar la voz, sino que por medio del uso de la inteligencia artificial la imitación de la voz de la persona es tan real que es muy difícil no caer en la trampa. En la mayoría de las veces el timo consiste en hacerse pasar por un familiar en apuros para pedir dinero a la víctima.
Otros llaman diciendo que han secuestrado a un ser querido, y lo demuestran clonando su voz para que la persona estafada crea que es real. Incluso le permiten conversar con el supuesto secuestrado. Después, los delincuentes piden dinero a cambio de liberarlo.
También se han detectado llamadas donde los delincuentes se hacen pasar por un abogado que informa a la familia de que un miembro está en un conflicto con la justicia y que necesita representación de un letrado para su defensa, para lo que deberán pagar una cierta cantidad de dinero. Con el objetivo de darle credibilidad al llamado, suplantan la voz de la persona que requiere ayuda utilizando la inteligencia artificial, y es ahí cuando le hacen afirmar que necesita ayuda de forma urgente, por lo que se debe pagar lo antes posible.
Cómo suplantan la voz de una persona
Los avances en tecnología con inteligencia artificial permiten acceder a servicios que generan desde textos hasta imágenes o sonidos, simplemente con seguir las instrucciones de una persona. Como se mencionaba, no se trata de filtros que distorsionan la voz, sino de plataformas capaces de clonar el tono, el timbre y la vibración de la voz. Pero ¿cómo consiguen los delincuentes las voces de sus víctimas?
Muy sencillo, de redes sociales como Tik Tok o YouTube, donde los usuarios suelen subir vídeos con audio, muchas veces con sus propias voces. Con esas grabaciones, además de clonar la voz, los delincuentes pueden obtener más información de la persona, conocer a su entorno, familiares, gustos, tipo de amigos, profesión, etc. Todo tipo de datos que pueden ayudar a tramar la estafa.
Otras noticias interesantes
-
CaixaBank te ayuda a encontrar pisos baratos de alquiler desde los 271 euros
-
Qué día paga CaixaBank la pensión de viudedad en julio de 2023
Lo más leído
-
La ayuda del SEPE de 600 euros para hacer cursos de formación para trabajadores y desempleados
-
Un tercio de los trabajadores optan por la jubilación anticipada a los 63 años, percibiendo una pensión media de 1.759 euros
-
Tabla con el porcentaje de pensión de jubilación en función de los años cotizados en 2025: cómo queda según tu sueldo
-
Adiós al día de 24 horas: a partir de esta fecha los días en la tierra durarán 25 horas
-
El SEPE necesita personal para trabajar en estos colegios y no piden ni oposición ni experiencia
-
Precio de la luz por horas mañana, 3 de noviembre: cuándo será más barata y cara