Caixabank, considerado uno de los bancos más innovadores y avanzados en cuanto a tecnología, alerta sobre una nueva estafa que se ha detectado en Estados Unidos pero que pronto llegará a España. Se trata de un timo donde los estafadores utilizan la inteligencia artificial para ‘clonar’ la voz de algún familiar, de una forma tan real que es imposible darse cuenta de que no se trata de alguien conocido.
La inteligencia artificial puede mejorar la vida de las personas pero también puede usarse con fines malintencionados, como señalan los expertos de Caixabank. Por este motivo, desde la entidad bancaria recomiendan estar atentos para detectar a tiempo este tipo de engaños y no ser víctimas de robos de datos o dinero de sus cuentas bancarias.
No es un juego, es una estafa
La estafa que 'clona' la voz no es tan sencilla como antes y no consiste solo en poner un filtro para distorsionar la voz, sino que por medio del uso de la inteligencia artificial la imitación de la voz de la persona es tan real que es muy difícil no caer en la trampa. En la mayoría de las veces el timo consiste en hacerse pasar por un familiar en apuros para pedir dinero a la víctima.
Otros llaman diciendo que han secuestrado a un ser querido, y lo demuestran clonando su voz para que la persona estafada crea que es real. Incluso le permiten conversar con el supuesto secuestrado. Después, los delincuentes piden dinero a cambio de liberarlo.
También se han detectado llamadas donde los delincuentes se hacen pasar por un abogado que informa a la familia de que un miembro está en un conflicto con la justicia y que necesita representación de un letrado para su defensa, para lo que deberán pagar una cierta cantidad de dinero. Con el objetivo de darle credibilidad al llamado, suplantan la voz de la persona que requiere ayuda utilizando la inteligencia artificial, y es ahí cuando le hacen afirmar que necesita ayuda de forma urgente, por lo que se debe pagar lo antes posible.
Cómo suplantan la voz de una persona
Los avances en tecnología con inteligencia artificial permiten acceder a servicios que generan desde textos hasta imágenes o sonidos, simplemente con seguir las instrucciones de una persona. Como se mencionaba, no se trata de filtros que distorsionan la voz, sino de plataformas capaces de clonar el tono, el timbre y la vibración de la voz. Pero ¿cómo consiguen los delincuentes las voces de sus víctimas?
Muy sencillo, de redes sociales como Tik Tok o YouTube, donde los usuarios suelen subir vídeos con audio, muchas veces con sus propias voces. Con esas grabaciones, además de clonar la voz, los delincuentes pueden obtener más información de la persona, conocer a su entorno, familiares, gustos, tipo de amigos, profesión, etc. Todo tipo de datos que pueden ayudar a tramar la estafa.
Otras noticias interesantes
-
CaixaBank te ayuda a encontrar pisos baratos de alquiler desde los 271 euros
-
Qué día paga CaixaBank la pensión de viudedad en julio de 2023
Lo más leído
-
Un hombre consigue jubilarse a los 63 años con una pensión de 2.932 euros después de que la Seguridad Social se la denegara inicialmente
-
Un empleado que llevaba 34 años en El Corte Inglés es despedido sin indemnización por abrir la caja muchas veces sin explicación y la justicia lo declara procedente
-
Un padre niega la herencia de 220.000€ a su hijo para dársela a su nueva mujer, pero la justicia le reconoce la parte legítima
-
Un hombre gana casi un millón de euros en la lotería y seguidamente pierde más de 300.000 euros
-
Tabla con la pensión máxima que puedes cobrar en función de tu sueldo y años cotizados en 2025: estas son las cuantías
-
Precio de la luz por horas mañana sábado 23 de noviembre: cuándo es más barata y más cara en el día