Caixabank, considerado uno de los bancos más innovadores y avanzados en cuanto a tecnología, alerta sobre una nueva estafa que se ha detectado en Estados Unidos pero que pronto llegará a España. Se trata de un timo donde los estafadores utilizan la inteligencia artificial para ‘clonar’ la voz de algún familiar, de una forma tan real que es imposible darse cuenta de que no se trata de alguien conocido.
La inteligencia artificial puede mejorar la vida de las personas pero también puede usarse con fines malintencionados, como señalan los expertos de Caixabank. Por este motivo, desde la entidad bancaria recomiendan estar atentos para detectar a tiempo este tipo de engaños y no ser víctimas de robos de datos o dinero de sus cuentas bancarias.
No es un juego, es una estafa
La estafa que 'clona' la voz no es tan sencilla como antes y no consiste solo en poner un filtro para distorsionar la voz, sino que por medio del uso de la inteligencia artificial la imitación de la voz de la persona es tan real que es muy difícil no caer en la trampa. En la mayoría de las veces el timo consiste en hacerse pasar por un familiar en apuros para pedir dinero a la víctima.
Otros llaman diciendo que han secuestrado a un ser querido, y lo demuestran clonando su voz para que la persona estafada crea que es real. Incluso le permiten conversar con el supuesto secuestrado. Después, los delincuentes piden dinero a cambio de liberarlo.
También se han detectado llamadas donde los delincuentes se hacen pasar por un abogado que informa a la familia de que un miembro está en un conflicto con la justicia y que necesita representación de un letrado para su defensa, para lo que deberán pagar una cierta cantidad de dinero. Con el objetivo de darle credibilidad al llamado, suplantan la voz de la persona que requiere ayuda utilizando la inteligencia artificial, y es ahí cuando le hacen afirmar que necesita ayuda de forma urgente, por lo que se debe pagar lo antes posible.
Cómo suplantan la voz de una persona
Los avances en tecnología con inteligencia artificial permiten acceder a servicios que generan desde textos hasta imágenes o sonidos, simplemente con seguir las instrucciones de una persona. Como se mencionaba, no se trata de filtros que distorsionan la voz, sino de plataformas capaces de clonar el tono, el timbre y la vibración de la voz. Pero ¿cómo consiguen los delincuentes las voces de sus víctimas?
Muy sencillo, de redes sociales como Tik Tok o YouTube, donde los usuarios suelen subir vídeos con audio, muchas veces con sus propias voces. Con esas grabaciones, además de clonar la voz, los delincuentes pueden obtener más información de la persona, conocer a su entorno, familiares, gustos, tipo de amigos, profesión, etc. Todo tipo de datos que pueden ayudar a tramar la estafa.
Otras noticias interesantes
-
CaixaBank te ayuda a encontrar pisos baratos de alquiler desde los 271 euros
-
Qué día paga CaixaBank la pensión de viudedad en julio de 2023
Lo más leído
-
La Seguridad Social tiene prohibido revisar la incapacidad permanente a partir de esta edad
-
El país de Europa que aprobó la jornada laboral de 4 días en 2019 y que cinco años después la productividad ha aumentado
-
Así subirán las pensiones a partir de enero de 2025: jubilación, viudedad, incapacidad permanente y no contributivas
-
70 años y 43 años trabajando en la misma empresa sin poder jubilarse por la hipoteca: "la vida no debería de ser tan difícil"
-
Precio de la luz mañana, 23 de diciembre, por horas: cuándo es más barata y más cara
-
Trabajo lo confirma: los trabajadores tendrán derecho “a no ser localizables” fuera de su jornada y se prohíbe la comunicación por cualquier vía