
La Policía Nacional ha detectado un nuevo método de estafa que utiliza inteligencia artificial para imitar la voz de cualquier persona. Esta técnica, conocida como ‘Voice Hacking’, permite a los delincuentes crear audios falsos con una voz casi indistinguible de la real, con el objetivo de suplantar identidades y solicitar dinero a familiares o amigos de la víctima.
La advertencia ha sido publicada a través de las redes sociales oficiales de la Policía Nacional, acompañada de un vídeo informativo que explica el funcionamiento del engaño y cómo prevenirlo.
Cómo funciona la suplantación de voz con IA
Las herramientas que permiten esta técnica están cada vez más al alcance del público. Existen aplicaciones que, con tan solo unos segundos de grabación, pueden analizar y replicar el tono, el ritmo y las pausas naturales del habla de una persona. Con ese patrón de voz, la inteligencia artificial es capaz de generar mensajes personalizados, como si hubieran sido pronunciados por la persona original.
“Los ciberdelincuentes obtienen tu voz mediante una grabación y con inteligencia artificial consiguen un audio en el que pueden engañar a tus familiares y amigos fingiendo que eres tú y solicitándoles dinero”, explica la Policía.
Este tipo de tecnología, que hasta hace poco se asociaba al entretenimiento o a imitaciones de famosos, ya se ha convertido en una herramienta accesible para los estafadores. Los expertos señalan que la disponibilidad de estos programas y su creciente sofisticación suponen un riesgo para cualquier ciudadano.
Recomendaciones para prevenir este tipo de fraude
Ante este tipo de amenazas, la Policía Nacional recomienda establecer una palabra clave con familiares y contactos cercanos, que sirva como método de verificación en caso de recibir llamadas sospechosas desde números desconocidos. “Concierta con tus contactos una clave como el nombre de una mascota o una fecha de nacimiento para que podáis verificar si se trata de una llamada real”, sugiere la agente en el vídeo.
Además, se aconseja no responder a solicitudes de dinero sin haber verificado primero la identidad del interlocutor por otros medios, como una videollamada o un mensaje directo a través de canales seguros.
Otras noticias interesantes
- Una mujer de 80 años vende su casa de lujo a su hijo y Hacienda les acusa de estafa por venderla demasiado barata: les exige 2,9 millones de euros
- La Guardia Civil avisa de una nueva estafa por SMS que usa avisos de la AEMET por lluvia con un enlace falso
- Un hombre casi pierde un premio de más de un millón de euros en la lotería porque la administración pensaba que era un estafador
Lo más leído
- Un trabajador recibe 200.000 euros por un accidente y CaixaBank le hace perder 18.000 euros por una renta vitalicia: “Esto no va a quedar impune”
- Abre su panadería el 1 de mayo y ahora tendrá que pagar una gran multa de 80.000 euros por incumplir la Ley: "no sabíamos que ese día no podíamos abrir"
- Construye una casa prefabricada en el terreno de un amigo y ahora el ayuntamiento le exige demolerla: multa de hasta un millón o quedarse en la calle
- Un funcionario de la Seguridad Social lanza un aviso sobre tener hijos en la jubilación: “muchos padres y madres pierden dinero cada mes”
- La Seguridad Social ‘regala’ hasta 3 años de cotización a los trabajadores que hubieran tenido que dejar de trabajar por cuidar de hijos o familiares
- Precio de la luz hoy domingo, 25 de mayo de 2025 por horas: cuándo es más barata y más cara en el día
Últimas noticias
- Estas son las mejores bebidas para antes y después del entrenamiento
- Se para a echar gasolina, compra lotería en la gasolinera y gana 1.700 millones de euros: “sinceramente, estamos sin palabras…”
- Se casan con 61 años, se divorcian a los treinta meses y reclama a su exmarido una paga vitalicia de 450 euros porque cobra una pensión de 2.520 euros
- Una pareja construye una casa con contenedores y ahora descubren que no tendrán suministro de agua
- El pueblo más barato para comprar casa en Toledo: con todos los servicios y chalets desde 35.000 euros