El aviso de la Policía Nacional a toda España: haz esto para evitar la nueva estafa del "Voice Hacking"
Una nueva técnica de fraude digital ha llevado a la Policía Nacional a emitir una advertencia urgente a toda la población
:format(jpg)/f.elconfidencial.com%2Foriginal%2F973%2F96a%2F5db%2F97396a5dbb6a9bb20bdb84b71059013e.jpg)
- El curioso modo de protestar de un coche en Madrid contra la DGT: "Con las manos llenas"
- El aviso de la DGT a toda España: a partir de este lunes se activa una "vigilancia intensiva" con multas de hasta 600 euros
Una modalidad de fraude que se aprovecha de la voz humana ha puesto en alerta a la Policía Nacional, que ha lanzado un aviso a toda la ciudadanía. El fraude se conoce como voice hacking y consiste en clonar voces reales mediante inteligencia artificial. A través de esta técnica, los estafadores simulan ser personas cercanas a la víctima para manipularla emocionalmente. La finalidad suele ser obtener dinero o información privada.
Este engaño se basa en el uso de audios que los delincuentes recogen de internet, redes sociales o incluso de mensajes de voz. Con solo unos segundos de grabación, es posible generar réplicas que imitan casi a la perfección el tono, timbre y forma de hablar de una persona. Usan esos audios falsos para enviar mensajes urgentes o dramáticos que incitan a la víctima a actuar sin pensar. Esa presión emocional es lo que hace tan eficaz esta estafa.
Desde el Instituto Nacional de Ciberseguridad (Incibe) advierten de que esta técnica forma parte del fenómeno de los deepfakes, donde se crean imitaciones digitales que suplantan identidades. En este caso, el foco está en la voz, lo que añade un componente emocional especialmente difícil de detectar. A menudo, los estafadores piden transferencias económicas inmediatas o datos bancarios haciéndose pasar por alguien cercano.
🤔¿Has escuchado hablar del #VoiceHacking?
— Policía Nacional (@policia) April 13, 2025
📢Obtienen tu #voz de alguna grabación y con #IA consiguen un audio para engañar a tus contactos
Te contamos cómo ⬇️⬇️#Ciberseguridad pic.twitter.com/GV0iQ3c0ZN
Para evitar caer en este tipo de fraudes, la Policía Nacional recomienda no confiar en ningún audio alarmante recibido sin previo aviso. Aunque la voz suene familiar, conviene confirmar la información por otra vía, como una videollamada o un mensaje directo. Otra medida útil es pactar una palabra clave de seguridad con familiares o personas de confianza, que permita comprobar rápidamente si el mensaje es real o no.
También se sugiere reducir al máximo la exposición de la voz en espacios digitales públicos. Cuantos más audios personales haya en internet, más fácil resulta para los estafadores construir una imitación. El Incibe insiste en que la verificación de cualquier mensaje sospechoso es imprescindible. Una actitud vigilante puede evitar consecuencias económicas y emocionales graves.
Las autoridades animan a denunciar estos casos y a difundir la información entre personas menos familiarizadas con la tecnología. El conocimiento es la mejor defensa frente a estas nuevas formas de fraude. Tanto la Policía Nacional como el Incibe subrayan la necesidad de reforzar la seguridad digital en todos los ámbitos, incluido el entorno familiar.
- El curioso modo de protestar de un coche en Madrid contra la DGT: "Con las manos llenas"
- El aviso de la DGT a toda España: a partir de este lunes se activa una "vigilancia intensiva" con multas de hasta 600 euros
Una modalidad de fraude que se aprovecha de la voz humana ha puesto en alerta a la Policía Nacional, que ha lanzado un aviso a toda la ciudadanía. El fraude se conoce como voice hacking y consiste en clonar voces reales mediante inteligencia artificial. A través de esta técnica, los estafadores simulan ser personas cercanas a la víctima para manipularla emocionalmente. La finalidad suele ser obtener dinero o información privada.