La Policía Nacional ha advertido recientemente sobre un nuevo tipo de ciberestafa que está ganando terreno: clonar la voz con inteligencia artificial, también conocida como voice hacking. Esta técnica utiliza algoritmos de IA, también al alcance de cualquiera en Ceuta, para imitar con gran realismo la voz de una persona, con el objetivo de engañar a familiares, amigos o incluso compañeros de trabajo.
El aviso ha sido difundido a través de un vídeo en la red social TikTok, donde una portavoz del cuerpo policial explica cómo actúan los estafadores: primero consiguen una grabación de voz de la víctima —por ejemplo, a través de mensajes de voz o redes sociales—, y luego la procesan con herramientas de inteligencia artificial que permiten recrear frases completas como si fueran dichas por esa persona.
El objetivo principal de esta estafa es obtener dinero o datos personales de personas cercanas a la víctima, haciéndoles creer que están hablando con alguien de confianza. “Pueden hacer creer a tus familiares o amigos que eres tú y pedirles ayuda económica u otra información sensible”, señala la portavoz policial en el vídeo.
Cómo evitar que puedan clonar tu voz
Frente a esta amenaza tecnológica cada vez más sofisticada, la Policía Nacional recomienda una medida sencilla pero muy eficaz: acordar con los contactos cercanos una palabra clave. Esta contraseña, que puede ser el nombre de una mascota, una fecha importante o una expresión común entre ambos, sirve para verificar la autenticidad de la llamada en caso de duda.
Esta práctica, habitual en algunas familias con hijos menores, cobra ahora una nueva dimensión en el ámbito digital, ante un tipo de fraude que no requiere siquiera que los delincuentes accedan al teléfono de la víctima.
🤔¿Has escuchado hablar del #VoiceHacking?
📢Obtienen tu #voz de alguna grabación y con #IA consiguen un audio para engañar a tus contactos
Te contamos cómo ⬇️⬇️#Ciberseguridad pic.twitter.com/GV0iQ3c0ZN
— Policía Nacional (@policia) April 13, 2025
Qué es el ‘voice hacking’ y cómo funciona
Según el Instituto Nacional de Ciberseguridad (INCIBE), el voice hacking o clonación de voz es una técnica de manipulación que se basa en el uso de inteligencia artificial para recrear la voz de una persona real. Se trata de una modalidad del fenómeno conocido como deepfake, que normalmente se asocia con vídeos manipulados, pero que en este caso afecta directamente al audio.
Esta práctica puede combinarse con otros métodos de fraude telefónico como el ‘vishing’ —una variante del phishing que se realiza por voz—, donde los estafadores fingen ser representantes de bancos, empresas u organismos oficiales para obtener datos sensibles de la víctima.
También se ha documentado el uso de grabaciones manipuladas para convencer a un tercero de que envíe dinero a una cuenta fraudulenta, haciéndole creer que quien lo solicita es un familiar en apuros.
Casos reales que demuestran su peligrosidad
Las autoridades ya han detectado varios episodios de este tipo de engaño. Uno de los más llamativos se produjo en 2023, cuando una mujer llamada Jennifer DeStefano recibió una llamada en la que una voz idéntica a la de su hija aseguraba que había sido secuestrada. Los delincuentes exigieron un rescate de 50.000 dólares, aunque más tarde se descubrió que se trataba de una estafa. Su hija se encontraba perfectamente y nunca estuvo en peligro.
Otro caso fue reportado en Canadá, donde una pareja de personas mayores recibió una llamada supuestamente de su nieto, diciendo que había sido arrestado y necesitaba dinero urgentemente para pagar la fianza. La voz era tan parecida que llegaron a retirar 3.000 dólares, aunque finalmente descubrieron que habían sido víctimas de un engaño antes de entregar el dinero.
Recomendaciones de seguridad frente al voice hacking
Para evitar caer en este tipo de fraudes, tanto la Policía Nacional como el INCIBE proponen una serie de medidas de protección digital y de sentido común:
Desconfía de llamadas urgentes o inesperadas, sobre todo si se te solicita dinero o información privada.
Verifica siempre la identidad del interlocutor a través de una clave previamente acordada o mediante otro canal de comunicación.
Mantén tus dispositivos actualizados, ya que las actualizaciones corrigen fallos de seguridad que podrían ser explotados.
Evita usar asistentes virtuales (como Alexa o Siri) en lugares públicos, ya que podrían captar tu voz y ser utilizados para generar un perfil de audio fraudulento.
Activa la autenticación por voz en dispositivos compatibles y asegúrate de que solo respondan a voces previamente registradas.
Cambia tus contraseñas con regularidad y evita repetirlas en varias cuentas. Una buena contraseña debe combinar mayúsculas, minúsculas, números y símbolos.
El crecimiento de herramientas de inteligencia artificial plantea retos inéditos en el ámbito de la ciberseguridad. Por eso, tanto las autoridades como los expertos insisten en la importancia de mantenerse alerta y adoptar hábitos preventivos, especialmente ahora que la voz puede ser manipulada con tanta facilidad como una imagen.