Ir al contenido principalIr al pie de página

"Mamá, necesito 1.000 euros": la Policía alerta de la estafa de la voz clonada y da la clave infalible para no caer


Imitan la voz de un familiar con IA y recrean una urgencia creíble por lo que caer en la trampa es más fácil de lo que parece


Estafa telefónica © Getty Images
17 de noviembre de 2025 - 16:00 CET

"Hola mamá, soy yo". Recibes una llamada de un número desconocido, pero la voz es inequívoca: es tu hijo. Suena angustiado. "He tenido un accidente, te llamo desde el móvil de un amigo. Necesito que me mandes 1.000 euros urgentemente para la grúa y el taller, luego te lo explico todo".

La Policía Nacional alerta de una nueva estafa en la que los delincuentes clonan la voz de un familiar para pedir dinero con urgencia© Adobe Stock
La Policía Nacional alerta de una nueva estafa en la que los delincuentes clonan la voz de un familiar para pedir dinero con urgencia

Tu primer instinto es ayudarle. La voz es la suya. Pero es una trampa.

La Policía Nacional y el Instituto Nacional de Ciberseguridad (INCIBE) han lanzado una advertencia tajante sobre la nueva estafa de voice hacking o deepfake de voz. Los ciberdelincuentes ya no necesitan suplantar a tu banco: ahora pueden suplantar a tu propia familia usando Inteligencia Artificial.

¿Cómo funciona la estafa de la voz clonada?

Es más sencillo y rápido de lo que parece. Los estafadores no necesitan horas de conversación. Les basta con unos pocos segundos de tu voz, que pueden obtener fácilmente de:

  • vídeos públicos en redes sociales (Instagram, TikTok, Facebook)
  • mensajes de voz de WhatsApp reenviados
  • una simple llamada en la que contestas “¿Diga?”

Con apenas 15 segundos de grabación, un software avanzado de IA puede replicar el tono, el timbre y las inflexiones de la voz de cualquier persona y hacerle decir lo que quieran.

Chica en el metro enviando un audio © Getty Images
Los ciberdelincuentes usan Inteligencia Artificial para imitar voces reales a partir de audios obtenidos en redes sociales, Whatsapp o llamadas previas

¿Qué buscan los estafadores? Más allá de la familia

Aunque el engaño familiar es el más alarmante, también utilizan esta técnica para:

  • Suplantación empresarial: imitar la voz de un directivo para ordenar una transferencia urgente.
  • Manipular asistentes de voz: dar órdenes falsas a Alexa, Siri o Google Home (desactivar alarmas, acceder a información, etc.).
  • Desinformación: crear audios de políticos, médicos o figuras públicas para generar bulos o crisis reputacionales.

La clave infalible que recomienda la Policía 

Si la tecnología avanzará hasta un punto en que será imposible distinguir a simple oído una voz real de una clonada, ¿cómo podemos protegernos?

La solución no es tecnológica, sino psicológica y sorprendentemente simple: establecer una 'palabra clave de seguridad' familiar.

No se trata de hacer un interrogatorio (“¿cómo se llamaba tu primer perro?”), porque en una situación de pánico nadie piensa con claridad. Se trata de tener una única palabra o frase corta, acordada previamente, que funcione como interruptor de seguridad.

Así funciona en la práctica

Estafador (voz clonada): “¡Mamá, soy yo! He tenido un accidente, necesito 1.000 euros ya.” Tú (con calma): “Claro, hijo, te lo mando ahora mismo. Pero antes, dime la clave familiar.”

El estafador no la sabe, se bloquea o se enfada. En ese momento, cuelgas y llamas tú al número real de tu familiar.

La clave puede ser cualquier cosa que solo vosotros sepáis:

  • el nombre de una mascota de la infancia (“Sultán”)
  • un lugar especial (“El pino de la playa”)
  • una frase absurda (“Aguacate azul”)
View post on Instagram
 

Casos reales que demuestran que no es ciencia ficción

 Estados Unidos, 2023

Jennifer DeStefano recibió una llamada con la voz clonada de su hija, quien supuestamente estaba secuestrada. Exigían un rescate de 47.000 euros.

Canadá

Una pareja de ancianos retiró 2.750 euros tras oír la voz casi idéntica de su nieto pidiéndoles dinero para una supuesta fianza.

5 consejos extra para blindarte frente al 'hackeo de voz'

1. Desconfía siempre de la urgencia

Las estafas siempre exigen dinero “ya”. Respira y verifica por otro canal.

2. No uses asistentes de voz en público

Evita que se graben comandos o conversaciones que puedan usarse para imitar tu voz.

3. Configura la privacidad de tus redes

Si tus perfiles son privados, es más difícil obtener grabaciones tuyas.

4. Activa la autenticación de voz cuando exista

Muchos asistentes permiten registrar voces autorizadas.

5. Mantén todo actualizado

Actualiza dispositivos y apps para cerrar brechas por las que puedan robar audios.

La Policía lo resume de forma clara: la clave no está en distinguir si la voz es real o clonada, sino en no caer en la trampa.

DALE AL PLAY

© ¡HOLA! Prohibida la reproducción total o parcial de este reportaje y sus fotografías, aun citando su procedencia.