"Hola mamá, soy yo". Recibes una llamada de un número desconocido, pero la voz es inequívoca: es tu hijo. Suena angustiado. "He tenido un accidente, te llamo desde el móvil de un amigo. Necesito que me mandes 1.000 euros urgentemente para la grúa y el taller, luego te lo explico todo".
Tu primer instinto es ayudarle. La voz es la suya. Pero es una trampa.
La Policía Nacional y el Instituto Nacional de Ciberseguridad (INCIBE) han lanzado una advertencia tajante sobre la nueva estafa de voice hacking o deepfake de voz. Los ciberdelincuentes ya no necesitan suplantar a tu banco: ahora pueden suplantar a tu propia familia usando Inteligencia Artificial.
¿Cómo funciona la estafa de la voz clonada?
Es más sencillo y rápido de lo que parece. Los estafadores no necesitan horas de conversación. Les basta con unos pocos segundos de tu voz, que pueden obtener fácilmente de:
- vídeos públicos en redes sociales (Instagram, TikTok, Facebook)
- mensajes de voz de WhatsApp reenviados
- una simple llamada en la que contestas “¿Diga?”
Con apenas 15 segundos de grabación, un software avanzado de IA puede replicar el tono, el timbre y las inflexiones de la voz de cualquier persona y hacerle decir lo que quieran.
¿Qué buscan los estafadores? Más allá de la familia
Aunque el engaño familiar es el más alarmante, también utilizan esta técnica para:
- Suplantación empresarial: imitar la voz de un directivo para ordenar una transferencia urgente.
- Manipular asistentes de voz: dar órdenes falsas a Alexa, Siri o Google Home (desactivar alarmas, acceder a información, etc.).
- Desinformación: crear audios de políticos, médicos o figuras públicas para generar bulos o crisis reputacionales.
La clave infalible que recomienda la Policía
Si la tecnología avanzará hasta un punto en que será imposible distinguir a simple oído una voz real de una clonada, ¿cómo podemos protegernos?
La solución no es tecnológica, sino psicológica y sorprendentemente simple: establecer una 'palabra clave de seguridad' familiar.
No se trata de hacer un interrogatorio (“¿cómo se llamaba tu primer perro?”), porque en una situación de pánico nadie piensa con claridad. Se trata de tener una única palabra o frase corta, acordada previamente, que funcione como interruptor de seguridad.
Así funciona en la práctica
Estafador (voz clonada): “¡Mamá, soy yo! He tenido un accidente, necesito 1.000 euros ya.” Tú (con calma): “Claro, hijo, te lo mando ahora mismo. Pero antes, dime la clave familiar.”
El estafador no la sabe, se bloquea o se enfada. En ese momento, cuelgas y llamas tú al número real de tu familiar.
La clave puede ser cualquier cosa que solo vosotros sepáis:
- el nombre de una mascota de la infancia (“Sultán”)
- un lugar especial (“El pino de la playa”)
- una frase absurda (“Aguacate azul”)
Casos reales que demuestran que no es ciencia ficción
Estados Unidos, 2023
Jennifer DeStefano recibió una llamada con la voz clonada de su hija, quien supuestamente estaba secuestrada. Exigían un rescate de 47.000 euros.
Canadá
Una pareja de ancianos retiró 2.750 euros tras oír la voz casi idéntica de su nieto pidiéndoles dinero para una supuesta fianza.
5 consejos extra para blindarte frente al 'hackeo de voz'
1. Desconfía siempre de la urgencia
Las estafas siempre exigen dinero “ya”. Respira y verifica por otro canal.
2. No uses asistentes de voz en público
Evita que se graben comandos o conversaciones que puedan usarse para imitar tu voz.
3. Configura la privacidad de tus redes
Si tus perfiles son privados, es más difícil obtener grabaciones tuyas.
4. Activa la autenticación de voz cuando exista
Muchos asistentes permiten registrar voces autorizadas.
5. Mantén todo actualizado
Actualiza dispositivos y apps para cerrar brechas por las que puedan robar audios.
La Policía lo resume de forma clara: la clave no está en distinguir si la voz es real o clonada, sino en no caer en la trampa.






