Persona grabando su voz con un teléfono móvil © Getty Images

La IA ya puede clonar tu voz en 3 segundos: por qué es un riesgo y cómo evitar caer en una estafa

Te contamos cómo funciona esta nueva tecnología capaz de imitar tu forma de hablar en segundos y qué señales debes vigilar para no ser víctima de fraudes digitales


2 de julio de 2025 - 14:00 CEST

Clonar una voz humana con inteligencia artificial ya no es ciencia ficción: solo se necesitan 3 segundos de audio para generar una copia virtual convincente. La compañía china Baidu fue una de las primeras en demostrarlo. Lo que hace un año requería media hora de grabación, hoy se consigue en menos de cinco segundos.

Para ti que te gusta

Este contenido es exclusivo para la comunidad de lectores de ¡HOLA!

Para disfrutar de 5 contenidos gratis cada mes debes navegar registrado.

Este contenido es solo para suscriptores.

Suscríbete ahora para seguir leyendo.

TIENES ACCESO A 5 CONTENIDOS DE CADA MES POR ESTAR REGISTRADO.

Recuerda navegar siempre con tu sesión iniciada.

Microfono grabando © Getty Images

Sistemas como Deep Voice (Baidu), Tacotron 2 (Google) o Lyrebird han llevado la clonación vocal a niveles casi indistinguibles de la voz humana. Estas IAs pueden copiar tonos, acentos, géneros e incluso emociones, con resultados tan realistas que ni el cerebro humano es capaz de notar la diferencia. Y lo preocupante es que estas herramientas están al alcance de cualquiera: muchas cuestan entre 1 y 5 euros al mes.

Así funciona una estafa con voz clonada

Los estafadores ya no tienen que imitar una voz, solo necesitan copiarla. Analizan vídeos, audios o mensajes de redes sociales, extraen un pequeño fragmento y crean una réplica digital. Luego hacen llamadas en nombre de familiares, agentes de viajes o directivos de empresa para pedir dinero, contraseñas o acceso a cuentas.

Algunos casos recientes:

  • “La estafa del nieto”: Suplantan la voz de un familiar y simulan una emergencia. En EE. UU., se han registrado múltiples casos recientes.
  • Fraude en viajes: Los estafadores clonan la voz de agentes para ofrecer falsas ofertas. Según Booking.com, estas estafas han aumentado entre un 500 % y un 900 % en el último año y medio.
  • Deepfakes empresariales: Un empleado en Hong Kong transfirió más de 25 millones de dólares tras una videollamada con supuestos directivos cuya imagen y voz habían sido falsificadas por IA.

Por qué el cerebro humano no detecta estas voces falsas

La mayoría de nosotros puede identificar una imagen alterada o mal editada. Pero con el audio es más difícil. Según estudios, al cerebro le cuesta mucho más reconocer una voz sintética, especialmente cuando incluye emociones y matices realistas. Esto hace que el engaño sea aún más eficaz.

Además, según Consumer Reports, 5 de las 6 principales plataformas de clonación de voz permiten crear audios sin verificar el consentimiento. Algunas solo piden marcar una casilla.

© Getty Images

5 formas de protegerte (y proteger a los tuyos)

  1. Desconfía de la urgencia emocional: El miedo y la prisa son aliados del fraude. Si alguien suena angustiado y te exige actuar ya, detente y respira.
  2. Verifica por otro canal: Cuelga y llama tú a esa persona, a su número habitual. Si no responde, contacta a un familiar o amigo cercano.
  3. Crea una palabra clave: Acuerda con tus seres queridos una frase secreta para autenticar llamadas reales.
  4. Haz preguntas personales: Pregunta algo que solo esa persona sabría, como el nombre de una mascota de la infancia o un recuerdo compartido.
  5. Reduce tu huella de voz online: Evita publicar audios o vídeos públicos innecesarios. Cuanto menos material disponible, más difícil será clonar tu voz.

¿Y si ya es demasiado tarde?

Si sospechas que has sido víctima de una clonación de voz, denuncia inmediatamente. Existen herramientas que ayudan a analizar si un audio fue generado por IA, aunque todavía no son infalibles. Lo más importante es estar alerta, hablar con tu entorno y no caer en el pánico.

© ¡HOLA! Prohibida la reproducción total o parcial de este reportaje y sus fotografías, aun citando su procedencia.