La Policía Nacional advierte del auge del voice hacking: suplantaciones de voz realistas para manipular emocionalmente y estafar a las víctimas
La Policía Nacional ha lanzado una alerta general a la ciudadanía ante el preocupante aumento de estafas cometidas mediante clonación de voz basada en Inteligencia Artificial (IA). Esta modalidad delictiva, también conocida como voice hacking, permite replicar la voz de cualquier persona con sorprendente realismo a partir de simples fragmentos de audio. Los delincuentes la utilizan para suplantar la identidad de familiares, jefes o figuras de confianza, provocando situaciones de estrés o urgencia para conseguir dinero o datos sensibles.
Una tecnología al alcance de cualquiera
Actualmente, existen en el mercado —incluso de forma gratuita— herramientas de clonación de voz que solo requieren una grabación de entre 30 segundos y 3 minutos. Cuanto más clara y larga sea la muestra de voz, más verosímil será el resultado. Y no solo se trata de audios de llamadas: cualquier vídeo o nota de voz pública en redes sociales puede ser fuente de captura de voz.
Expertos en ciberseguridad advierten que incluso llamadas comerciales falsas pueden ser empleadas como cebo para grabar una muestra y generar una réplica convincente. En los círculos especializados se menciona la existencia de call centers fraudulentos en Asia y América Latina capaces de clonar voces en tiempo real.
Casos reales: del «hijo secuestrado» al «jefe urgente»
Entre los métodos más comunes está el de la estafa del familiar en apuros: un supuesto hijo o nieto llama desesperado, pidiendo dinero para pagar una fianza o evitar una supuesta amenaza. También se han reportado casos donde un falso directivo de empresa solicita transferencias bancarias urgentes a sus empleados. El denominador común en todos estos engaños es la urgencia emocional y la presión para actuar sin reflexionar.
Según el Instituto Nacional de Ciberseguridad (INCIBE), ya se han reportado múltiples víctimas en España, y las autoridades temen una escalada de estos fraudes a medida que la tecnología se democratiza.
Recomendaciones clave para protegerse
La Policía y los expertos recomiendan una serie de medidas preventivas para minimizar el riesgo de caer en estas estafas:
- Desconfía de llamadas inesperadas, incluso si reconoces la voz. Verifica siempre por otros canales.
- Limita la exposición pública de tu voz. Evita publicar vídeos o audios personales en redes sociales sin necesidad.
- No respondas bajo presión. Tómate el tiempo necesario para comprobar la situación con calma.
- Establece una palabra clave o código con tus familiares. Puede ser crucial en caso de una llamada sospechosa.
- Activa la autenticación biométrica o por voz solo si el sistema incluye control antifraude.
- No proporciones datos personales o bancarios por teléfono.
- Actualiza siempre tus dispositivos. Las actualizaciones corrigen fallos de seguridad aprovechados por los ciberdelincuentes.
Además, en caso de haber sido víctima de una suplantación de voz, las autoridades instan a denunciarlo cuanto antes en la comisaría más cercana.
Una amenaza que irá a más
Los expertos coinciden en que el voice hacking es una tendencia creciente en la ciberdelincuencia. Su bajo coste y alta efectividad lo convierten en una herramienta atractiva para estafadores, especialmente en un contexto donde la IA generativa avanza a pasos agigantados.
Aunque no es necesario alarmarse, sí es fundamental aumentar la concienciación y adoptar medidas de autoprotección, especialmente entre los colectivos más vulnerables como las personas mayores o con menos alfabetización digital.
La voz, hasta hace poco considerada un elemento seguro y personal, se ha convertido en un nuevo vector de ataque. La educación digital y la prevención son las mejores armas para frenar esta nueva forma de fraude.