
Los avances en inteligencia artificial (IA) están siendo aprovechados por ciberdelincuentes para cometer fraudes cada vez más sofisticados. Expertos de las firmas de ciberseguridad Kaspersky y ESET advirtieron que los criminales pueden clonar la voz de familiares o conocidos con apenas unos segundos de audio, recreando llamadas falsas de emergencia o extorsión que resultan difíciles de distinguir de una conversación real.
Según ESET, los estafadores analizan grabaciones reales y, mediante algoritmos de IA, reproducen patrones de voz, tono y acento para generar mensajes o diálogos convincentes. Estas llamadas falsas, conocidas como deepfakes de audio, se han vuelto un método común para cometer secuestros virtuales o exigir dinero a cambio de la supuesta liberación de un ser querido, sin que exista un rapto real.
Una palabra clave puede marcar la diferencia
Ante esta amenaza creciente, los especialistas recomiendan establecer una palabra o frase clave familiar, que permita verificar rápidamente si la llamada proviene realmente de un ser querido. ESET subraya que esta palabra debe ser simple, fácil de recordar y diferente a otras contraseñas, además de actualizarse periódicamente.
“Es importante contar con una frase segura, acordada previamente entre familiares y amigos, que funcione como un código de emergencia”, indicó la empresa de seguridad informática.
Además, los expertos aconsejan no compartir audios personales en redes sociales, activar la verificación en dos pasos en las aplicaciones de mensajería y desconfiar de llamadas o mensajes alarmistas que soliciten información urgente o dinero.
Cómo detectar una llamada con voz clonada
La compañía Kaspersky señaló que existen varios indicadores para identificar un posible deepfake de voz. Entre ellos destacan:
Tono monótono o distorsionado, sin pausas naturales.
Incongruencias en el relato o información poco coherente.
Ausencia de emociones reales o expresiones humanas típicas.
Presión para actuar con rapidez o compartir datos personales.
“Si recibe una llamada inusual, escuche con atención la calidad del sonido. Los estafadores se aprovechan del pánico y la sorpresa para lograr su objetivo”, advirtió la empresa.
El negocio oculto detrás de las voces falsas
De acuerdo con la investigadora Isabel Manjarrez, del Equipo Global de Investigación y Análisis de Kaspersky, el mercado negro de contenido falso generado por IA está en plena expansión. Los audios manipulados ya se utilizan para evadir controles biométricos, acceder a cuentas bancarias y manipular conversaciones privadas.
Los expertos alertan que, conforme la tecnología avance, las falsificaciones podrán generarse en tiempo real, lo que eleva significativamente el riesgo de suplantación. Por ello, insisten en fortalecer la educación digital, verificar las fuentes de cualquier llamada sospechosa y mantener la calma ante posibles intentos de fraude.
Fuente: UNO TV
