El Instituto Nacional de Ciberseguridad (Incibe) ha emitido una alerta sobre un nuevo método de estafa en el que se emplea inteligencia artificial (IA) para clonar la voz de familiares y solicitar ayuda de manera engañosa. Este tipo de fraude se realiza mediante llamadas telefónicas y mensajes de voz en WhatsApp, en los que los cibercriminales reproducen la voz de algún conocido para hacer peticiones falsas.
¿Cómo los estafadores clonan voces usando IA?
Incibe detalla que los estafadores pueden generar audios manipulados con solo unos segundos de grabación de la voz de una persona, reproduciendo su tono de manera creíble. En ocasiones, capturan audios de redes sociales o hacen llamadas silenciosas para recoger fragmentos de la voz de la víctima. Luego, estos audios se utilizan para crear mensajes falsos en los que se pide contactar un número o facilitar información.
Al reconocer la voz de un familiar, muchas personas confían en el mensaje y siguen las indicaciones, lo que puede llevarlas a compartir datos personales o bancarios, o incluso a realizar transferencias.
Recomendaciones para evitar caer en esta estafa
Para protegerse de este tipo de fraude, Incibe recomienda:
- Verificar la identidad de la persona mediante otro canal de comunicación antes de responder.
- No proporcionar datos personales ni bancarios a desconocidos.
- No seguir indicaciones para ingresar a enlaces o descargar aplicaciones sospechosas.
- Establecer una palabra clave con familiares y amigos para confirmar la identidad en caso de mensajes sospechosos.
- Bloquear el número de llamadas sospechosas y reportarlas a las autoridades.
- Evitar compartir contenido audiovisual en redes que pueda ser aprovechado para crear audios falsos.
- No difundir información sin verificar su autenticidad.
¿Dónde reportar un intento de estafa con IA?
En México, se puede denunciar este tipo de estafas en el teléfono 088 o mediante las redes sociales oficiales de las autoridades.