Por [Iván Medina]
México , 4 de noviembre de 2024 – Una nueva modalidad de estafa está causando preocupación entre los usuarios de WhatsApp: los cibercriminales ahora emplean inteligencia artificial (IA) para clonar la voz de familiares y así engañar a sus víctimas. El Instituto Nacional de Ciberseguridad (Incibe) advirtió sobre este método, que ha sido detectado tanto en llamadas telefónicas como en mensajes de voz enviados a través de esta plataforma.
La técnica es sofisticada y efectiva. Los estafadores utilizan IA para replicar la voz de algún familiar y crear mensajes de audio en los que se solicita ayuda o se pide que se contacte a un número específico. La suplantación se logra con solo unos segundos de grabación de la voz original, lo que permite a los delincuentes crear audios convincentes que imitan el tono y la forma de hablar de la persona.
¿Cómo funciona la estafa?
El Incibe detalló que este tipo de estafas comienza con llamadas sin respuesta al teléfono de la víctima, en las que los estafadores buscan captar pequeños fragmentos de voz que luego usan para clonar el timbre de un familiar. Incluso pueden aprovechar audios o videos en redes sociales para recrear la voz y enviar mensajes falsos.
Una vez que obtienen la imitación, los delincuentes envían un mensaje o realizan una llamada en la que, al reconocer la voz de su supuesto familiar, la víctima puede bajar la guardia y seguir las indicaciones sin dudar. Los estafadores suelen pedir datos personales o bancarios y, en algunos casos, incluso solicitan transferencias de dinero, todo bajo el pretexto de una supuesta urgencia.
Recomendaciones para evitar ser víctima de la estafa
El Incibe ha emitido una serie de recomendaciones para evitar caer en esta estafa de suplantación de voz:
1. Confirma la identidad por otros medios: Si recibes un mensaje o llamada sospechosa de un familiar, intenta contactar a esa persona por otro medio para corroborar que realmente se trata de él o ella.
2. Nunca compartas datos personales o bancarios. No proporciones información sensible ante una llamada o mensaje sospechoso.
3. Evita seguir indicaciones inusuales: No accedas a enlaces, ni descargues aplicaciones o sigas instrucciones de números desconocidos.
4. Usa palabras clave de seguridad: Acordar una palabra o frase clave con familiares y amigos puede ayudar a verificar la identidad en situaciones dudosas.
5. Bloquea números desconocidos: Si recibes un mensaje sospechoso, bloquea el número de inmediato para evitar futuros intentos de contacto.
6. Reporta el fraude: Informa a las autoridades sobre cualquier intento de estafa para contribuir a prevenir estos delitos.
7. Cuida tus redes sociales: Evita compartir audios o videos con información personal que puedan ser aprovechados por delincuentes.
8. Verifica la autenticidad de los mensajes. Antes de difundir mensajes o audios, asegúrate de que provienen de fuentes confiables y no promuevas contenido que pueda ser falso.
La suplantación de voz mediante IA representa un avance en las técnicas de estafa digital, lo que hace que la prevención y la prudencia sean esenciales para protegerse en un entorno cada vez más complejo.
Imágen cortesía: ANDINA