
Con el uso de IA, los estafadores pueden clonar voces, redactar mensajes de texto altamente realistas e incluso generar videos falsos con el fin de engañar a sus víctimas. Según un informe de la revista Forbes, los nuevos ataques utilizan voces generadas con IA para acceder a las cuentas de los usuarios, imitando con gran precisión la manera de hablar de una persona real.
Le puede interesar: Estos son los trucos para liberar espacio en Gmail sin tener que pagar de más
Recientemente, se conoció una nueva modalidad de estafa por Gmail en la que los ciberdelincuentes usan la inteligencia artificial para hacerse pasar por trabajadores de Google y robar las credenciales de los usuarios.
Justamente esto fue lo que le pasó a Zach Latta, fundador del Hack Club, quien recibió varias llamadas de un supuesto representante de Google. Durante la conversación, la persona le envió un enlace para “restablecer” su cuenta, pero en realidad, el objetivo era sustraer sus datos de acceso. Latta describió que la voz sonaba extremadamente realista, tenía acento estadounidense y una conexión clara, lo que hace que sea difícil detectar la estafa.
Mire también: ¿Cómo saber si un mensaje de SMS o WhatsApp es falso y lo quieren estafar?
Para evitar caer en estos fraudes, Forbes recomienda que si un usuario recibe una llamada de alguien que dice ser del soporte técnico de Google, lo mejor es colgar inmediatamente y verificar directamente desde la configuración de la cuenta si existe algún problema.
Otra medida de protección clave es activar la ‘Protección Avanzada’ de Google, la cual añade una capa extra de seguridad mediante claves de acceso y verificaciones adicionales. También es recomendable no compartir información confidencial por teléfono ni acceder a enlaces sospechosos enviados por correo electrónico o mensajes.