En las redes sociales se ha vuelto viral un video, donde un joven expone cómo a través de WhatsApp su mamá le envía una serie de audios pidiéndole dinero. Lo llamativo es que no es la voz de su familiar, sino otra “muy similar” creada con inteligencia artificial.
El modus operandi de esta estafa se basa en hacerse pasar por una persona cercana a la víctima, la cual necesita dinero de forma inmediata y pide que le hagan transferencias bancarias.
En términos técnicos esta modalidad de ataque se conoce como visihing, en la que se usa la IA para clonar la voz de una persona para suplantar su identidad. Si bien lo que sucede puede parecer fácil de captar y no caer en la trampa, este tipo de amenazas cada vez están más pulidas por parte de los ciberatacantes.
Clonación de voz: cómo funciona
La clonación de voz utiliza algoritmos de inteligencia artificial y redes neuronales para crear un modelo sintético de la voz de una persona. De acuerdo con expertos en ciberseguridad, el proceso solo necesita algunos segundos de grabación para generar una réplica.
En el caso del vishing (la suplantación de identidad mediante voz) los estafadores capturan el audio de la víctima a través de redes sociales, videos públicos o incluso realizando una llamada falsa para grabar la voz.
