Cada día los expertos en ciberseguridad siguen descubriendo nuevas estrategias llevadas a cabo por los delincuentes para tratar de engañar a los usuarios. Una de las últimas en ser descubiertas ha sido el voice hacking, un nuevo método que puede llegar a ser realmente peligroso.
Este tipo de estafa se apoya en la inteligencia artificial para clonar tu voz y utilizarla para cometer estafas de todo tipo. De esta manera, aunque la IA puede ser el pasaporte al éxito profesional, también puede ser un instrumento muy peligroso si llega a las manos inadecuadas. Te explicamos cómo funciona esta nueva estafa.
3‘VOICE HACKING’, UNA TÉCNICA MUY PELIGROSA
Entre todas las estafas actuales hay que destacar el voice hacking, es decir, la clonación de voz, una técnica en la que los delincuentes digitales hacen uso de la inteligencia artificial para replicar la voz de una persona. De esta manera, consiguen crear grabaciones que suenan como si fuesen las de la persona legítima.
También denominada deepfake de voz o deep voice, se trata de una técnica que puede ser muy peligrosa, pues puede llevar a que muchas personas se dejen llevar por las peticiones que les realiza una voz que les resulta familiar. Además, pueden comprometer la seguridad del hogar a través de los asistentes virtuales, como Siri, Google Home o Alexa.