Cada día los expertos en ciberseguridad siguen descubriendo nuevas estrategias llevadas a cabo por los delincuentes para tratar de engañar a los usuarios. Una de las últimas en ser descubiertas ha sido el voice hacking, un nuevo método que puede llegar a ser realmente peligroso.
Este tipo de estafa se apoya en la inteligencia artificial para clonar tu voz y utilizarla para cometer estafas de todo tipo. De esta manera, aunque la IA puede ser el pasaporte al éxito profesional, también puede ser un instrumento muy peligroso si llega a las manos inadecuadas. Te explicamos cómo funciona esta nueva estafa.
5SUPLANTACIÓN DE VOZ MEDIANTE ‘VOICE HACKING’
Los ciberdelincuentes analizan con inteligencia artificial las grabaciones de voz y crean versiones sintéticas que suenan igual que las originales. Con estas hacen llamadas telefónicas o enviarán mensajes de voz con las que tratar de de engañar a las víctimas y que así puedan acceder a realizar transferencias, proporcionar información sensible o incluso hacer compras online.
La suplantación de voz es peligrosa, ya que puede llevar a que se contraten servicios o productos haciéndose pasar por el usuario, lo que supone un peligro por todo lo que puede suponer para las víctimas.