Investigadores españoles diseñan un sistema para averiguar si una grabación de voz es real o de IA

La lucha contra las ‘fake news’ se intensifica con una innovadora herramienta desarrollada por la Universidad de Granada. Este sistema, pionero en el mundo, utiliza Inteligencia Artificial (IA) para analizar audios y determinar si son reales o han sido generados artificialmente.

La amenaza creciente de los audios falsos

En la era digital actual, la desinformación se propaga como la pólvora, y los audios falsos se están convirtiendo en un arma poderosa. La sofisticación de las redes neuronales profundas permite crear voces sintéticas asombrosamente realistas, lo que facilita la suplantación de identidad, las estafas telefónicas y la difusión de noticias falsas.

Si bien las imágenes y los vídeos manipulados han sido el foco principal en la lucha contra la desinformación, los audios falsos están ganando terreno rápidamente. La capacidad de discernir entre una voz real y una generada por IA es crucial para combatir esta nueva ola de manipulación.

Una solución innovadora desde la Universidad de Granada

Investigadores del departamento de Lenguajes y Sistemas Informáticos de la Universidad de Granada (UGR) han desarrollado una herramienta revolucionaria que promete cambiar las reglas del juego. En colaboración con la Cátedra RTVE-UGR y Monoceros Labs, este equipo de expertos ha creado un sistema que integra soluciones propias y de terceros para analizar audios con precisión.

¿Cómo funciona esta herramienta? A través del entrenamiento con una amplia base de datos de voces reales y sintéticas, incluyendo modelos específicos para personalidades públicas que son objetivo frecuente de la desinformación, la IA puede identificar patrones y características que delatan la artificialidad de un audio.

Precisión y personalización para combatir la desinformación

Durante la presentación de la herramienta, se realizaron demostraciones con voces clonadas de figuras como el Rey Felipe VI, Pedro Sánchez y Yolanda Díaz. Los investigadores destacaron que el objetivo no es generar estas voces falsas, sino entrenar la IA para que las detecte con mayor eficacia.

La herramienta no solo se limita a identificar audios falsos, sino que también se está trabajando en su desarrollo para ofrecer funcionalidades adicionales a los periodistas. La IA conversacional permitirá la interacción con la herramienta para verificar la autenticidad de un audio en tiempo real, proporcionando una capa adicional de seguridad y confianza en la información.

El futuro de la verificación de la información

Este avance tecnológico marca un hito en la lucha contra la desinformación. La posibilidad de desenmascarar audios falsos con una alta precisión otorga a periodistas, investigadores y al público en general una herramienta invaluable para navegar por el complejo panorama informativo actual.

La Universidad de Granada, con el desarrollo de esta innovadora herramienta, se posiciona a la vanguardia en la lucha contra la desinformación, demostrando el potencial de la IA para proteger la verdad y la integridad en la era digital.