Sumar pide regular la IA ante el «daño potencial» que su mal uso puede crear en grupos vulnerables

Sumar defiende que la «necesidad de regular» la Inteligencia Artificial (IA) es «imperante debido al daño potencial que un mal uso de la misma puede ocasionar en grupos que resultan especialmente vulnerables a sus repercusiones, como lo son los menores y las mujeres».

Así lo pone de relieve el Grupo Plurinacional Sumar en el Congreso, en una pregunta parlamentaria registrada para su respuesta por escrito, tras el caso de los jóvenes menores de edad identificados por su presunta relación con la producción de falsos desnudos de chicas de Almendralejo (Badajoz), también menores, a partir de Inteligencia Artificial.

En la iniciativa, la diputada de Más Madrid Teslem Andala Ubbi, conocida como Tesh Sidi, argumenta que las imágenes falsas de las menores de Almendralejo «son tan realistas que algunas personas las han confundido con las niñas reales, lo que ha causado gran consternación y preocupación en sus familias».

En este contexto, la parlamentaria de Sumar explica que Undress AI es una forma de ‘deepfake’ que utiliza Inteligencia Artificial para crear y modificar imágenes, eliminando la ropa de las personas y generando apariencias de piel realistas. «Esta tecnología tiene diversas aplicaciones en entretenimiento (educación, arte y uso personal) pero, también, plantea preocupaciones en términos de privacidad, consentimiento y ética», sostiene.

Asimismo, Tesh Sidi detalla que ‘Undress AI’ se basa en Redes Generativas Antagónicas (GAN), que constan de dos componentes: un generador, que crea imágenes falsas de personas desnudas; y un discriminador, que distingue entre imágenes reales y falsas. Con ello, el sistema se entrena en una gran base de datos de imágenes de desnudos para mejorar la calidad y la precisión de las imágenes generadas a lo largo del tiempo, añade.

MOMENTO CLAVE

«Nos encontramos en un momento clave, ya que las rápidas mejoras que se esperan en estas herramientas dificultarán, cada vez más, distinguir entre imágenes manipuladas y reales. A esto se suma la proliferación continua de plataformas que facilitan la transmisión de información pero que ponen grandes imposibilidades a la hora de retirar contenido como, en concreto, las imágenes a las que nos referimos», manifiesta.

En este sentido, la parlamentaria agrega que es «importante», además, tener en cuenta que los niños, jóvenes y las mujeres son «particularmente vulnerables a este tipo de abuso» y que los expertos sugieren «una solución de dos vías que involucra tecnología y regulación».

«Es crucial desarrollar clasificadores para identificar el contenido genuino y falso, junto con mandatos gubernamentales para etiquetar, de manera clara, el contenido generado por la inteligencia artificial», subraya.

A su juicio, es necesario que la regulación llegue «con más celeridad desde un nivel más alto, como puede ser el ámbito estatal y/o el europeo». «La aparición de herramientas como ‘UndressAI’ resalta la urgencia de regular las tecnologías de inteligencia artificial para proteger a las personas del uso indebido y la manipulación», insiste.

Por todo ello, Sumar pregunta al Gobierno qué medidas tomará la Agencia Nacional de Supervisión de la Inteligencia Artificial para abordar el problema de los ‘deepfakes’ y proteger la seguridad, el honor y la privacidad de la ciudadanía en el ámbito de la inteligencia artificial.

En paralelo, la formación política quiere saber si se van a impulsar programas integrales en el ámbito educativo para concienciar a los más jóvenes sobre el uso responsable de la Inteligencia Artificial y «por qué no se ha promocionado o invertido más dinero en promocionar mejor la herramienta Canal Prioritario» de la Agencia Española de Protección de Datos (AEPD), para que la ciudadanía conozca este servicio que ya se oferta.

CANAL PRIORITARIO DE LA AEPD

La Agencia Española de Protección de Datos dispone de un Canal Prioritario para comunicar la difusión ilícita de contenido sensible y solicitar su retirada. Este sistema tiene como objetivo dar una respuesta rápida en situaciones excepcionalmente delicadas, como aquellas que incluyen la difusión de contenido sexual o violento.

Durante el año 2022 se duplicó la cifra de reclamaciones gestionadas a través del Canal Prioritario –para solicitar la retirada urgente de contenido sexual o violento publicado en internet sin el permiso de las personas que aparecen– que tuvieron una tramitación urgente. Se realizaron 51 intervenciones en 2022, logrando retirar los contenidos sensibles con inmediatez en más de un 90% de los casos.