La inteligencia artificial sigue siendo una tecnología controvertida entre los creadores de contenido digital. Para algunas empresas y para los ingenieros digitales es vista como una gran oportunidad, pero para artistas, diseñadores y escritores es vista como un peligro en varios niveles. Uno de ellos es el reclamo por el posible plagio que significa que estas aplicaciones aprendan de su trabajo sin permiso, y no debería ser una sorpresa que algunos de ellos busquen ahora cómo defenderse.
Su táctica más reciente es la aplicación ‘Nightshade’, el nombre en inglés de la Atropa belladona, una planta venenosa que crece en África y usada en varios relatos de ficción. Diseñada en Estados Unidos que agrega píxeles falsos a sus diseños y en el proceso puede confundir a las aplicaciones que generan imágenes. Dado que aplicaciones como el Bardo de Google o DALL-E de Open AI funcionan usando otras imágenes creadas anteriormente como referencia si una o dos de estas están corrompidas pueden terminar causando daños irreversibles a los programas de entrenamiento de las aplicaciones.
Los resultados en las pruebas han sido prometedores, al menos para quienes rechazan las aplicaciones de inteligencia artificial. El pedido de la imagen de un perro se convierte en un gato, un castillo del Señor de los Anillos en una vieja casa rural y de forma especialmente chocante el dibujo basado en el cubismo de Picasso se transforma en anime. Es un problema importante para su funcionamiento, y que puede ir empeorando a medida que más artistas apuesten por este tipo de tecnología. Es el segundo programa del profesor de la Universidad de Chicago Ben Zhao para enfrentar estas aplicaciones, pero mientras que ‘Glaze’ solo escondía las imágenes de los software de entrenamiento con una tecnología parecida esta busca directamente dañarlos.
Aunque el equipo de Zhao ha anunciado que lanzará un paquete con ambas tecnologías también se creará una versión de código abierto para que otros usuarios creen sus versiones. Es que según explica el profesor es una decisión basada en funcionamiento, pues mientras más creadores de imágenes «envenenen» sus creaciones más daño le harán a las aplicaciones de inteligencia artificial.
EL PROBLEMA DE CONECTAR LA INTELIGENCIA ARTIFICIAL A INTERNET
Parte de la dificultad de enfrentar este tipo de programas es que estas aplicaciones absorben información e imágenes de la web sin discriminar de modo alguno. Sumado a que tanto ‘Glaze’ como ‘Nightshade’ esconden los píxeles modificados del ojo humano es complicado que incluso los amantes de esta tecnología. Además, la única forma de corregir el problema es revisar cada imagen en la base de datos, manualmente, y retirar las imágenes ya descargadas para evitar este problema.
Por supuesto al hablar de tecnología hablamos en tiempo presente absoluto. Después de todo tanto Google como Open AI deben estar buscando solución al problema antes que se propague entre expertos y curiosos. Pero si no reaccionan rápido en cualquier momento será posible que al solicitar un diseño para un bolso de lujo veamos un tostador o un sombrero al intentar diseñar una tarta.
Si ‘Nightshade’ funciona como es debido con tan solo 300 muestras contaminadas que lleguen a un software se puede dañar permanentemente algún concepto en el programa.
Si ‘Nightshade’ funciona como es debido con tan solo 300 muestras contaminadas que lleguen a un software se puede dañar permanentemente algún concepto en el programa, es decir que si no son removidas de la base de datos estas imágenes cada vez que se solicite la imagen de un perro el objetivo será un gato, y probablemente uno gordo.
LOS ARTISTAS SIGUEN EN PIE DE GUERRA CONTRA LA INTELIGENCIA ARTIFICIAL
El desarrollo de herramientas como ‘Glaze’ y ‘Nightshade’ busca recuperar el poder de los artistas para definir cómo se usan sus creaciones, y recibir compensación económica por ese trabajo. Es uno de los reclamos constantes de los creadores de contenido a la hora de enfrentar la inteligencia artificial. La meta de estas herramientas es que deban ser consultados antes de que sus diseños terminen en la base de datos de Open AI o Google.
Si bien tanto DALL-E como el Bardo de Google tienen la opción de que el artista se niegue a que sus imágenes se usen para educar estas aplicaciones es complicado registrarse en esa lista, así como evitar que alguna reproducción llegue hasta allí. Por tanto, incrustar las defensas en el código de la imagen es quizás la mejor manera de defenderse.