Actualidad

Esta tecnología esconde píxeles envenenados en las obras de arte para inutilizar a la IA

Por El Grito

STEPHANIE ARNETT/MITTR | REIJKSMUSEUM, ENVATO

Nightshade, desarrollada por un equipo de investigadores de la Universidad de Chicago, permite a los artistas introducir ‘caballos de Troya’ digitales en sus cuadros antes de subirlos a la web. Estos solo se activan si las obras son empleadas para alimentar a un modelo de aprendizaje sin su consentimiento.

Hace cosa de un año, The New York Times se hacía eco del palmarés de la Feria Estatal de Arte de Colorado, un certamen menor que, probablemente, nunca antes había tenido un hueco tan destacado en uno de los medios escritos más importantes no ya de EEUU, sino del mundo. El motivo era que uno de los ganadores se había alzado con uno de los premios con Théâtre D'opéra Spatial, un cuadro con Inteligencia Artificial. "No voy a disculparme por ello", respondía su autor, Jason Matthew Allen, a los que cuestionaban la legitimidad de su galardón.

El artista digital había creado una obra en la que se mezclaba lo clásico con lo futurista utilizando Midjourney, un sistema que genera imágenes a partir de texto. Para poder hacerlo, este tipo de programas se alimentan a su vez de las incontables imágenes que circulan por la red y que le enseñan qué forma o apariencia puede tener un determinado objeto o concepto. De esta forma, la IA es capaz de crear un cuadro -además de otro tipo de imágenes- simulando técnicas o estilos que ha aprendido gracias al trabajo de otros, en solo un click, sin necesidad de que la persona que va a ser considerada su artífice tenga ninguna destreza artística previa.

Este software se aprovecha de las creaciones de los artistas sin que ellos perciban ningún tipo de retorno por ello y sin que puedan hacer nada para impedirlo… O sí. Un equipo de investigadores de la Universidad de Chicago, dirigido por el profesor Ben Zhao, ha creado una herramienta que permite a los artistas introducir píxeles envenenados en sus obras antes de ponerlas en línea, según publica MIT Technology Review. Esta suerte de caballos de Troya digitales hacen que si los cuadros se emplean para alimentar a una IA, los resultados sean inservibles de manera que donde tendría que haber un coche salga una vaca, y lo que fuera un cuadro cubista, acabe siendo un anime.

Los investigadores buscan integrar Nightshade con Glaze. (The Glaze Project)

Sus creadores pretenden que Nightshade (Belladona, en español) sirva a los artistas para luchar contra empresas como Midjourney, Dall-e o Stable Diffusion que utilizan el trabajo de los artistas para entrenar sus modelos sin su autorización ni pagar derechos de autor. “La asimetría de poder entre las empresas de inteligencia artificial y los propietarios de contenidos es ridícula”, explican los investigadores a través de la cuenta de X de Glaze, la primera herramienta que desarrollaron para que los artistas pudieran plantar cara la IA enmascarando su estilo -una vez más- mediante la introducción de un píxel invisible.

”Si eres un estudio de cine, una empresa de videojuegos, una galería de arte o un artista independiente, lo único que puedes hacer para evitar ser absorbido por un modelo es listas de exclusión voluntaria o directivas antiscraping. Ninguno de estos mecanismos es ejecutable, ni siquiera verificable. Las empresas han demostrado que pueden ignorar las opciones de exclusión voluntaria sin pensarlo”, lamentan.

La capacidad de daño de Nightshade es exponencial de forma que cuantas más personas la utilicen y creen sus propias versiones, más potente será la herramienta por lo que será de código abierto. “Esperamos que se utilice de forma ética para desincentivar la extracción de datos no autorizada, no para ataques maliciosos”, apuntan.

El equipo de investigadores creo su propia IA para probar las herramientas de envenenamiento. (The Glaze Project)

Para probar su efectividad, sus desarrolladores hicieron la prueba con un modelo de IA de Stable Diffusion que entrenaron desde cero con medio centenar de imágenes envenenadas de perros. A continuación, le pidieron que creara sus propias representaciones de perros. El resultado fue un surtido de canes que presentaban diversas mutaciones: demasiadas patas, cabezas amorfas… Conforme más imágenes dañadas se introducen en el sistema, más se aleja el resultado del concepto real de manera que -250 imágenes envenenadas más tarde- el perro acaba siendo un gato.

Los modelos generativos de IA establecen conexiones entre familias de palabras, lo que facilita la propagación de la infección. Así, siguiendo con el ejemplo, el veneno no solo afecta a la palabra "perro", sino a todas aquellas con las que entabla relación -"cachorro", "husky", "lobo",etc.- por lo que su efecto es letal.

De esta manera los creadores de Nightshade y Glaze -que acaba de ser elegida por la revista Time como una de las mejores invenciones de 2023- tratan de preservar la creatividad, “una parte fundamental del ser humano. Pregúntale a cualquiera que conozcas que se gane la vida creando sobre genAI”.