Cómo utilizar Nightshade para proteger su obra de arte de la IA generativa



Las herramientas de inteligencia artificial son revolucionarias y ahora pueden mantener conversaciones, generar texto similar al humano y crear imágenes basadas en una sola palabra. Sin embargo, los datos de entrenamiento que utilizan estas herramientas de IA a menudo provienen de fuentes protegidas por derechos de autor, especialmente cuando se trata de generadores de texto a imagen como DALL-E, Midjourney y otros.


Es difícil impedir que las herramientas de IA generativa utilicen imágenes con derechos de autor para entrenar, y artistas de todos los ámbitos de la vida han luchado por proteger su trabajo de los conjuntos de datos de entrenamiento de IA. Pero ahora, todo eso está cambiando con la llegada de Nightshade, una herramienta de inteligencia artificial gratuita creada para envenenar la producción de herramientas de inteligencia artificial generativa y, finalmente, permitir que los artistas recuperen algo de poder.


¿Qué es el envenenamiento por IA?

El envenenamiento por IA es el acto de «envenenar» el conjunto de datos de entrenamiento de un algoritmo de IA. Esto es similar a proporcionar información incorrecta a la IA a propósito, lo que provoca que la IA entrenada funcione mal o no pueda detectar una imagen. Herramientas como Nightshade alteran los píxeles de una imagen digital de tal manera que parece completamente diferente al entrenamiento de IA en ella, pero prácticamente sin cambios desde el original para el ojo humano.



Por ejemplo, si subes una imagen envenenada de un automóvil a Internet, a los humanos nos parecerá igual, pero una IA que intente entrenarse para identificar automóviles mirando imágenes de automóviles en Internet verá algo completamente diferente.


Un tamaño de muestra suficientemente grande de estas imágenes falsas o envenenadas en los datos de entrenamiento de una IA puede dañar su capacidad de generar imágenes precisas a partir de un mensaje determinado, ya que la comprensión del objeto por parte de la IA se ve comprometida.


Todavía quedan algunas preguntas sobre lo que le depara el futuro a la IA generativa, pero proteger el trabajo digital original es una prioridad definitiva. Esto puede incluso dañar futuras iteraciones del modelo, ya que los datos de entrenamiento sobre los que se construye la base del modelo no son 100% correctos.


Con esta técnica, los creadores digitales que no dan su consentimiento para que sus imágenes se utilicen en conjuntos de datos de IA pueden protegerlas para que no sean alimentadas a la IA generativa sin permiso. Algunas plataformas ofrecen a los creadores la opción de optar por no incluir sus obras de arte en conjuntos de datos de entrenamiento de IA. Sin embargo, los entrenadores de modelos de IA han ignorado estas listas de exclusión voluntaria en el pasado y continúan ignorándose con pocas o ninguna consecuencia.


En comparación con otras herramientas de protección de obras de arte digitales como Glaze, Nightshade es ofensivo. Glaze evita que los algoritmos de IA imiten el estilo de una imagen en particular, mientras que Nightshade cambia la apariencia de la imagen según la IA. Ambas herramientas están construidas por Ben Zhao, profesor de Ciencias de la Computación de la Universidad de Chicago.

Cómo utilizar la hierba mora

Si bien el creador de la herramienta recomienda utilizar Nightshade junto con Glaze, también se puede utilizar como herramienta independiente para proteger su obra de arte. Usar la herramienta también es bastante fácil, considerando que solo hay tres pasos para proteger tus imágenes con Nightshade.


Sin embargo, hay algunas cosas que debes tener en cuenta antes de comenzar.


  • Nightshade solo está disponible para Windows y MacOS con soporte de GPU limitado y se requiere un mínimo de 4 GB de VRAM. Las GPU que no sean Nvidia y las Mac Intel no son compatibles por el momento. Aquí hay una lista de GPU Nvidia compatibles según el equipo de Nightshade (las GPU GTX y RTX se encuentran en la sección «Productos GeForce y TITAN habilitados para CUDA»). Alternativamente, puedes ejecutar Nightshade en tu CPU, pero resultará en un rendimiento más lento.
  • Si tiene una GTX 1660, 1650 o 1550, un error en la biblioteca PyTorch puede impedirle iniciar o utilizar Nightshade correctamente. El equipo detrás de Nightshade puede solucionarlo en el futuro pasando de PyTorch a Tensorflow, pero no existen soluciones alternativas por el momento. El problema también se extiende a las variantes Ti de estas tarjetas. Inicié el programa proporcionando acceso de administrador en mi PC con Windows 11 y esperando unos minutos hasta que se abra. Su experiencia puede ser diferente.
  • Si su obra de arte tiene muchas formas o fondos sólidos, es posible que experimente algunos artefactos. Esto se puede contrarrestar utilizando una intensidad más baja de «envenenamiento».


En lo que respecta a proteger sus imágenes con Nightshade, esto es lo que debe hacer. Tenga en cuenta que esta guía utiliza la versión de Windows, pero estos pasos también se aplican a la versión de macOS.


  1. Descargue la versión para Windows o macOS desde la página de descarga de Nightshade.
  2. Nightshade se descarga como una carpeta archivada sin necesidad de instalación. Una vez que se complete la descarga, extraiga la carpeta ZIP y haga doble clic Nightshade.exe para ejecutar el programa.
  3. Seleccione la imagen que desea proteger haciendo clic en el Seleccionar botón en la parte superior izquierda. También puede seleccionar varias imágenes a la vez para procesarlas por lotes.
  4. Ajustar el Intensidad y Calidad de renderizado marca según sus preferencias. Los valores más altos añaden un envenenamiento más fuerte pero también pueden introducir artefactos en la imagen de salida.
  5. A continuación, haga clic en Guardar como botón debajo del Producción para seleccionar un destino para el archivo de salida.
  6. Haga clic en el Ejecutar Sombra Nocturna en la parte inferior para ejecutar el programa y envenenar sus imágenes.


Opcionalmente, también puede seleccionar una etiqueta venenosa. Nightshade detectará y sugerirá automáticamente una etiqueta de una sola palabra si no lo hace, pero puede cambiarla si es incorrecta o demasiado general. Tenga en cuenta que esta configuración solo está disponible cuando procesa una sola imagen en Nightshade.


Si todo va bien, debería obtener una imagen que parezca idéntica a la original para el ojo humano pero completamente diferente a un algoritmo de IA, protegiendo su obra de arte de la IA generativa.