Des créations d’artistes en ligne sont sciemment modifiées pour les rendre inutilisables par les modèles d’IA. Non pas pour attaquer l’IA, mais pour sensibiliser les géants de la technologie aux droits d’auteur des artistes.
Les modèles d’IA utilisent souvent du contenu protégé par des droits d’auteur sans en payer les licences. Un nouveau projet appelé Nightshade devrait protéger les artistes contre cette pratique. La nouvelle technique empoisonne les œuvres d’art pour qu’elles deviennent inutilisables pour les modèles d’IA. Avec ce projet, on veut convaincre les géants de la tech de payer des licences sur les œuvres protégées par le droit d’auteur. On y explore comment Nightshade peut collaborer avec un outil similaire déjà existant (Glaze) pour assurer une protection optimale des artistes.
Droits d’auteur et IA
Les droits d’auteur et les modèles d’IA ne font pas encore la paire. De nombreux artistes veulent empêcher que leurs œuvres soient utilisées par des modèles d’IA, mais la tâche n’est pas si facile. Pour beaucoup d’artistes, il n’est pas possible de renoncer à leur travail en ligne. Il faut donc trouver de nouveaux moyens de protéger leurs œuvres en ligne contre l’utilisation de l’IA.
L’université de Chicago a donc créé le projet Nightshade. C’est une nouvelle technique par laquelle les œuvres des artistes sont empoisonnées pour les rendre inutilisables pour les modèles d’IA. Selon le chef du projet, Ben Zhao, cette méthode ne vise pas à éliminer l’IA. Mais les chercheurs souhaitent que cela force les géants de la tech à payer pour les œuvres sous licence. Et puis, ce projet montre que ces modèles d’IA sont vulnérables et qu’on peut effectivement les attaquer.
Œuvres d’art « empoisonnées »
Le projet Nightshade altèrera subtilement les pixels des images, entraînant une mauvaise interprétation des modèles d’IA. Ces modèles classifieront mal les parties altérées de ces images, et ils se formeront alors à partir de données « empoisonnées ». Il en résulte une interprétation et un résultat incorrects des invites. La Joconde en est un exemple : des pixels ont été modifiés et l’IA y a vu la tête d’un chat. Nous, les humains, ne voyons pas la différence. (Pour information, l’image en haut de cet article est illustrative, mais ce n’est pas un exemple de Nightshade.)
Précédemment, Zhao a travaillé sur un projet similaire, à savoir Glaze. C’est un outil de camouflage qui déforme la façon dont les modèles d’IA voient et déterminent le style artistique. Ainsi, les œuvres originales des artistes ne peuvent pas être imitées. La formule optimale pour défendre au mieux les œuvres d’art contre les modèles d’IA serait donc une combinaison de Nightshade et de Glaze. L’équipe de Washington teste actuellement comment réunir les deux techniques en un seul outil intégré.