Sommaire
La lutte des artistes contre l’utilisation non autorisée de leurs œuvres par l’IA
Intentionnellement empoisonner quelqu’un d’autre n’est jamais moralement juste. Mais si quelqu’un au bureau continue de voler votre déjeuner, ne seriez-vous pas tenté de vous venger de manière mesquine ?
La bataille des artistes pour protéger leurs œuvres de l’IA
Pour les artistes, protéger leurs œuvres contre une utilisation non autorisée pour former des modèles d’IA est une bataille difficile. Les demandes de retrait et les codes « do-not-scrape » reposent sur la bonne foi des entreprises d’IA, mais celles qui privilégient le profit plutôt que la vie privée peuvent facilement ignorer de telles mesures. Se retirer du monde en ligne n’est pas une option pour la plupart des artistes, qui dépendent de l’exposition sur les réseaux sociaux pour obtenir des commandes et d’autres opportunités de travail.
Un projet de l’Université de Chicago appelé Nightshade donne aux artistes un moyen de se défendre en « empoisonnant » les données d’image, les rendant inutiles ou perturbatrices pour l’entraînement des modèles d’IA. Ben Zhao, professeur d’informatique à l’origine du projet, compare Nightshade à « mettre de la sauce piquante dans votre déjeuner pour qu’il ne soit pas volé dans le réfrigérateur du travail ».
« Nous montrons que les modèles génératifs en général, sans jeu de mots, ne sont que des modèles. Nightshade lui-même n’est pas destiné à être une arme extrêmement puissante pour tuer ces entreprises », explique Zhao. « Nightshade montre que ces modèles sont vulnérables et qu’il existe des moyens de les attaquer. Cela signifie que les propriétaires de contenu peuvent obtenir des résultats plus concrets que d’écrire au Congrès ou de se plaindre par e-mail ou sur les réseaux sociaux. »
Zhao et son équipe ne cherchent pas à faire tomber les grandes entreprises d’IA, ils essaient simplement de forcer les géants de la technologie à payer pour les œuvres sous licence, au lieu de former des modèles d’IA sur des images récupérées.
« Il y a une bonne façon de faire cela », poursuit-il. « Le vrai problème ici, c’est le consentement, c’est la rémunération. Nous donnons simplement aux créateurs de contenu un moyen de résister à la formation non autorisée. »
Comment Nightshade fonctionne
Nightshade cible les associations entre les instructions textuelles, en changeant subtilement les pixels des images pour tromper les modèles d’IA et les amener à interpréter une image complètement différente de celle qu’un observateur humain verrait. Les modèles catégoriseront incorrectement les caractéristiques des images « ombrées » et, s’ils sont entraînés sur une quantité suffisante de données « empoisonnées », ils commenceront à générer des images totalement sans rapport avec les instructions correspondantes. Selon les chercheurs, il suffit de moins de 100 échantillons « empoisonnés » pour corrompre une instruction Stable Diffusion.
Par exemple, prenons une peinture d’une vache se prélassant dans un pré. « En manipulant et en déformant efficacement cette association, vous pouvez faire croire aux modèles que les vaches ont quatre roues rondes, un pare-chocs et un coffre », explique Zhao. « Et lorsqu’on leur demande de produire une vache, ils produiront un gros camion Ford au lieu d’une vache. »
L’équipe de Nightshade a fourni d’autres exemples. Une image non modifiée de la Joconde et une version ombrée sont pratiquement identiques pour les humains, mais au lieu d’interpréter l’échantillon « empoisonné » comme un portrait d’une femme, l’IA le « voit » comme un chat portant une robe.
En incitant une IA à générer une image de chien, après avoir été entraînée à partir d’images ombrées qui lui font voir des chats, on obtient des hybrides horribles qui ne ressemblent ni à l’un ni à l’autre.
Les effets de Nightshade sur les concepts connexes
Les effets se répercutent sur les concepts connexes, note l’article technique. Les échantillons ombrés qui ont corrompu l’instruction « art fantastique » ont également affecté les instructions pour « dragon » et « Michael Whelan », un illustrateur spécialisé dans l’art de couverture de fantasy et de science-fiction.
Zhao a également dirigé l’équipe qui a créé Glaze, un outil de brouillage qui modifie la manière dont les modèles d’IA « voient » et déterminent le style artistique, les empêchant d’imiter le travail unique des artistes. Tout comme Nightshade, une personne peut voir un portrait réaliste au fusain « brouillé », mais un modèle d’IA le verra comme une peinture abstraite, puis générera des peintures abstraites désordonnées lorsqu’il sera incité à générer des portraits au fusain de qualité.
Contrairement à une attaque directe, Nightshade est un outil de défense utilisé pour protéger les créateurs de contenu contre les entreprises d’IA prédatrices qui ignorent les options de retrait. OpenAI, l’une des entreprises visées par une action en justice pour violation présumée du droit d’auteur, permet désormais aux artistes de se retirer de l’utilisation de leurs œuvres pour former de futurs modèles.
« Le problème avec cela [les demandes de retrait] est qu’il s’agit du type de demande le plus souple et le plus élastique possible. Il n’y a aucune application, aucune obligation pour les entreprises de respecter leur parole », explique Zhao. « Il y a beaucoup d’entreprises qui passent sous le radar, qui sont beaucoup plus petites qu’OpenAI, et elles n’ont aucune limite. Elles n’ont absolument aucune raison de respecter ces listes de retrait et peuvent toujours prendre votre contenu et en faire ce qu’elles veulent. »
Kelly McKernan, une artiste qui fait partie de l’action en justice collective contre Stability AI, Midjourney et DeviantArt, a posté un exemple de leur peinture ombrée et brouillée sur X. La peinture représente une femme emmêlée dans des veines néon, tandis que des images pixélisées similaires se nourrissent d’elle. Elle représente l’IA générative « dévorant la voix authentique des créatifs humains », selon les mots de McKernan.
Protéger les œuvres d’art en ligne
La plupart des modifications apportées par Nightshade devraient être invisibles à l’œil humain, mais l’équipe note que l’effet « ombré » est plus visible sur les images aux couleurs plates et aux arrière-plans lisses. L’outil, téléchargeable gratuitement, est également disponible en paramètre de faible intensité pour préserver la qualité visuelle. McKernan a déclaré que bien qu’elle puisse voir que son image avait été modifiée après avoir utilisé Glaze et Nightshade, parce qu’elle est l’artiste qui l’a peinte, cela est « presque imperceptible ».
Un illustrateur du nom de Christopher Bretz a également démontré l’effet de Nightshade sur l’une de ses œuvres, en publiant les résultats sur X. Lorsqu’une image est soumise à Nightshade avec les paramètres les plus bas et par défaut, cela a peu d’impact sur l’illustration, mais les changements sont évidents avec des paramètres plus élevés.
Idéalement, les artistes devraient utiliser à la fois Glaze et Nightshade avant de partager leur travail en ligne, recommande l’équipe. Ils testent actuellement l’interaction entre Glaze et Nightshade sur la même image et prévoient de sortir un outil intégré unique qui les combine. En attendant, ils recommandent d’utiliser Nightshade d’abord, puis Glaze pour minimiser les effets visibles. Ils déconseillent de publier des œuvres d’art qui ont uniquement été ombrées, sans brouillage, car Nightshade ne protège pas les artistes contre l’imitation.
Les signatures et les filigranes, même ceux ajoutés aux métadonnées d’une image, sont « fragiles » et peuvent être supprimés si l’image est modifiée. Les modifications apportées par Nightshade resteront même après un recadrage, une compression, une capture d’écran ou une retouche, car elles modifient les pixels qui composent une image. Même une photo d’un écran affichant une image ombrée perturbera la formation des modèles.
La lutte pour protéger les œuvres d’art
À mesure que les modèles génératifs deviennent plus sophistiqués, les artistes sont de plus en plus sous pression pour protéger leur travail et lutter contre le scraping. Des outils comme Steg.AI et Imatag aident les créateurs à établir la propriété de leurs images en appliquant des filigranes imperceptibles à l’œil humain, bien que ni l’un ni l’autre ne promette de protéger les utilisateurs contre le scraping malveillant. Le « No AI » Watermark Generator, lancé l’année dernière, applique des filigranes qui identifient les œuvres faites par des humains comme étant générées par IA, dans l’espoir que les ensembles de données utilisés pour former de futurs modèles filtreront les images générées par IA. Il y a aussi Kudurru, un outil de Spawning.ai, qui identifie et suit les adresses IP des scrapeurs. Les propriétaires de sites Web peuvent bloquer les adresses IP signalées ou choisir de renvoyer une autre image, comme un doigt d’honneur.
Un autre outil appelé Kin.art, lancé cette semaine, adopte une approche différente. Contrairement à Nightshade et à d’autres programmes qui modifient cryptographiquement une image, Kin masque certaines parties de l’image et échange ses balises méta, ce qui rend plus difficile son utilisation pour la formation de modèles.
Les critiques de Nightshade affirment que le programme est un « virus » ou se plaignent du fait qu’il « nuira à la communauté open source ». Zhao affirme que Nightshade est parfaitement légal. Il ne « s’introduit pas magiquement dans les pipelines de formation des modèles pour tuer tout le monde », explique Zhao. Les formateurs de modèles récupèrent volontairement des images, ombrées ou non, et les entreprises d’IA en profitent.
Le but ultime de Glaze et Nightshade
Le but ultime de Glaze et Nightshade est d’imposer un « prix progressif » sur chaque donnée récupérée sans autorisation, jusqu’à ce que la formation de modèles sur des données non autorisées ne soit plus viable. Idéalement, les entreprises devront obtenir des licences pour utiliser des images non corrompues afin de former leurs modèles, en veillant à ce que les artistes donnent leur consentement et soient rémunérés pour leur travail.
Des initiatives similaires ont déjà été mises en place. Getty Images et Nvidia ont récemment lancé un outil d’IA générative entièrement formé à partir de la vaste bibliothèque de photos de stock de Getty. Les clients abonnés paient des frais en fonction du nombre de photos qu’ils souhaitent générer, et les photographes dont le travail a été utilisé pour former le modèle reçoivent une partie des revenus de l’abonnement. Les paiements sont déterminés en fonction de la quantité de contenu du photographe contribué à l’ensemble d’entraînement et de la « performance de ce contenu au fil du temps », rapporte Wired.
Zhao précise qu’il n’est pas opposé à l’IA en général et souligne que l’IA a des applications extrêmement utiles qui ne posent pas de problèmes éthiques. Dans le monde universitaire et la recherche scientifique, les avancées de l’IA sont une source de célébration. Alors que la plupart du battage médiatique et de la panique autour de l’IA concerne l’IA générative, l’IA traditionnelle a été utilisée pour développer de nouveaux médicaments et lutter contre le changement climatique, explique-t-il.
Les grands acteurs de la technologie, dont le financement et les ressources dépassent de loin ceux du monde universitaire, sont largement favorables à l’IA. Ils n’ont aucun intérêt à financer des projets perturbateurs qui ne génèrent aucun gain financier. Zhao est farouchement opposé à la monétisation de Glaze et Nightshade, ou à la vente de la propriété intellectuelle des projets à une startup ou à une entreprise. Les artistes, comme McKernan, sont reconnaissants d’être soulagés des frais d’abonnement, qui sont presque omniprésents dans les logiciels utilisés dans les industries créatives.
« Les artistes, moi y compris, se sentent exploités à tous les niveaux », explique McKernan. « Donc quand quelque chose nous est donné gratuitement en tant que ressource, je sais que nous sommes reconnaissants. »
L’équipe derrière Nightshade, composée de Zhao, du doctorant Shawn Shan et de plusieurs étudiants diplômés, a été financée par l’université, des fondations traditionnelles et des subventions gouvernementales. Mais pour pérenniser la recherche, Zhao reconnaît que l’équipe devra probablement trouver une « structure à but non lucratif » et travailler avec des fondations artistiques. Il ajoute que l’équipe a encore « quelques tours dans son sac ».
« Pendant longtemps, la recherche était menée pour le simple plaisir de la recherche, pour élargir les connaissances humaines. Mais je pense qu’avec quelque chose comme ça, il y a une limite éthique », déclare Zhao. « La recherche pour cela compte… ceux qui sont les plus vulnérables à cela tendent à être les plus créatifs et ceux qui ont le moins de soutien en termes de ressources. Ce n’est pas un combat équitable. C’est pourquoi nous faisons ce que nous pouvons pour aider à équilibrer le champ de bataille. »