Kin.art lance un outil gratuit pour empêcher les modèles GenAI de s’entraîner sur des œuvres d’art.

Kin.art lance un outil gratuit pour empêcher les modèles GenAI de s’entraîner sur des œuvres d’art.

L’IA générative, en particulier les modèles d’IA texte-image comme Midjourney et DALL-E 3 d’OpenAI, a de quoi étonner. Du photoréalisme au cubisme, les modèles générateurs d’images peuvent traduire pratiquement n’importe quelle description, courte ou détaillée, en une œuvre d’art qui aurait pu sortir du chevalet d’un artiste.

L’ennui, c’est que nombre de ces modèles – si ce n’est la plupart – ont été formés sur des œuvres d’art sans que les artistes le sachent ou l’autorisent. Et si certains fournisseurs ont commencé à dédommager les artistes ou à leur offrir la possibilité de se retirer de la formation des modèles, ce n’est pas le cas de la plupart d’entre eux.

En l’absence de conseils de la part des tribunaux et du Congrès, des entrepreneurs et des activistes publient des outils conçus pour permettre aux artistes de modifier leurs œuvres d’art afin qu’elles ne puissent pas être utilisées pour l’entraînement des modèles de la GenAI. L’un de ces outils, Nightshade, publié cette semaine, modifie subtilement les pixels d’une image pour faire croire aux modèles que l’image représente quelque chose de différent de ce qu’elle est en réalité. Un autre outil, Kin.art, utilise la segmentation des images (c’est-à-dire la dissimulation de certaines parties d’une œuvre d’art) et la randomisation des balises (permutation des balises méta d’une œuvre d’art) pour interférer avec le processus d’apprentissage du modèle.

Lancé aujourd’hui, l’outil de Kin.art a été co-développé par Flor Ronsmans De Vry, qui a co-fondé Kin.art, une plateforme de gestion de commandes d’œuvres d’art, avec Mai Akiyoshi et Ben Yu il y a quelques mois.

Comme l’a expliqué Flor Ronsmans De Vry lors d’une interview, les modèles de génération d’art sont les suivants formés sur des ensembles de données d’images étiquetées pour apprendre les associations entre les concepts écrits et les images, comme la façon dont le mot « oiseau » peut se référer non seulement aux oiseaux bleus, mais aussi aux perruches et aux aigles à tête blanche (en plus de notions plus abstraites). En « perturbant » l’image ou les étiquettes associées à une œuvre d’art donnée, il est d’autant plus difficile pour les vendeurs d’utiliser l’œuvre d’art dans la formation au modèle, explique-t-il.

Kin.art

Un profil d’artiste sur Kin.art. Crédits images : Kin.art

« Concevoir un paysage où l’art traditionnel et l’art génératif peuvent coexister est devenu l’un des principaux défis auxquels l’industrie de l’art est confrontée », a déclaré Ronsmans De Vry à TechCrunch par courrier électronique. « Nous pensons que cela commence par une approche éthique de la formation à l’IA, où les droits des artistes sont respectés. »

Ronsmans De Vry affirme que l’outil d’entraînement de Kin.art est supérieur à certains égards aux solutions existantes, car il ne nécessite pas de modification cryptographique des images, ce qui peut s’avérer coûteux. Mais, ajoute-t-il, il peut également être combiné à ces méthodes comme protection supplémentaire.

Kin.art

La méthode de segmentation de Kin.art qui détruit les modèles. Crédits images : Kin.art

« Les autres outils de protection contre l’apprentissage par l’IA tentent d’atténuer les dommages après que votre œuvre a déjà été incluse dans l’ensemble de données par empoisonnement », a déclaré M. Ronsmans De Vry. « Nous empêchons l’insertion de votre œuvre d’art ».

Kin.art a désormais un produit à vendre. Bien que l’outil soit gratuit, les artistes doivent télécharger leurs œuvres d’art sur la plateforme de portfolio de Kin.art pour pouvoir l’utiliser. À l’heure actuelle, l’idée est sans doute d’orienter les artistes vers la gamme de services payants de recherche et de facilitation de commandes d’œuvres d’art de Kin.art, son activité principale.

Mais Ronsmans De Vry positionne l’effort comme étant principalement philanthropique, promettant que Kin.art rendra l’outil disponible pour des tiers à l’avenir.

« Après avoir testé notre solution sur notre propre plateforme, nous prévoyons de l’offrir en tant que service pour permettre à tout petit site web et à toute grande plateforme de protéger facilement leurs données contre l’utilisation sans licence », a-t-il déclaré. « À l’ère de l’IA, il est plus important que jamais de posséder les données de sa plateforme et d’être en mesure de les défendre. Certaines plateformes ont la chance de pouvoir contrôler leurs données en empêchant les non-utilisateurs d’y accéder, mais d’autres doivent fournir des services publics et n’ont pas ce luxe. C’est là que des solutions comme la nôtre entrent en jeu. »

IA