La nouvelle IA générative de Google vous permet de prévisualiser des vêtements sur différents modèles

La nouvelle IA générative de Google vous permet de prévisualiser des vêtements sur différents modèles

Google, toujours désireux de s’appuyer sur l’IA générative, lance une nouvelle fonctionnalité d’achat qui permet de visualiser les vêtements sur une série de mannequins de mode en chair et en os.

Dans le cadre d’un large éventail de mises à jour de Google Shopping qui seront déployées dans les semaines à venir, l’outil d’essayage virtuel de Google pour les vêtements prend une image du vêtement et tente de prédire comment il se drapera, se pliera, s’accrochera, s’étirera et formera des plis et des ombres sur un ensemble de mannequins réels dans différentes poses.

L’essayage virtuel s’appuie sur un nouveau modèle de diffusion développé par Google en interne. Les modèles de diffusion – qui comprennent les générateurs de texte vers l’art Stable Diffusion et DALL-E 2 – apprennent à soustraire progressivement le bruit d’une image de départ entièrement constituée de bruit, en la rapprochant, étape par étape, d’une cible.

Google a entraîné le modèle en utilisant de nombreuses paires d’images, chacune comprenant une personne portant un vêtement dans deux poses uniques – par exemple, une image d’une personne portant une chemise se tenant de côté et une autre d’une personne se tenant de face. Pour rendre le modèle plus robuste (c’est-à-dire pour lutter contre les défauts visuels tels que les plis qui semblent difformes et non naturels), le processus a été répété en utilisant des paires d’images aléatoires de vêtements et de personnes.

Essai de Google

La nouvelle fonction d’essayage de Google, alimentée par l’IA, qui fait appel à l’IA générative pour adapter les vêtements à différents modèles.

À partir d’aujourd’hui, les acheteurs américains qui utilisent Google Shopping peuvent essayer virtuellement des hauts pour femmes de marques telles que Anthropologie, Everlane, H&M et LOFT. Recherchez le nouveau badge « Try On » sur Google Search. Les hauts pour hommes seront lancés plus tard dans l’année.

« Lorsque vous essayez des vêtements dans un magasin, vous pouvez immédiatement savoir s’ils vous conviennent », a écrit Lilian Rincon, directrice principale des produits d’achat grand public chez Google, dans un billet de blog partagé avec TechCrunch. Elle cite une étude montrant que 42 % des acheteurs en ligne ne se sentent pas représentés par des images de mannequins, tandis que 59 % ne sont pas satisfaits d’un article qu’ils ont acheté en ligne parce qu’il leur a semblé différent de ce à quoi ils s’attendaient.

« Vous devriez vous sentir tout aussi confiant lorsque vous achetez des vêtements en ligne », poursuit M. Rincon.

La technologie de l’essayage virtuel n’est pas nouvelle. Amazon et Adobe expérimentent depuis un certain temps la modélisation générative de vêtements, tout comme Walmart, qui propose depuis l’année dernière une fonction en ligne utilisant les photos des clients pour modéliser les vêtements. La startup d’IA AIMIRR pousse l’idée un peu plus loin en utilisant une technologie de rendu de vêtements en temps réel pour superposer des images de vêtements sur une vidéo en direct d’une personne.

Google a déjà testé une technologie d’essai virtuel par le passé, en collaboration avec L’Oréal, Estée Lauder, MAC Cosmetics, Black Opal et Charlotte Tilbury, afin de permettre aux utilisateurs de Search d’essayer des teintes de maquillage sur un éventail de modèles aux teintes de peau variées.

Essai Google

Crédits images : Google

Mais alors que l’IA générative s’immisce de plus en plus dans l’industrie de la mode, elle se heurte à l’opposition des mannequins qui affirment qu’elle exacerbe des inégalités de longue date.

Les mannequins sont en grande partie des entrepreneurs indépendants faiblement rémunérés, qui doivent s’acquitter de commissions élevées (~20 %), ainsi que de dépenses professionnelles telles que les billets d’avion, l’hébergement en groupe et le matériel promotionnel nécessaire pour décrocher un emploi auprès d’un client. Et, reflétant des préférences d’embauche biaisées, ils sont assez homogènes. Selon une enquête, 78 % des mannequins figurant dans les publicités de mode étaient blancs en 2016.

Levi’s a notamment testé la technologie de l’IA pour créer des mannequins personnalisés générés par l’IA. Levi’s a défendu cette technologie lors d’interviews, affirmant qu’elle « augmenterait la diversité des modèles que les acheteurs peuvent voir porter ses produits ». Mais l’entreprise n’a pas répondu aux critiques qui lui demandaient pourquoi la marque ne recrutait pas davantage de mannequins présentant les caractéristiques diverses qu’elle recherche.

Dans son billet de blog, Mme Rincon souligne que Google a choisi d’utiliser de vrais mannequins – et une gamme variée, couvrant les tailles XXS-4XL et représentant différentes ethnies, teintes de peau, formes de corps et types de cheveux. Mais elle n’a pas abordé la question de l’éléphant dans la pièce, à savoir si la nouvelle fonction d’essayage pourrait entraîner une diminution des opportunités de séances photo pour les mannequins à l’avenir.

Essai Google

Pour entraîner le modèle d’IA générative qui sous-tend sa nouvelle fonction d’essayage, Google a rassemblé un ensemble de données de modèles et de vêtements.

Parallèlement au déploiement de l’essayage virtuel, Google lance des options de filtrage pour les recherches de vêtements alimentées par l’IA et des algorithmes de correspondance visuelle. Disponibles dans les listes de produits sur Shopping, les filtres permettent aux utilisateurs d’affiner leurs recherches dans les magasins à l’aide d’éléments tels que la couleur, le style et le motif.

« Les associés peuvent vous aider en magasin, en suggérant et en trouvant d’autres options en fonction de ce que vous avez déjà essayé », a déclaré M. Rincon. « Désormais, vous pouvez bénéficier d’un coup de main supplémentaire lorsque vous achetez des vêtements en ligne.

IA