Meta publie un ensemble de données pour vérifier si les modèles de vision par ordinateur sont biaisés

Meta publie un ensemble de données pour vérifier si les modèles de vision par ordinateur sont biaisés

Poursuivant sa larme open source, Meta a publié aujourd’hui un nouveau benchmark d’IA, FACET, conçu pour évaluer l' »équité » des modèles d’IA qui classifient et détectent des objets dans des photos et des vidéos, y compris des personnes.

Composé de 32 000 images contenant 50 000 personnes étiquetées par des annotateurs humains, FACET – un acronyme torturé pour « FAirness in Computer Vision EvaluaTion » – prend en compte les classes liées aux professions et aux activités telles que « joueur de basket », « disc-jockey » et « médecin » en plus des attributs démographiques et physiques, permettant ce que Meta décrit comme des évaluations « profondes » des préjugés contre ces classes.

« En publiant FACET, notre objectif est de permettre aux chercheurs et aux praticiens d’effectuer des analyses comparatives similaires afin de mieux comprendre les disparités présentes dans leurs propres modèles et de surveiller l’impact des mesures d’atténuation mises en place pour répondre aux préoccupations en matière d’équité », a écrit Meta dans un billet de blog partagé avec TechCrunch. « Nous encourageons les chercheurs à utiliser FACET pour évaluer l’équité dans d’autres tâches de vision et multimodales.

Il est certain que les tests visant à détecter les biais dans les algorithmes de vision par ordinateur ne sont pas nouveaux. Meta lui-même en a publié un il y a plusieurs années pour mettre en évidence la discrimination en fonction de l’âge, du sexe et du teint de la peau dans les modèles d’apprentissage automatique de la vision par ordinateur et de l’audio. Un certain nombre d’études ont également été menées sur les modèles de vision par ordinateur afin de déterminer s’ils sont biaisés par rapport à certains groupes démographiques. (Attention : c’est généralement le cas).

Par ailleurs, Meta n’a pas les meilleurs antécédents en matière d’IA responsable.

À la fin de l’année dernière, Meta a été contraint de retirer une démo d’IA après qu’elle ait écrit de la documentation scientifique raciste et inexacte. Des rapports ont qualifié l’équipe d’éthique de l’IA de l’entreprise de largement édentée et les outils de lutte contre les préjugés de l’IA qu’elle a mis en place de « complètement insuffisants ». Entre-temps, des universitaires ont accusé Meta d’exacerber les inégalités socio-économiques dans ses algorithmes de diffusion de publicités et de faire preuve de partialité à l’égard des utilisateurs noirs dans ses systèmes de modération automatisés.

Mais Meta affirme que FACET est plus approfondi que n’importe quel autre banc d’essai de vision par ordinateur qui l’a précédé – capable de répondre à des questions telles que « Les modèles classent-ils mieux les gens comme des skateurs lorsque leur présentation de genre perçue a plus d’attributs stéréotypés masculins ? » et « Les biais sont-ils amplifiés lorsque la personne a des cheveux bouclés par rapport à des cheveux lisses ? »

Pour créer FACET, Meta a demandé aux annotateurs susmentionnés d’étiqueter chacune des 32 000 images en fonction d’attributs démographiques (par exemple, le sexe perçu de la personne représentée et sa tranche d’âge), d’attributs physiques supplémentaires (par exemple, le teint de la peau, l’éclairage, les tatouages, les couvre-chefs et les lunettes, la coiffure et la pilosité faciale, etc. ) et les classes. Ils ont combiné ces étiquettes avec d’autres étiquettes pour les personnes, les cheveux et les vêtements provenant de Segment Anything 1 Billion, un ensemble de données méta-conçues pour l’entraînement des modèles de vision par ordinateur afin de « segmenter », ou d’isoler, des objets et des animaux à partir d’images.

Les images de FACET proviennent de Segment Anything 1 Billion, me dit Meta, qui les a achetées à un « fournisseur de photos ». Mais il n’est pas certain que les personnes figurant sur ces images aient été informées qu’elles seraient utilisées à cette fin. Et – du moins dans l’article de blog – on ne sait pas comment Meta a recruté les équipes d’annotateurs, ni quel salaire leur a été versé.

Historiquement et même aujourd’hui, de nombreux annotateurs employés pour étiqueter des ensembles de données pour l’entraînement et l’étalonnage de l’IA viennent de pays en développement et ont des revenus bien inférieurs au salaire minimum américain. Cette semaine, le Washington Post a rapporté que Scale AI, l’une des entreprises d’annotation les plus importantes et les mieux financées, a payé ses travailleurs à des taux extrêmement bas, a régulièrement retardé ou retenu les paiements et n’a fourni aux travailleurs que peu de moyens de recours.

Dans un livre blanc décrivant la création de FACET, Meta indique que les annotateurs étaient des « experts formés » provenant de « plusieurs régions géographiques », notamment l’Amérique du Nord (États-Unis), l’Amérique latine (Colombie), le Moyen-Orient (Égypte), l’Afrique (Kenya), l’Asie du Sud-Est (Philippines) et l’Asie de l’Est (Taïwan). Meta a utilisé une « plateforme d’annotation propriétaire » d’un fournisseur tiers et a été rémunéré « avec un salaire horaire fixé par pays ».

En mettant de côté les origines potentiellement problématiques de FACET, Meta affirme que le benchmark peut être utilisé pour tester les modèles de classification, de détection, de « segmentation d’instance » et de « base visuelle » à travers différents attributs démographiques.

À titre d’essai, Meta a appliqué FACET à son propre algorithme de vision par ordinateur DINOv2, qui est depuis cette semaine disponible pour un usage commercial. Selon Meta, FACET a mis en évidence plusieurs biais dans DINOv2, notamment un biais à l’encontre des personnes ayant certaines présentations de genre et une probabilité d’identifier de manière stéréotypée les images de femmes comme étant des « infirmières ».

« La préparation de l’ensemble de données de pré-entraînement de DINOv2 peut avoir reproduit par inadvertance les biais des ensembles de données de référence sélectionnés pour la curation », a écrit Meta dans le billet de blog. « Nous prévoyons d’aborder ces lacunes potentielles dans des travaux futurs et pensons que la curation basée sur l’image pourrait également aider à éviter la perpétuation des biais potentiels découlant de l’utilisation de moteurs de recherche ou de la supervision de textes. »

Aucune référence n’est parfaite. Meta, et c’est tout à son honneur, reconnaît que FACET pourrait ne pas refléter suffisamment les concepts et les groupes démographiques du monde réel. Il note également que de nombreuses représentations de professions dans l’ensemble de données ont pu changer depuis la création de FACET. Par exemple, la plupart des médecins et des infirmières de FACET, photographiés pendant la pandémie de COVID-19, portent davantage d’équipements de protection individuelle qu’ils ne l’auraient fait avant les crises sanitaires.

« Pour l’instant, nous ne prévoyons pas de mises à jour pour cet ensemble de données », écrit Meta dans le livre blanc. « Nous permettrons aux utilisateurs de signaler toute image susceptible d’avoir un contenu répréhensible, et nous supprimerons le contenu répréhensible s’il est détecté.

Outre l’ensemble de données lui-même, Meta a mis à disposition un outil d’exploration de l’ensemble de données basé sur le web. Pour l’utiliser, ainsi que l’ensemble de données, les développeurs doivent accepter de ne pas entraîner les modèles de vision artificielle sur FACET, mais seulement de les évaluer, de les tester et de les comparer.

IA