L’association à but non lucratif de Mutale Nkonde s’efforce de rendre l’IA moins partiale

L’association à but non lucratif de Mutale Nkonde s’efforce de rendre l’IA moins partiale

Pour donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui restent souvent méconnus. Lisez d’autres profils ici.

Mutale Nkonde est la PDG fondatrice de l’organisation à but non lucratif AI For the People (AFP), qui cherche à augmenter le nombre de voix noires dans la technologie. Auparavant, elle a contribué à l’introduction des lois Algorithmic et Deep Fakes Algorithmic Acts, ainsi que de la loi No Biometric Barriers to Housing Act, à la Chambre des représentants des États-Unis. Elle est actuellement chercheuse invitée à l’Oxford Internet Institute.

En quelques mots, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

J’ai commencé à m’intéresser au fonctionnement des médias sociaux après qu’un de mes amis a signalé que Google Pictures, le précurseur de Google Image, avait qualifié deux personnes noires de gorilles en 2015. J’étais impliqué dans de nombreux cercles de « Noirs dans la technologie » et nous étions indignés, mais je n’ai commencé à comprendre que cela était dû à un biais algorithmique qu’après la publication de Weapons of Math Destruction (Armes de destruction mathématique) en 2016. Cela m’a incité à poser ma candidature à des bourses qui me permettraient d’approfondir la question, et j’ai fini par devenir coauteur d’un rapport intitulé « Advancing Racial Literacy in Tech », qui a été publié en 2019. Ce rapport a été remarqué par des personnes de la Fondation McArthur et a donné le coup d’envoi de la phase actuelle de ma carrière.

J’ai été attirée par les questions relatives au racisme et à la technologie parce qu’elles semblaient sous-étudiées et contre-intuitives. J’aime faire des choses que les autres ne font pas, alors en apprendre davantage et diffuser ces informations dans la Silicon Valley m’a semblé très amusant. Depuis Advancing Racial Literacy in Tech. j’ai créé une association à but non lucratif, AI for the People, qui se consacre à la promotion de politiques et de pratiques visant à réduire l’expression des biais algorithmiques.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis vraiment fier d’avoir été le principal défenseur de l’Algorithmic Accountability Act, qui a été présenté pour la première fois à la Chambre des représentants en 2019. Il a établi AI for the People comme un leader d’opinion clé autour de la façon de développer des protocoles pour guider la conception, le déploiement et la gouvernance des systèmes d’IA qui respectent les lois locales sur la non-discrimination. Cela nous a permis d’être inclus dans les chaînes Schumer AI Insights dans le cadre d’un groupe consultatif pour diverses agences fédérales et d’un travail passionnant à venir sur la Colline.

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

En fait, j’ai eu plus de problèmes avec les gardiens académiques. La plupart des hommes avec lesquels je travaille dans les entreprises technologiques ont été chargés de développer des systèmes destinés aux Noirs et à d’autres populations non blanches, et il a donc été très facile de travailler avec eux. Principalement parce que j’agis en tant qu’expert externe qui peut soit valider, soit remettre en question les pratiques existantes.

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’IA ?

Trouvez un créneau et devenez l’une des meilleures personnes au monde dans ce domaine. Deux éléments m’ont aidée à asseoir ma crédibilité, le premier étant que je plaidais en faveur de politiques visant à réduire les biais algorithmiques, alors que les universitaires commençaient à débattre de la question. Cela m’a donné un avantage de pionnier dans l' »espace des solutions » et a fait de AI for the People une autorité sur la Colline cinq ans avant le décret. La deuxième chose que je dirais, c’est d’examiner vos lacunes et d’y remédier. AI for the People existe depuis quatre ans et j’ai obtenu les diplômes universitaires dont j’avais besoin pour m’assurer de ne pas être exclu des espaces de réflexion. J’ai hâte d’obtenir mon master à Columbia en mai et j’espère continuer à faire de la recherche dans ce domaine.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

Je réfléchis beaucoup aux stratégies qui peuvent être mises en œuvre pour impliquer davantage de Noirs et de personnes de couleur dans la construction, le test et l’annotation des modèles fondamentaux. En effet, la qualité des technologies dépend de celle des données d’apprentissage, alors comment créer des ensembles de données inclusifs à une époque où l’IED est attaquée, où les fonds de capital-risque noirs sont poursuivis en justice pour avoir ciblé des fondateurs noirs et féminins, et où les universitaires noirs sont publiquement attaqués, qui fera ce travail dans l’industrie ?

Quels sont les problèmes dont les utilisateurs de l’IA devraient être conscients ?

Je pense que nous devrions considérer le développement de l’IA comme une question géopolitique et voir comment les États-Unis pourraient devenir un leader dans le domaine de l’IA réellement évolutive en créant des produits qui ont des taux d’efficacité élevés sur des personnes de tous les groupes démographiques. En effet, la Chine est le seul autre grand producteur d’IA, mais elle fabrique des produits pour une population largement homogène, et même si elle est très présente en Afrique, le secteur technologique américain peut dominer cette région. Le secteur technologique américain peut dominer ce marché s’il investit massivement dans le développement de technologies anti-biais.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Il faut adopter une approche à plusieurs volets, mais on pourrait envisager de poursuivre des recherches axées sur les personnes qui vivent en marge de la marginalité. Le moyen le plus simple d’y parvenir est de prendre note des tendances culturelles et d’examiner ensuite leur impact sur le développement technologique. Par exemple, comment concevoir des technologies biométriques évolutives dans une société où de plus en plus de personnes s’identifient comme trans ou non binaires ?

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Les investisseurs devraient examiner les tendances démographiques et se demander si ces entreprises seront en mesure de vendre leurs produits à une population de plus en plus noire et brune en raison de la baisse des taux de natalité dans les populations européennes du monde entier. Cela devrait les inciter à poser des questions sur les biais algorithmiques au cours du processus de diligence raisonnable, car cela deviendra de plus en plus un problème pour les consommateurs.

Il y a beaucoup de travail à faire en ce qui concerne la requalification de notre main-d’œuvre à une époque où les systèmes d’IA effectuent des tâches à faible enjeu qui permettent d’économiser de la main-d’œuvre. Comment pouvons-nous nous assurer que les personnes vivant en marge de notre société sont incluses dans ces programmes ? Quelles informations peuvent-ils nous fournir sur la manière dont les systèmes d’IA fonctionnent et ne fonctionnent pas, et comment pouvons-nous utiliser ces informations pour faire en sorte que l’IA soit vraiment au service des citoyens ?

IA