Les femmes dans l’IA : Rashida Richardson, conseillère principale chez Mastercard, spécialiste de l’IA et de la protection de la vie privée

Les femmes dans l’IA : Rashida Richardson, conseillère principale chez Mastercard, spécialiste de l’IA et de la protection de la vie privée

Afin de donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui restent souvent méconnus. Lisez d’autres profils ici.

Rashida Richardson est conseillère juridique principale chez Mastercard, où elle s’occupe des questions juridiques liées à la vie privée et à la protection des données, en plus de l’IA.

Auparavant directrice de la recherche politique à l’AI Now Institute, l’institut de recherche qui étudie les implications sociales de l’IA, et conseillère politique principale pour les données et la démocratie au Bureau de la politique scientifique et technologique de la Maison Blanche, Mme Richardson est professeur adjoint de droit et de sciences politiques à la Northeastern University depuis 2021. Elle y est spécialisée dans la race et les technologies émergentes.

Rashida Richardson, conseillère principale, IA chez Mastercard

En quelques mots, comment avez-vous commencé à travailler dans le domaine de l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

J’ai travaillé en tant qu’avocat spécialisé dans les droits civils sur des questions telles que la protection de la vie privée, la surveillance, la déségrégation des écoles, l’équité en matière de logement et la réforme de la justice pénale. En travaillant sur ces questions, j’ai été témoin des premières étapes de l’adoption et de l’expérimentation par les gouvernements des technologies basées sur l’IA. Dans certains cas, les risques et les préoccupations étaient évidents, et j’ai contribué à diriger un certain nombre d’efforts en matière de politique technologique dans l’État et la ville de New York afin de créer davantage de surveillance, d’évaluation ou d’autres garanties. Dans d’autres cas, j’étais intrinsèquement sceptique quant aux avantages ou à l’efficacité revendiqués des solutions liées à l’IA, en particulier celles commercialisées pour résoudre ou atténuer des problèmes structurels tels que la déségrégation des écoles ou l’équité en matière de logement.

Mon expérience antérieure m’a également rendu très conscient des lacunes existantes en matière de politique et de réglementation. J’ai rapidement remarqué qu’il y avait peu de personnes dans le domaine de l’IA qui possédaient ma formation et mon expérience, ou qui proposaient l’analyse et les interventions potentielles que je développais dans mes activités de défense des politiques et mes travaux universitaires. J’ai donc réalisé qu’il s’agissait d’un domaine et d’un espace où je pouvais apporter des contributions significatives tout en tirant parti de mon expérience antérieure de manière unique.

A lire aussi  La nouvelle école de musique en ligne de Studio utilise l'IA pour créer des programmes d'études personnalisés

J’ai décidé d’axer ma pratique juridique et mon travail universitaire sur l’IA, en particulier sur les questions politiques et juridiques concernant son développement et son utilisation.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis heureux que la question reçoive enfin plus d’attention de la part de toutes les parties prenantes, mais surtout des décideurs politiques. Il y a cinq ou six ans, on avait l’impression que c’était le sort de l’IA, car je me souviens d’avoir discuté avec des décideurs politiques, que ce soit dans un cadre formel, comme les auditions du Sénat américain, ou dans le cadre de forums éducatifs, et la plupart d’entre eux considéraient que la question était obscure ou qu’il n’y avait pas d’urgence, malgré l’adoption rapide de l’IA dans tous les secteurs. Pourtant, au cours de l’année écoulée, un changement significatif s’est opéré, de sorte que l’IA est un élément constant du discours public et que les décideurs politiques apprécient mieux les enjeux et la nécessité d’agir en connaissance de cause. Je pense également que les parties prenantes de tous les secteurs, y compris l’industrie, reconnaissent que l’IA présente des avantages et des risques uniques qui peuvent ne pas être résolus par les pratiques conventionnelles, de sorte qu’il y a une plus grande reconnaissance – ou au moins une appréciation – des interventions politiques.

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

En tant que femme noire, j’ai l’habitude d’être une minorité dans de nombreux espaces, et bien que les industries de l’IA et de la technologie soient des domaines extrêmement homogènes, elles ne sont pas nouvelles ou si différentes d’autres domaines où le pouvoir et la richesse sont immenses, comme la finance et la profession juridique. Je pense donc que mon travail antérieur et mon expérience vécue m’ont aidée à me préparer à ce secteur, car je suis très consciente des idées préconçues que je pourrais avoir à surmonter et des dynamiques difficiles que je rencontrerai probablement. Je m’appuie sur mon expérience pour naviguer, car je dispose d’un bagage et d’une perspective uniques, ayant travaillé sur l’IA dans tous les secteurs – académique, industriel, gouvernemental et société civile.

A lire aussi  CES 2024 : La technologie, les gadgets et l'IA les plus étranges de Las Vegas

Quels sont les problèmes dont les utilisateurs de l’IA devraient être conscients ?

Les utilisateurs de l’IA devraient être sensibilisés à deux questions essentielles : (1) une meilleure compréhension des capacités et des limites des différentes applications et modèles d’IA, et (2) une grande incertitude quant à la capacité des lois actuelles et futures à résoudre les conflits ou certaines préoccupations concernant l’utilisation de l’IA.

En ce qui concerne le premier point, il existe un déséquilibre dans le discours public et la compréhension des avantages et du potentiel des applications de l’IA, ainsi que de leurs capacités et limites réelles. Ce problème est aggravé par le fait que les utilisateurs de l’IA peuvent ne pas comprendre la différence entre les applications et les modèles d’IA. Le public a été sensibilisé à l’IA avec la sortie de ChatGPT et d’autres systèmes d’IA générative disponibles dans le commerce, mais ces modèles d’IA sont différents d’autres types de modèles d’IA que les consommateurs utilisent depuis des années, comme les systèmes de recommandation. Lorsque la conversation sur l’IA est confuse – la technologie étant considérée comme monolithique -, le public a tendance à ne pas comprendre ce que chaque type d’application ou de modèle peut réellement faire, ni les risques associés à leurs limites ou à leurs lacunes.

En ce qui concerne le deuxième point, la législation et la politique relatives au développement et à l’utilisation de l’IA évoluent. Bien qu’il existe une variété de lois (par exemple, les droits civils, la protection des consommateurs, la concurrence, les prêts équitables) qui s’appliquent déjà à l’utilisation de l’IA, nous n’en sommes qu’aux premiers stades de la mise en œuvre et de l’interprétation de ces lois. Nous en sommes également aux premiers stades de l’élaboration de politiques spécifiquement adaptées à l’IA – mais ce que j’ai remarqué, tant dans ma pratique juridique que dans mes recherches, c’est qu’il y a des domaines qui restent non résolus par ce patchwork juridique et qui ne le seront que lorsqu’il y aura davantage de litiges concernant le développement et l’utilisation de l’IA. D’une manière générale, je ne pense pas que l’on comprenne bien l’état actuel du droit et de l’IA, et la manière dont l’incertitude juridique concernant des questions clés telles que la responsabilité peut signifier que certains risques, préjudices et litiges peuvent rester non résolus jusqu’à ce que des années de litiges entre entreprises ou entre régulateurs et entreprises produisent des précédents juridiques susceptibles d’apporter un peu de clarté.

A lire aussi  OpenAI affirme que Musk n'a jamais contribué qu'à hauteur de 45 millions de dollars et qu'il voulait fusionner avec Tesla ou en prendre le contrôle.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

La difficulté de construire une IA responsable réside dans le fait que de nombreux piliers sous-jacents de l’IA responsable, tels que l’équité et la sécurité, reposent sur des valeurs normatives, pour lesquelles il n’existe pas de définition ou de compréhension commune de ces concepts. On peut donc supposer que l’on agit de manière responsable tout en causant des dommages, ou que l’on agit de manière malveillante et que l’on s’appuie sur le fait qu’il n’existe pas de normes partagées de ces concepts pour prétendre agir de bonne foi. Tant qu’il n’y aura pas de normes mondiales ou de cadre commun définissant ce que signifie construire une IA de manière responsable, le meilleur moyen de poursuivre cet objectif est de disposer de principes, de politiques, d’orientations et de normes clairs pour le développement et l’utilisation responsables de l’IA, qui soient appliqués par le biais d’un contrôle interne, d’une évaluation comparative et d’autres pratiques de gouvernance.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Les investisseurs peuvent mieux définir ou au moins clarifier ce qui constitue un développement ou une utilisation responsable de l’IA, et prendre des mesures lorsque les pratiques des acteurs de l’IA ne sont pas conformes. Actuellement, les termes « responsable » ou « digne de confiance » sont en fait des termes de marketing car il n’existe pas de normes claires pour évaluer les pratiques des acteurs de l’IA. Bien que certaines réglementations naissantes, comme la loi européenne sur l’IA, établissent des exigences en matière de gouvernance et de surveillance, il existe encore des domaines dans lesquels les investisseurs peuvent inciter les acteurs de l’IA à développer de meilleures pratiques qui mettent l’accent sur les valeurs humaines ou le bien de la société. Toutefois, si les investisseurs ne sont pas disposés à agir en cas de désalignement ou de preuve de l’existence de mauvais acteurs, il n’y aura guère d’incitation à ajuster les comportements ou les pratiques.

IA