Les femmes dans l’IA : Claire Leibowicz, experte en IA et en intégrité des médias au PAI

Les femmes dans l’IA : Claire Leibowicz, experte en IA et en intégrité des médias au PAI

Afin de donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui restent souvent méconnus. Lisez d’autres profils ici.

Claire Leibowicz dirige le programme sur l’IA et l’intégrité des médias au sein du Partenariat sur l’IA (PAI), le groupe industriel soutenu par Amazon, Meta, Google, Microsoft et d’autres acteurs engagés dans le déploiement « responsable » des technologies de l’IA. Elle supervise également le comité directeur de l’IA et de l’intégrité des médias du PAI.

En 2021, Mme Leibowicz a été chargée de recherche en journalisme au Tablet Magazine et en 2022, elle a été chargée de recherche au Bellagio Center de la Fondation Rockefeller, qui se concentre sur la gouvernance de l’IA. Mme Leibowicz, qui est titulaire d’une licence en psychologie et en informatique de Harvard et d’une maîtrise d’Oxford, a conseillé des entreprises, des gouvernements et des organisations à but non lucratif sur la gouvernance de l’IA, les médias génératifs et l’information numérique.

Q&A

En quelques mots, comment avez-vous commencé à travailler dans le domaine de l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

Cela peut sembler paradoxal, mais je suis venu à l’IA en m’intéressant au comportement humain. J’ai grandi à New York et j’ai toujours été captivé par les nombreuses façons dont les gens interagissent et par la façon dont une société aussi diverse prend forme. J’étais curieuse des grandes questions qui touchent à la vérité et à la justice : comment choisissons-nous de faire confiance aux autres ? Qu’est-ce qui provoque les conflits entre les groupes ? Pourquoi les gens croient-ils que certaines choses sont vraies et pas d’autres ? J’ai commencé à explorer ces questions dans ma vie universitaire par le biais de la recherche en sciences cognitives, et j’ai rapidement réalisé que la technologie influençait les réponses à ces questions. J’ai également trouvé intrigante la façon dont l’intelligence artificielle pouvait être une métaphore de l’intelligence humaine.

Cela m’a amené dans des salles de classe d’informatique où les professeurs – je dois saluer la professeure Barbara Grosz, qui est une pionnière du traitement du langage naturel, et le professeur Jim Waldo, qui a mêlé ses connaissances en philosophie et en informatique – ont souligné l’importance de remplir leurs salles de classe avec des étudiants non spécialisés en informatique et en ingénierie afin de se concentrer sur l’impact social des technologies, y compris de l’IA. Et ce, avant que l' »éthique de l’IA » ne devienne un domaine distinct et populaire. Ils ont clairement indiqué que, bien que la compréhension technique soit bénéfique, la technologie affecte de vastes domaines tels que la géopolitique, l’économie, l’engagement social et bien d’autres encore, ce qui nécessite que des personnes issues de nombreuses disciplines interviennent sur des questions apparemment technologiques.

Que vous soyez un éducateur réfléchissant à la manière dont les outils d’IA générative affectent la pédagogie, un conservateur de musée expérimentant un parcours prédictif pour une exposition ou un médecin étudiant de nouvelles méthodes de détection d’images pour lire des rapports de laboratoire, l’IA peut avoir un impact sur votre domaine. Cette réalité, à savoir que l’IA touche de nombreux domaines, m’a intrigué : il y avait une variété intellectuelle inhérente au travail dans le domaine de l’IA, et cela offrait la possibilité d’avoir un impact sur de nombreuses facettes de la société.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis fier du travail accompli dans le domaine de l’IA, qui rassemble des perspectives disparates d’une manière surprenante et orientée vers l’action – qui ne se contente pas de prendre en compte les désaccords, mais les encourage. J’ai rejoint la PAI en tant que deuxième membre du personnel de l’organisation il y a six ans, et j’ai tout de suite senti que l’organisation était pionnière dans son engagement en faveur de la diversité des points de vue. La PAI considérait ce travail comme une condition préalable essentielle à une gouvernance de l’IA qui atténue les dommages et conduit à une adoption pratique et à un impact dans le domaine de l’IA. Cela s’est avéré vrai, et j’ai été encouragée de contribuer à façonner l’adhésion de la PAI à la multidisciplinarité et de voir l’institution se développer en même temps que le domaine de l’IA.

Notre travail sur les médias synthétiques au cours des six dernières années a commencé bien avant que l’IA générative ne fasse partie de la conscience publique, et illustre les possibilités d’une gouvernance multipartite de l’IA. En 2020, nous avons collaboré avec neuf organisations de la société civile, de l’industrie et des médias pour élaborer le Deepfake Detection Challenge de Facebook, un concours d’apprentissage automatique visant à créer des modèles de détection des médias générés par l’IA. Ces perspectives extérieures ont contribué à façonner l’équité et les objectifs des modèles gagnants – montrant comment les experts en droits de l’homme et les journalistes peuvent contribuer à une question apparemment technique comme la détection de deepfake. L’année dernière, nous avons publié un ensemble d’orientations normatives sur les médias synthétiques responsables – les Pratiques responsables pour les médias synthétiques de la PAI – qui compte aujourd’hui 18 partisans issus d’horizons extrêmement différents, allant d’OpenAI à TikTok en passant par Code for Africa, Bumble, la BBC et WITNESS. Être capable de mettre sur papier des orientations réalisables qui s’appuient sur des réalités techniques et sociales est une chose, mais c’en est une autre que d’obtenir un soutien institutionnel. Dans ce cas, les institutions se sont engagées à fournir des rapports de transparence sur la manière dont elles naviguent dans le domaine des médias synthétiques. Les projets d’IA qui proposent des orientations concrètes et qui montrent comment les mettre en œuvre dans les différentes institutions sont parmi les plus significatifs à mes yeux.

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

Tout au long de ma carrière, j’ai eu de merveilleux mentors, hommes et femmes. Trouver des personnes qui me soutiennent et me mettent au défi à la fois est la clé de toute croissance que j’ai connue. Je trouve que le fait de se concentrer sur des intérêts communs et de discuter des questions qui animent le domaine de l’IA peut rapprocher des personnes ayant des antécédents et des perspectives différents. Il est intéressant de noter que l’équipe du PAI est composée de plus de la moitié de femmes, et que de nombreuses organisations travaillant sur l’IA et la société ou sur les questions d’IA responsable comptent de nombreuses femmes parmi leur personnel. Ces chiffres contrastent souvent avec ceux qui travaillent dans les équipes d’ingénierie et de recherche en IA, et constituent un pas dans la bonne direction pour la représentation dans l’écosystème de l’IA.

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’IA ?

Comme je l’ai évoqué dans la question précédente, certains des espaces de l’IA principalement dominés par les hommes que j’ai rencontrés étaient également les plus techniques. Bien qu’il ne faille pas privilégier le sens technique par rapport à d’autres formes d’alphabétisation dans le domaine de l’IA, j’ai constaté que le fait d’avoir reçu une formation technique m’a permis de gagner en confiance et en efficacité dans ces domaines. Nous avons besoin d’une représentation égale dans les rôles techniques et d’une ouverture à l’expertise des personnes qui sont expertes dans d’autres domaines tels que les droits civils et la politique qui ont une représentation plus équilibrée. Parallèlement, il est essentiel de doter davantage de femmes d’une culture technique pour équilibrer la représentation dans le domaine de l’IA.

J’ai également trouvé extrêmement utile d’entrer en contact avec des femmes dans le domaine de l’IA qui ont réussi à concilier vie familiale et vie professionnelle. Le fait de trouver des modèles à qui parler des grandes questions liées à la carrière et à la parentalité – et de certains des défis uniques auxquels les femmes sont encore confrontées au travail – m’a permis de me sentir mieux équipée pour relever certains de ces défis lorsqu’ils se présenteront.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

Les questions de vérité et de confiance en ligne – et hors ligne – deviennent de plus en plus délicates à mesure que l’IA évolue. Étant donné que des contenus allant des images aux vidéos en passant par les textes peuvent être générés ou modifiés par l’IA, est-ce que le fait de voir est toujours synonyme de croire ? Comment pouvons-nous nous fier à des preuves si des documents peuvent facilement et de manière réaliste être trafiqués ? Pouvons-nous avoir des espaces exclusivement humains en ligne s’il est extrêmement facile d’imiter une personne réelle ? Comment gérer les compromis que l’IA présente entre la liberté d’expression et la possibilité que les systèmes d’IA puissent causer des dommages ? Plus généralement, comment faire en sorte que l’environnement de l’information ne soit pas seulement façonné par quelques entreprises sélectionnées et ceux qui travaillent pour elles, mais qu’il intègre les perspectives des parties prenantes du monde entier, y compris le public ?

Parallèlement à ces questions spécifiques, le PAI s’est intéressé à d’autres aspects de l’IA et de la société, notamment à la manière dont nous envisageons l’équité et la partialité à l’ère de la prise de décision algorithmique, à l’impact de l’IA sur le travail et à l’impact de l’IA sur le travail, à la manière d’assurer un déploiement responsable des systèmes d’IA et même à la manière de rendre les systèmes d’IA plus représentatifs d’une myriade de points de vue. Au niveau structurel, nous devons réfléchir à la manière dont la gouvernance de l’IA peut permettre d’opérer de vastes compromis en intégrant des perspectives variées.

Quelles sont les questions dont les utilisateurs de l’IA devraient être conscients ?

Tout d’abord, les utilisateurs de l’IA doivent savoir que si quelque chose semble trop beau pour être vrai, c’est probablement le cas.

L’essor de l’IA générative au cours de l’année écoulée témoigne bien sûr d’une ingéniosité et d’une innovation considérables, mais il a également donné lieu à des messages publics souvent hyperboliques et inexacts sur l’IA.

Les utilisateurs de l’IA doivent également comprendre que l’IA n’est pas révolutionnaire, mais qu’elle exacerbe et augmente les problèmes et les opportunités existants. Cela ne signifie pas qu’ils doivent prendre l’IA moins au sérieux, mais plutôt qu’ils doivent utiliser cette connaissance comme une base utile pour naviguer dans un monde de plus en plus infusé par l’IA. Par exemple, si vous êtes préoccupé par le fait que des personnes puissent mal contextualiser une vidéo avant une élection en changeant la légende, vous devriez vous inquiéter de la vitesse et de l’ampleur avec lesquelles elles peuvent induire en erreur à l’aide d’une technologie d’imitation profonde. Si vous êtes préoccupé par l’utilisation de la surveillance sur le lieu de travail, vous devez également vous demander comment l’IA rendra cette surveillance plus facile et plus omniprésente. Garder un scepticisme sain quant à la nouveauté des problèmes de l’IA, tout en étant honnête sur ce qui est distinct dans le moment présent, est un cadre utile pour les utilisateurs lors de leurs rencontres avec l’IA.

Quelle est la meilleure façon de construire l’IA de manière responsable ?

Pour construire l’IA de manière responsable, nous devons élargir notre notion de ceux qui jouent un rôle dans la « construction » de l’IA. Bien sûr, influencer les entreprises technologiques et les plateformes de médias sociaux est un moyen clé d’affecter l’impact des systèmes d’IA, et ces institutions sont vitales pour construire la technologie de manière responsable. Dans le même temps, nous devons reconnaître que diverses institutions de la société civile, de l’industrie, des médias, du monde universitaire et du public doivent continuer à être impliquées dans la construction d’une IA responsable au service de l’intérêt public.

Prenons l’exemple du développement et du déploiement responsables des médias synthétiques.

Alors que les entreprises technologiques peuvent s’inquiéter de leur responsabilité lorsqu’il s’agit de déterminer comment une vidéo synthétique peut influencer les utilisateurs avant une élection, les journalistes peuvent s’inquiéter de la création par des imposteurs de vidéos synthétiques censées provenir de leur marque d’information de confiance. Les défenseurs des droits de l’homme pourraient considérer la responsabilité liée à la manière dont les médias générés par l’IA réduisent l’impact des vidéos en tant que preuves d’abus. Quant aux artistes, ils peuvent être enthousiasmés par la possibilité de s’exprimer au moyen de médias génératifs, tout en s’inquiétant de la manière dont leurs créations peuvent être exploitées sans leur consentement pour former des modèles d’IA qui produisent de nouveaux médias. Ces diverses considérations montrent à quel point il est essentiel d’impliquer différentes parties prenantes dans les initiatives et les efforts visant à développer l’IA de manière responsable, et à quel point une myriade d’institutions sont concernées par – et influencent – la manière dont l’IA est intégrée dans la société.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Il y a des années, j’ai entendu DJ Patil, l’ancien scientifique en chef des données de la Maison Blanche, décrire une révision du mantra omniprésent « aller vite et casser les choses » du début de l’ère des médias sociaux qui m’est restée en mémoire. Il a suggéré de « bouger avec détermination et de réparer les choses ».

J’ai adoré cette idée parce qu’elle n’implique pas la stagnation ou l’abandon de l’innovation, mais l’intentionnalité et la possibilité d’innover tout en assumant des responsabilités. Les investisseurs devraient contribuer à induire cette mentalité, en accordant plus de temps et d’espace aux entreprises de leur portefeuille pour qu’elles intègrent des pratiques d’IA responsables sans pour autant étouffer le progrès. Souvent, les institutions décrivent le manque de temps et les délais serrés comme le facteur limitant pour faire la « bonne » chose, et les investisseurs peuvent être un catalyseur majeur pour changer cette dynamique.

Plus j’ai travaillé dans le domaine de l’IA, plus je me suis retrouvé aux prises avec des questions profondément humanistes. Et ces questions exigent que nous y répondions tous.

IA