Les femmes dans l’IA : Kristine Gloria, de l’Institut Aspen, conseille aux femmes d’entrer dans le domaine et de « suivre leur curiosité ».

Les femmes dans l’IA : Kristine Gloria, de l’Institut Aspen, conseille aux femmes d’entrer dans le domaine et de « suivre leur curiosité ».

Pour donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui passent souvent inaperçus. Lisez d’autres profils ici.

Kristine Gloria dirige l’initiative sur les technologies émergentes et intelligentes de l’Institut Aspen – l’Institut Aspen étant le groupe de réflexion basé à Washington, D.C., qui se concentre sur le leadership fondé sur les valeurs et l’expertise politique. Gloria est titulaire d’un doctorat en sciences cognitives et d’une maîtrise en études des médias. Elle a notamment mené des recherches dans le cadre de l’initiative de recherche sur la politique de l’internet du MIT, du Startup Policy Lab de San Francisco et du Center for Society, Technology and Policy de l’Université de Californie à Berkeley.

Q&A

En quelques mots, comment avez-vous commencé à travailler dans le domaine de l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

Pour être franc, je n’ai certainement pas commencé ma carrière en cherchant à travailler dans le domaine de l’IA. Tout d’abord, j’étais vraiment intéressé par la compréhension de l’intersection entre la technologie et la politique publique. À l’époque, je préparais une maîtrise en études des médias et j’explorais les idées relatives à la culture du remix et à la propriété intellectuelle. Je vivais et travaillais à Washington en tant que boursière Archer pour la New America Foundation. Un jour, je me souviens très bien d’avoir été assise dans une salle remplie de décideurs publics et de politiciens qui lançaient des termes qui ne correspondaient pas tout à fait à leurs définitions techniques réelles. C’est peu après cette réunion que j’ai réalisé que pour faire bouger les choses en matière de politique publique, j’avais besoin de diplômes. J’ai repris mes études et obtenu un doctorat en sciences cognitives, avec une spécialisation dans les technologies sémantiques et la protection de la vie privée des consommateurs en ligne. J’ai eu la chance de trouver un mentor, un conseiller et un laboratoire qui encourageaient une compréhension interdisciplinaire de la manière dont la technologie est conçue et construite. J’ai donc affiné mes compétences techniques tout en développant un point de vue plus critique sur les nombreuses façons dont la technologie s’immisce dans nos vies. En tant que directeur de l’IA à l’Institut Aspen, j’ai eu le privilège de créer des idées, de m’engager et de collaborer avec certains des plus grands penseurs de l’IA. J’ai toujours été attirée par ceux qui prenaient le temps de s’interroger sur l’impact de l’IA sur notre vie quotidienne et sur la manière dont elle pourrait l’influencer.

Au fil des ans, j’ai dirigé diverses initiatives dans le domaine de l’IA et l’une des plus significatives ne fait que commencer. Aujourd’hui, en tant que membre fondateur de l’équipe et directeur des partenariats stratégiques et de l’innovation d’une nouvelle organisation à but non lucratif, Young Futures, je suis enthousiaste à l’idée d’intégrer ce type de réflexion à notre mission, qui est de faire du monde numérique un endroit où il est plus facile de grandir. Plus précisément, alors que l’IA générative devient un enjeu de taille et que de nouvelles technologies apparaissent en ligne, il est à la fois urgent et essentiel d’aider les préadolescents, les adolescents et leurs unités de soutien à naviguer ensemble dans cette vaste étendue numérique.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis très fier de deux initiatives. Tout d’abord, mon travail visant à mettre en évidence les tensions, les pièges et les effets de l’IA sur les communautés marginalisées. Publié en 2021, « Power and Progress in Algorithmic Bias » (Pouvoir et progrès dans les biais algorithmiques) résume des mois d’engagement des parties prenantes et de recherche autour de cette question. Dans le rapport, nous posons l’une de mes questions préférées de tous les temps : « Comment pouvons-nous (opérateurs de données et d’algorithmes) refondre nos propres modèles pour prévoir un avenir différent, centré sur les besoins des plus vulnérables ? » Safiya Noble est l’auteur original de cette question, et c’est une considération constante dans tout mon travail. La deuxième initiative la plus importante que j’ai prise récemment est le fruit de mon travail en tant que responsable des données chez Blue Fever, une entreprise dont la mission est d’améliorer le bien-être des jeunes dans un espace en ligne sans jugement et ouvert à tous. Plus précisément, j’ai dirigé la conception et le développement de Blue, le premier compagnon IA de soutien émotionnel. J’ai beaucoup appris au cours de ce processus. Plus important encore, j’ai acquis une nouvelle et profonde appréciation de l’impact qu’un compagnon virtuel peut avoir sur quelqu’un qui se bat ou qui n’a peut-être pas les systèmes de soutien en place. Blue a été conçu et construit pour apporter son « énergie de grand frère » afin d’aider les utilisateurs à réfléchir à leurs besoins mentaux et émotionnels.

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

Malheureusement, les défis sont réels et toujours d’actualité. J’ai eu ma part d’incrédulité en ce qui concerne mes compétences et mon expérience de la part de tous les types de collègues dans ce domaine. Mais pour chacun de ces défis négatifs, je peux citer l’exemple d’un collègue masculin qui a été mon plus fervent supporter. C’est un environnement difficile, et je me raccroche à ces exemples pour m’aider à le gérer. Je pense également que beaucoup de choses ont changé dans ce domaine, même au cours des cinq dernières années. Les compétences nécessaires et les expériences professionnelles qui font partie de l' »IA » ne sont plus strictement axées sur l’informatique.

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’IA ?

Entrez et suivez votre curiosité. Cet espace est en perpétuel mouvement et la démarche la plus intéressante (et probablement la plus productive) consiste à rester optimiste et critique sur le domaine lui-même.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

En fait, je pense que certains des problèmes les plus urgents auxquels l’IA est confrontée sont les mêmes que ceux que nous n’avons pas réussi à résoudre depuis l’apparition du web. Il s’agit des questions relatives à l’agence, à l’autonomie, à la vie privée, à la justice, à l’équité, etc. Ces questions sont au cœur de la manière dont nous nous situons parmi les machines. Oui, l’IA peut rendre les choses beaucoup plus compliquées, mais il en va de même pour les changements sociopolitiques.

Quels sont les problèmes dont les utilisateurs de l’IA devraient être conscients ?

Les utilisateurs de l’IA doivent être conscients de la manière dont ces systèmes compliquent ou renforcent leur propre agence et leur autonomie. En outre, dans le cadre du discours sur la manière dont la technologie, et en particulier l’IA, peut influer sur notre bien-être, il est important de se rappeler qu’il existe des outils éprouvés pour gérer les conséquences plus négatives.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

L’élaboration responsable de l’IA ne se limite pas au code. Elle prend en compte la conception, la gouvernance, les politiques et le modèle d’entreprise. Tous ces éléments s’influencent mutuellement, et nous continuerons d’échouer si nous nous efforçons de n’aborder qu’une partie de la construction.

Comment les investisseurs peuvent-ils mieux promouvoir l’IA responsable ?

Une tâche spécifique, que j’admire Mozilla Ventures pour avoir exigé dans sa diligence, est une carte de modèle d’IA. Développée par Timnit Gebru et d’autres, cette pratique de création de cartes de modèles permet aux équipes – comme aux bailleurs de fonds – d’évaluer les risques et les problèmes de sécurité des modèles d’IA utilisés dans un système. En outre, dans le même ordre d’idées, les investisseurs doivent évaluer le système de manière globale en fonction de sa capacité et de son aptitude à être construit de manière responsable. Par exemple, si vous avez des caractéristiques de confiance et de sécurité dans la construction ou une carte modèle publiée, mais que votre modèle de revenu exploite les données de populations vulnérables, alors il y a un décalage avec votre intention en tant qu’investisseur. Je pense qu’il est possible de construire de manière responsable tout en restant rentable. Enfin, j’aimerais voir davantage d’opportunités de financement en collaboration entre les investisseurs. Dans le domaine du bien-être et de la santé mentale, les solutions seront variées et vastes, car personne n’est pareil et aucune solution ne peut convenir à tous. Une action collective entre investisseurs intéressés par la résolution du problème serait un ajout bienvenu.

IA