Les femmes dans l’IA : Irene Solaiman, responsable de la politique mondiale chez Hugging Face

Les femmes dans l’IA : Irene Solaiman, responsable de la politique mondiale chez Hugging Face

Afin de donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui restent souvent méconnus. Lisez d’autres profils ici.

Irene Solaiman a commencé sa carrière dans l’IA en tant que chercheuse et responsable de la politique publique chez OpenAI, où elle a dirigé une nouvelle approche pour la publication de GPT-2, un prédécesseur de ChatGPT. Après avoir été responsable de la politique d’IA chez Zillow pendant près d’un an, elle a rejoint Hugging Face en tant que responsable de la politique mondiale. Ses responsabilités vont de l’élaboration et de la direction de la politique de l’entreprise en matière d’IA au niveau mondial à la conduite de recherches socio-techniques.

Mme Solaiman conseille également l’Institute of Electrical and Electronics Engineers (IEEE), l’association professionnelle de l’ingénierie électronique, sur les questions liées à l’IA. Elle est également reconnue comme experte en IA par l’Organisation intergouvernementale de coopération et de développement économiques (OCDE).

Table des matières

Irene Solaiman, responsable de la politique mondiale chez Hugging Face

En quelques mots, comment avez-vous commencé à travailler dans le domaine de l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

Un parcours professionnel totalement non linéaire est courant dans le domaine de l’IA. Mon intérêt naissant a débuté de la même manière que de nombreux adolescents aux aptitudes sociales maladroites trouvent leurs passions : par le biais des médias de science-fiction. J’ai d’abord étudié la politique des droits de l’homme, puis j’ai suivi des cours d’informatique, car je considérais l’IA comme un moyen de travailler sur les droits de l’homme et de construire un avenir meilleur. Pouvoir faire de la recherche technique et mener une politique dans un domaine où il y a tant de questions sans réponse et de chemins inexplorés, c’est ce qui rend mon travail passionnant.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis particulièrement fier lorsque mon expertise trouve un écho dans le domaine de l’IA, notamment lorsque j’écris sur les considérations relatives à la diffusion dans le paysage complexe de la diffusion et de l’ouverture des systèmes d’IA. Voir mon article sur le déploiement technique d’un cadre de gradient de diffusion de l’IA susciter des discussions entre scientifiques et être utilisé dans des rapports gouvernementaux est très encourageant – et un bon signe que je travaille dans la bonne direction ! Personnellement, l’un des travaux qui me motivent le plus est celui sur l’alignement des valeurs culturelles, qui vise à garantir que les systèmes fonctionnent au mieux pour les cultures dans lesquelles ils sont déployés. Avec Christy Dennison, mon incroyable coauteure et désormais très chère amie, travailler sur un processus d’adaptation des modèles linguistiques à la société a été un projet de tout cœur (et de nombreuses heures de débogage) qui a façonné le travail sur la sécurité et l’alignement aujourd’hui.

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

J’ai trouvé, et je continue à trouver, mes collaborateurs – qu’il s’agisse de travailler avec des dirigeants d’entreprise incroyables qui se soucient profondément des mêmes questions que celles auxquelles je donne la priorité ou avec d’excellents coauteurs de recherche avec lesquels je peux commencer chaque séance de travail par une mini-séance de thérapie. Les groupes d’affinité sont extrêmement utiles pour créer une communauté et partager des conseils. L’intersectionnalité est importante à souligner ici ; mes communautés de chercheurs musulmans et BIPOC sont une source d’inspiration permanente.

A lire aussi  Amazon CodeWhisperer se dote d'un niveau entreprise

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’IA ?

Ayez un groupe de soutien dont la réussite est la vôtre. En termes de jeunesse, je crois qu’il s’agit d’une « fille à filles ». Les mêmes femmes et alliés avec lesquels je suis entrée dans ce domaine sont mes rendez-vous préférés autour d’un café et mes appels nocturnes de panique à l’approche d’une échéance. L’un des meilleurs conseils de carrière que j’ai lus a été donné par Arvind Narayan sur la plateforme anciennement connue sous le nom de Twitter, établissant le « principe Liam Neeson » selon lequel il ne faut pas être le plus intelligent de tous, mais disposer d’un ensemble particulier de compétences.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

Les questions les plus urgentes évoluent elles-mêmes. La méta-réponse est donc : la coordination internationale pour des systèmes plus sûrs pour tous les peuples. Les personnes qui utilisent et sont affectées par les systèmes, même dans un même pays, ont des préférences et des idées différentes sur ce qui est le plus sûr pour elles. Les priorités en matière de sécurité et nos définitions des capacités diffèrent d’une région à l’autre, par exemple la menace de cyberattaques contre les infrastructures critiques est plus élevée dans les économies plus numérisées.

Quels sont les problèmes auxquels les utilisateurs de l’IA doivent être attentifs ?

Les solutions techniques abordent rarement, voire jamais, les risques et les préjudices de manière globale. Si les utilisateurs peuvent prendre certaines mesures pour améliorer leurs connaissances en matière d’IA, il est important d’investir dans une multitude de mesures de protection contre les risques au fur et à mesure de leur évolution. Par exemple, je suis enthousiaste à l’idée d’une recherche plus poussée sur le filigrane en tant qu’outil technique, et nous avons également besoin d’une orientation coordonnée des décideurs politiques sur la distribution du contenu généré, en particulier sur les plateformes de médias sociaux.

A lire aussi  CES 2024 : La technologie, les gadgets et l'IA les plus étranges de Las Vegas

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Avec les personnes concernées et en réévaluant constamment nos méthodes d’évaluation et de mise en œuvre des techniques de sécurité. Les applications bénéfiques et les inconvénients potentiels évoluent constamment et nécessitent un retour d’information itératif. Les moyens par lesquels nous améliorons la sécurité de l’IA devraient être examinés collectivement en tant que domaine. Les évaluations les plus populaires pour les modèles en 2024 sont beaucoup plus robustes que celles que j’effectuais en 2019. Aujourd’hui, je suis beaucoup plus optimiste à l’égard des évaluations techniques qu’à l’égard du red-teaming. Je trouve les évaluations humaines extrêmement utiles, mais à mesure que l’on découvre la charge mentale et les coûts disparates du feedback humain, je suis de plus en plus favorable à la normalisation des évaluations.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Ils le font déjà ! Je suis heureux de voir que de nombreux investisseurs et sociétés de capital-risque s’engagent activement dans des conversations sur la sécurité et les politiques, notamment par le biais de lettres ouvertes et de témoignages devant le Congrès. Je suis impatient de connaître l’expertise des investisseurs sur ce qui stimule les petites entreprises dans tous les secteurs, d’autant plus que l’IA est de plus en plus utilisée dans des domaines autres que les industries technologiques de base.

IA