Les femmes dans l’IA : Sarah Kreps, professeur de gouvernement à Cornell

Les femmes dans l’IA : Sarah Kreps, professeur de gouvernement à Cornell

Pour donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens axés sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui passent souvent inaperçus. Lisez d’autres profils ici.

Sarah Kreps est politologue, vétéran de l’armée de l’air américaine et analyste, spécialisée dans la politique étrangère et de défense des États-Unis. Elle est professeur de gouvernement à l’université Cornell, professeur adjoint de droit à la Cornell Law School et chercheur adjoint au Modern War Institute de West Point.

Les recherches récentes de M. Kreps explorent à la fois le potentiel et les risques des technologies d’IA telles que le GPT-4 d’OpenAI, en particulier dans la sphère politique. Dans une tribune publiée l’année dernière dans The Guardian, elle a écrit qu’à mesure que l’argent afflue dans l’IA, la course à l’armement en matière d’IA s’intensifiera, non seulement entre les entreprises, mais aussi entre les pays, tandis que le défi politique en matière d’IA deviendra plus difficile à relever.

Q&A

En quelques mots, comment avez-vous commencé à travailler dans le domaine de l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

J’ai débuté dans le domaine des technologies émergentes ayant des implications en matière de sécurité nationale. J’étais officier de l’armée de l’air à l’époque où le drone Predator a été déployé, et j’ai été impliqué dans les systèmes avancés de radar et de satellite. J’ai passé quatre ans à travailler dans ce domaine, et il était donc naturel qu’en tant que doctorant, je m’intéresse à l’étude des implications des technologies émergentes pour la sécurité nationale. J’ai d’abord écrit sur les drones, et le débat sur les drones s’orientait vers des questions d’autonomie, ce qui implique bien sûr l’intelligence artificielle.

En 2018, j’ai assisté à un atelier sur l’intelligence artificielle dans un groupe de réflexion à Washington et OpenAI a fait une présentation sur la nouvelle capacité GPT-2 qu’elle avait développée. Nous venions de vivre l’élection de 2016 et l’ingérence électorale étrangère, qui avait été relativement facile à repérer en raison de petites choses comme des erreurs grammaticales de locuteurs non natifs de l’anglais – le genre d’erreurs qui n’étaient pas surprenantes étant donné que l’ingérence provenait de l’Agence de recherche Internet soutenue par la Russie. Lors de la présentation d’OpenAI, j’ai été immédiatement préoccupé par la possibilité de générer une désinformation crédible à grande échelle et ensuite, grâce au microciblage, de manipuler la psychologie des électeurs américains de manière beaucoup plus efficace que ce qui avait été possible lorsque ces personnes essayaient de rédiger le contenu à la main, où l’échelle allait toujours être un problème.

A lire aussi  L'entreprise indienne Reliance s'associe à Nvidia pour créer un vaste modèle linguistique

J’ai pris contact avec OpenAI et je suis devenu l’un des premiers collaborateurs universitaires de leur stratégie de publication par étapes. Ma recherche particulière visait à étudier le cas d’une éventuelle utilisation abusive, à savoir si GPT-2 et plus tard GPT-3 étaient crédibles en tant que générateurs de contenu politique. Dans une série d’expériences, j’ai évalué si le public considérerait ce contenu comme crédible, mais j’ai également mené une vaste expérience sur le terrain où j’ai généré des « lettres de circonscription » que j’ai comparées au hasard avec des lettres de circonscription réelles pour voir si les législateurs réagiraient au même rythme afin de savoir s’ils pouvaient être dupés – si des acteurs malveillants pouvaient façonner l’agenda législatif avec une campagne d’envoi de lettres à grande échelle.

Ces questions ont touché au cœur de ce que signifie une démocratie souveraine et j’ai conclu sans équivoque que ces nouvelles technologies représentaient de nouvelles menaces pour notre démocratie.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis très fier de l’expérience de terrain que j’ai menée. Personne n’avait fait quelque chose d’à peu près similaire et nous avons été les premiers à montrer le potentiel perturbateur dans le contexte d’un programme législatif.

Mais je suis également fier des outils que je n’ai malheureusement jamais mis sur le marché. J’ai travaillé avec plusieurs étudiants en informatique à Cornell pour développer une application qui traiterait les courriels entrants des législateurs et les aiderait à répondre aux électeurs de manière pertinente. Nous travaillions sur ce projet avant ChatGPT et nous utilisions l’IA pour analyser le volume important de courriels et fournir une assistance IA aux fonctionnaires pressés par le temps qui communiquent avec les habitants de leur district ou de leur État. Je pensais que ces outils étaient importants en raison de la désaffection des électeurs pour la politique, mais aussi parce que les législateurs sont de plus en plus sollicités. Le développement de l’IA dans ces domaines d’intérêt public semblait être une contribution précieuse et un travail interdisciplinaire intéressant pour les politologues et les informaticiens. Nous avons mené un certain nombre d’expériences pour évaluer les questions comportementales, à savoir comment les gens réagiraient à une aide de l’IA qui leur répondrait, et nous avons conclu que la société n’était peut-être pas prête pour quelque chose de ce genre. Quelques mois plus tard, ChatGPT est entré en scène et l’IA est tellement omniprésente que je me demande comment nous avons pu nous préoccuper de savoir si c’était éthiquement douteux ou légitime. Mais je continue à penser qu’il est juste que nous posions les questions éthiques difficiles concernant le cas d’utilisation légitime.

A lire aussi  Sensi.AI et Flint Capital s'expriment sur le développement et le déploiement de solutions d'IA dans le domaine de la santé

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

En tant que chercheur, je n’ai pas ressenti ces défis de manière très aiguë. J’étais juste dans la région de la baie et il n’y avait que des hommes qui donnaient littéralement leur présentation dans l’ascenseur de l’hôtel, un cliché que je peux imaginer intimidant. Je leur recommanderais de trouver des mentors (hommes et femmes), de développer des compétences et de laisser ces compétences parler d’elles-mêmes, de relever des défis et de rester résilients.

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’IA ?

Je pense qu’il y a beaucoup d’opportunités pour les femmes – elles doivent développer leurs compétences et avoir confiance en elles et elles s’épanouiront.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

Je crains que la communauté de l’IA n’ait développé tant d’initiatives de recherche axées sur des éléments tels que le « superalignement » qu’elles occultent les questions plus profondes – ou en fait, les bonnes questions – concernant les valeurs de qui ou de quoi nous essayons d’aligner l’IA. Le déploiement problématique de Google Gemini a montré la caricature qui peut résulter de l’alignement sur les valeurs d’un ensemble restreint de développeurs d’une manière qui a conduit à des inexactitudes historiques (presque) risibles dans leurs résultats. Je pense que les valeurs de ces développeurs étaient de bonne foi, mais elles ont révélé le fait que ces grands modèles linguistiques sont programmés avec un ensemble particulier de valeurs qui façonneront la façon dont les gens pensent à la politique, aux relations sociales et à toute une série de sujets sensibles. Ces questions ne sont pas de l’ordre du risque existentiel, mais elles créent le tissu social et confèrent un pouvoir considérable aux grandes entreprises (par exemple OpenAI, Google, Meta, etc.) qui sont responsables de ces modèles.

A lire aussi  Google lance Imagen 2, un générateur de clips vidéo

Quels sont les problèmes dont les utilisateurs de l’IA devraient être conscients ?

L’IA devenant omniprésente, je pense que nous sommes entrés dans un monde où il faut faire confiance mais vérifier. Il est nihiliste de ne rien croire, mais il y a beaucoup de contenu généré par l’IA et les utilisateurs doivent vraiment faire preuve de circonspection en ce qui concerne ce à quoi ils font instinctivement confiance. Il est bon de chercher d’autres sources pour vérifier l’authenticité avant de supposer que tout est exact. Mais je pense que nous avons déjà appris cela avec les médias sociaux et la désinformation.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

J’ai récemment écrit un article pour le Bulletin of the Atomic Scientists, qui couvrait à l’origine les armes nucléaires, mais qui s’est adapté pour traiter des technologies perturbatrices telles que l’IA. J’ai réfléchi à la manière dont les scientifiques pourraient être de meilleurs gestionnaires publics et j’ai voulu relier certains des cas historiques que j’avais étudiés dans le cadre d’un projet de livre. Je ne me contente pas d’exposer une série de mesures que j’approuverais pour un développement responsable, mais j’explique également pourquoi certaines des questions posées par les développeurs d’IA sont erronées, incomplètes ou malavisées.

IA