Les femmes dans l’IA : Sandra Watcher, professeur d’éthique des données à Oxford

Les femmes dans l’IA : Sandra Watcher, professeur d’éthique des données à Oxford

Afin de donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui restent souvent méconnus. Lisez d’autres profils ici.

Sandra Wachter est professeur et chercheuse principale en éthique des données, IA, robotique, algorithmes et réglementation à l’Oxford Internet Institute. Elle a également été membre de l’Alan Turing Institute, l’institut national britannique pour la science des données et l’IA.

Lorsqu’elle était au Turing Institute, Mme Watcher a évalué les aspects éthiques et juridiques de la science des données, en mettant en évidence des cas où des algorithmes opaques sont devenus racistes et sexistes. Elle a également étudié les moyens d’auditer l’IA pour lutter contre la désinformation et promouvoir l’équité.

Q&A

En quelques mots, comment avez-vous commencé à travailler dans le domaine de l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

Je ne me souviens pas d’une période de ma vie où je n’ai pas pensé que l’innovation et la technologie ont un potentiel incroyable pour améliorer la vie des gens. Mais je sais aussi que la technologie peut avoir des conséquences dévastatrices sur la vie des gens. C’est pourquoi j’ai toujours été poussée – notamment en raison de mon sens aigu de la justice – à trouver un moyen de garantir ce juste milieu. Permettre l’innovation tout en protégeant les droits de l’homme.

J’ai toujours pensé que le droit avait un rôle très important à jouer. Le droit peut être ce juste milieu qui protège les gens tout en permettant l’innovation. Le droit est une discipline qui m’est venue très naturellement. J’aime les défis, j’aime comprendre comment fonctionne un système, voir comment je peux le manipuler, trouver des failles et les combler.

L’IA est une force de transformation incroyable. Elle est mise en œuvre dans les domaines de la finance, de l’emploi, de la justice pénale, de l’immigration, de la santé et de l’art. Cela peut être bon ou mauvais. Et la question de savoir si c’est bon ou mauvais est une question de conception et de politique. J’ai été naturellement attirée par ce domaine parce que j’avais le sentiment que le droit pouvait apporter une contribution significative en veillant à ce que l’innovation profite au plus grand nombre.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je pense que le travail dont je suis actuellement le plus fier est un article coécrit avec Brent Mittelstadt (un philosophe), Chris Russell (un informaticien) et moi en tant qu’avocat.

A lire aussi  Microsoft met fin à Cortana dans Windows et se concentre sur l'IA de nouvelle génération

Notre dernier travail sur les préjugés et l’équité, « The Unfairness of Fair Machine Learning », a révélé l’impact néfaste de l’application de nombreuses mesures d' »équité de groupe » dans la pratique. Plus précisément, l’équité est obtenue en « nivelant par le bas », c’est-à-dire en aggravant la situation de tous, plutôt qu’en aidant les groupes défavorisés. Cette approche est très problématique dans le contexte de la législation de l’UE et du Royaume-Uni en matière de non-discrimination, et elle est également troublante d’un point de vue éthique. Dans un article paru dans Wired, nous avons montré à quel point le nivellement par le bas peut être préjudiciable dans la pratique. Dans le domaine des soins de santé, par exemple, l’application du principe d’équité entre les groupes pourrait conduire à négliger plus de cas de cancer qu’il n’est strictement nécessaire, tout en rendant le système moins précis dans l’ensemble.

Pour nous, c’était terrifiant et c’est quelque chose qu’il est important de savoir pour les gens de la technologie, de la politique et, en fait, pour tout être humain. En fait, nous nous sommes engagés auprès des régulateurs du Royaume-Uni et de l’UE et nous avons partagé nos résultats alarmants avec eux. J’espère sincèrement que cela donnera aux décideurs politiques l’impulsion nécessaire pour mettre en œuvre de nouvelles politiques visant à empêcher l’IA de causer des dommages aussi graves.

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

Ce qui est intéressant, c’est que je n’ai jamais considéré la technologie comme quelque chose qui « appartient » aux hommes. Ce n’est que lorsque j’ai commencé l’école que la société m’a dit que la technologie n’avait pas de place pour les gens comme moi. Je me souviens encore qu’à l’âge de 10 ans, le programme scolaire imposait aux filles de faire du tricot et de la couture tandis que les garçons construisaient des nichoirs. Je voulais aussi construire un nichoir et j’ai demandé à être transférée dans la classe des garçons, mais mes professeurs m’ont dit que « les filles ne font pas ça ». Je suis même allée voir le directeur de l’école pour tenter de faire annuler cette décision, mais je n’ai malheureusement pas obtenu gain de cause.

Il est très difficile de lutter contre un stéréotype qui dit que vous ne devriez pas faire partie de cette communauté. J’aimerais pouvoir dire que ce genre de choses n’arrive plus, mais ce n’est malheureusement pas vrai.

Cependant, j’ai eu la chance inouïe de travailler avec des alliés comme Brent Mittelstadt et Chris Russell. J’ai eu le privilège d’avoir des mentors incroyables, comme mon directeur de thèse, et je dispose d’un réseau croissant de personnes de tous les sexes qui partagent les mêmes idées et qui font de leur mieux pour ouvrir la voie à l’amélioration de la situation pour toutes les personnes qui s’intéressent à la technologie.

A lire aussi  Superfy, l'application anti-ChatGPT, utilise l'IA pour mettre en relation des personnes pour des chats en direct et des réponses à des questions.

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’IA ?

Avant tout, essayez de trouver des personnes et des alliés qui partagent vos idées. Il est essentiel de trouver ses semblables et de se soutenir mutuellement. C’est en discutant avec des personnes ouvertes d’esprit, issues d’autres milieux et d’autres disciplines, pour résoudre les problèmes communs auxquels nous sommes confrontés, que mon travail a eu le plus d’impact. C’est pourquoi les femmes et les autres groupes qui ont toujours été confrontés à des obstacles à l’entrée dans l’IA et dans d’autres domaines technologiques disposent des outils nécessaires pour innover réellement et offrir quelque chose de nouveau.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

Je pense qu’il existe un large éventail de questions qui nécessitent un examen juridique et politique sérieux. Pour n’en citer que quelques-uns, l’IA est affectée par des données biaisées qui conduisent à des résultats discriminatoires et injustes. L’IA est par nature opaque et difficile à comprendre, et pourtant elle est chargée de décider qui obtient un prêt, qui obtient un emploi, qui doit aller en prison et qui est autorisé à aller à l’université.

L’IA générative pose les mêmes problèmes, mais elle contribue aussi à la désinformation, est truffée d’hallucinations, viole la protection des données et les droits de propriété intellectuelle, met en péril l’emploi des gens et contribue davantage au changement climatique que l’industrie aéronautique.

Nous n’avons pas de temps à perdre ; nous devons nous attaquer à ces questions dès aujourd’hui.

Quels sont les problèmes dont les utilisateurs de l’IA devraient être conscients ?

Je pense que l’on a tendance à croire à un certain discours du type « l’IA est là et elle est là pour durer, il faut monter à bord ou être laissé pour compte ». Je pense qu’il est important de réfléchir à ceux qui véhiculent ce discours et à ceux qui en profitent. Il est important de se rappeler où se trouve le pouvoir réel. Le pouvoir n’appartient pas à ceux qui innovent, mais à ceux qui achètent et mettent en œuvre l’IA.

Les consommateurs et les entreprises doivent donc se poser la question suivante : « Cette technologie m’aide-t-elle vraiment et dans quelle mesure ? » Les brosses à dents électriques intègrent désormais l' »IA ». À qui cela s’adresse-t-il ? Qui en a besoin ? Qu’est-ce qui est amélioré ici ?

A lire aussi  Pimento transforme les briefings créatifs en planches d'ambiance visuelles grâce à l'IA générative

En d’autres termes, demandez-vous ce qui est cassé et ce qui doit être réparé, et si l’IA peut réellement le faire.

Ce type de réflexion modifiera le pouvoir du marché et l’innovation s’orientera, espérons-le, vers une direction axée sur l’utilité pour une communauté plutôt que sur le simple profit.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Mettre en place des lois qui exigent une IA responsable. Ici aussi, un discours très peu utile et faux tend à dominer : la réglementation étoufferait l’innovation. Ce n’est pas vrai. La réglementation étouffe néfastes l’innovation. Les bonnes lois encouragent et nourrissent l’innovation éthique ; c’est pourquoi nous avons des voitures, des avions, des trains et des ponts sûrs. La société n’est pas perdante si la réglementation empêche l’innovation éthique.
la création d’une IA qui viole les droits de l’homme.

Les réglementations relatives à la circulation et à la sécurité des voitures sont également considérées comme « étouffant l’innovation » et « limitant l’autonomie ». Ces lois empêchent les gens de conduire sans permis, empêchent l’entrée sur le marché de voitures dépourvues de ceintures de sécurité et d’airbags et punissent les personnes qui ne respectent pas la limitation de vitesse. Imaginez ce que serait le bilan de sécurité de l’industrie automobile si nous n’avions pas de lois pour réglementer les véhicules et les conducteurs. L’IA se trouve actuellement à un point d’inflexion similaire, et le lobbying intensif de l’industrie et la pression politique font que l’on ne sait toujours pas quelle voie elle va emprunter.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Il y a quelques années, j’ai écrit un article intitulé « Comment l’IA équitable peut nous rendre plus riches ». Je suis profondément convaincu que l’IA qui respecte les droits de l’homme et qui est impartiale, explicable et durable n’est pas seulement la bonne chose à faire sur le plan juridique, éthique et moral, mais qu’elle peut aussi être rentable.

J’espère vraiment que les investisseurs comprendront que s’ils encouragent la recherche et l’innovation responsables, ils obtiendront également de meilleurs produits. De mauvaises données, de mauvais algorithmes et de mauvais choix de conception conduisent à de moins bons produits. Même si je ne parviens pas à vous convaincre qu’il faut agir de manière éthique parce que c’est la bonne chose à faire, j’espère que vous comprendrez que l’éthique est aussi plus rentable. L’éthique doit être considérée comme un investissement et non comme un obstacle à surmonter.

IA