Les femmes dans l’IA : Urvashi Aneja étudie l’impact social de l’IA en Inde

Les femmes dans l’IA : Urvashi Aneja étudie l’impact social de l’IA en Inde

Afin de donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui restent souvent méconnus. Lisez d’autres profils ici.

Urvashi Aneja est la directrice fondatrice du Digital Futures Lab, un effort de recherche interdisciplinaire qui vise à examiner l’interaction entre la technologie et la société dans le Sud global. Elle est également associée au programme Asie-Pacifique de Chatham House, un institut politique indépendant basé à Londres.

Les recherches actuelles d’Aneja se concentrent sur l’impact sociétal des systèmes algorithmiques de prise de décision en Inde, où elle est basée, et sur la gouvernance des plateformes. Aneja a récemment rédigé une étude sur les utilisations actuelles de l’IA en Inde, examinant les cas d’utilisation dans des secteurs tels que la police et l’agriculture.

Q&A

En quelques mots, comment avez-vous commencé à travailler dans le domaine de l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

J’ai commencé ma carrière dans la recherche et l’engagement politique dans le secteur humanitaire. Pendant plusieurs années, j’ai étudié l’utilisation des technologies numériques dans les crises prolongées dans des contextes à faibles ressources. J’ai rapidement appris que la frontière entre l’innovation et l’expérimentation est ténue, en particulier lorsqu’il s’agit de populations vulnérables. Les enseignements tirés de cette expérience m’ont profondément inquiété quant aux récits techno-solutionnistes concernant le potentiel des technologies numériques, en particulier de l’IA. Au même moment, l’Inde a lancé sa mission « Digital India » et sa stratégie nationale pour l’intelligence artificielle. J’ai été troublée par les récits dominants qui considèrent l’IA comme une solution miracle aux problèmes socio-économiques complexes de l’Inde, et par l’absence totale de discours critique sur la question.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis fier que nous ayons pu attirer l’attention sur l’économie politique de la production d’IA ainsi que sur les implications plus larges pour la justice sociale, les relations de travail et la durabilité environnementale. Très souvent, les récits sur l’IA se concentrent sur les gains d’applications spécifiques et, dans le meilleur des cas, sur les avantages et les risques de ces applications. Mais cette approche ne tient pas compte de la forêt pour les arbres – une optique axée sur les produits masque les impacts structurels plus larges tels que la contribution de l’IA à l’injustice épistémique, à la déqualification du travail et à la perpétuation d’un pouvoir non responsable dans le monde majoritaire. Je suis également fière que nous ayons pu traduire ces préoccupations en politiques et réglementations concrètes, qu’il s’agisse de concevoir des lignes directrices pour l’utilisation de l’IA dans le secteur public ou de fournir des preuves dans le cadre de procédures judiciaires contre des entreprises de Big Tech dans les pays du Sud.

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

En laissant mon travail parler. Et en me demandant constamment : pourquoi ?

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’IA ?

Développez vos connaissances et votre expertise. Assurez-vous que votre compréhension technique des problèmes est solide, mais ne vous concentrez pas uniquement sur l’IA. Au contraire, étudiez largement afin de pouvoir établir des liens entre les différents domaines et disciplines. Trop peu de gens comprennent que l’IA est un système sociotechnique qui est le produit de l’histoire et de la culture.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

Je pense que le problème le plus urgent est la concentration du pouvoir au sein d’une poignée d’entreprises technologiques. Ce problème n’est pas nouveau, mais il est exacerbé par les nouveaux développements dans les grands modèles de langage et l’IA générative. Nombre de ces entreprises attisent aujourd’hui les craintes concernant les risques existentiels de l’IA. Non seulement cela détourne l’attention des dommages existants, mais cela positionne également ces entreprises comme étant nécessaires pour traiter les dommages liés à l’IA. À bien des égards, nous perdons une partie de l’élan du « tech-lash » qui a surgi à la suite de l’épisode Cambridge Analytica. Dans des pays comme l’Inde, je crains également que l’IA ne soit présentée comme nécessaire au développement socio-économique, offrant ainsi la possibilité de surmonter des difficultés persistantes. Non seulement cela exagère le potentiel de l’IA, mais cela ne tient pas compte du fait qu’il n’est pas possible de faire l’impasse sur le développement institutionnel nécessaire pour mettre en place des garde-fous. Une autre question que nous ne prenons pas assez au sérieux est celle des impacts environnementaux de l’IA – la trajectoire actuelle est susceptible d’être insoutenable. Dans l’écosystème actuel, il est peu probable que les personnes les plus vulnérables aux effets du changement climatique soient les bénéficiaires de l’innovation en matière d’IA.

Quels sont les problèmes dont les utilisateurs de l’IA devraient être conscients ?

Les utilisateurs doivent savoir que l’IA n’est pas magique et qu’elle n’a rien à voir avec l’intelligence humaine. Il s’agit d’une forme de statistique informatique qui a de nombreuses utilisations bénéfiques, mais qui n’est en fin de compte qu’une supposition probabiliste basée sur des modèles historiques ou antérieurs. Je suis certain que les utilisateurs doivent être conscients de plusieurs autres problèmes, mais je tiens à souligner qu’il faut se méfier des tentatives visant à déplacer la responsabilité en aval, vers les utilisateurs. Je l’ai constaté très récemment avec l’utilisation d’outils d’IA générative dans des contextes à faibles ressources dans le monde majoritaire – au lieu de faire preuve de prudence à l’égard de ces technologies expérimentales et peu fiables, l’accent est souvent mis sur la manière dont les utilisateurs finaux, tels que les agriculteurs ou les travailleurs de la santé de première ligne, doivent améliorer leurs compétences.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Il faut commencer par évaluer la nécessité de l’IA. Existe-t-il un problème que l’IA peut résoudre de manière unique ou d’autres moyens sont-ils possibles ? Et si nous devons construire l’IA, un modèle complexe de boîte noire est-il nécessaire, ou un modèle plus simple basé sur la logique pourrait-il faire tout aussi bien l’affaire ? Nous devons également recentrer la connaissance du domaine dans la construction de l’IA. Dans l’obsession du big data, nous avons sacrifié la théorie – nous devons construire une théorie du changement basée sur la connaissance du domaine et cela devrait être la base des modèles que nous construisons, et pas seulement le big data. Cela s’ajoute bien sûr à des questions clés telles que la participation, les équipes inclusives, les droits du travail, etc.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

Les investisseurs doivent prendre en compte l’ensemble du cycle de vie de la production d’IA, et pas seulement les résultats des applications de l’IA. Pour ce faire, ils doivent examiner une série de questions telles que la juste valorisation de la main-d’œuvre, les incidences sur l’environnement, le modèle commercial de l’entreprise (est-elle basée sur la surveillance commerciale ?) et les mesures de responsabilisation internes à l’entreprise. Les investisseurs doivent également demander des preuves plus solides et plus rigoureuses des avantages supposés de l’IA.

IA