Karine Perset aide les gouvernements à comprendre l’IA

Karine Perset aide les gouvernements à comprendre l’IA

Afin de donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui passent souvent inaperçus. Lisez d’autres profils ici.

Karine Perset travaille pour l’Organisation de coopération et de développement économiques (OCDE), où elle dirige l’unité IA et supervise l’Observatoire des politiques d’IA de l’OCDE et les réseaux d’experts de l’IA de l’OCDE au sein de la Division de la politique de l’économie numérique.

Mme Perset est spécialisée dans l’IA et les politiques publiques. Elle a précédemment travaillé comme conseillère auprès du Comité consultatif gouvernemental de l’Internet Corporation for Assigned Names and Numbers (ICANN) et comme conseillère du directeur de la science, de la technologie et de l’industrie de l’OCDE.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis extrêmement fier du travail que nous effectuons à OECD.AI. Au cours des dernières années, la demande de ressources et d’orientations politiques sur l’IA digne de confiance a vraiment augmenté, tant de la part des pays membres de l’OCDE que des acteurs de l’écosystème de l’IA.

Lorsque nous avons commencé ce travail vers 2016, il n’y avait qu’une poignée de pays qui avaient des initiatives nationales en matière d’IA. Aujourd’hui, l’Observatoire des politiques de l’OCDE en matière d’IA – un guichet unique pour les données et les tendances en matière d’IA – répertorie plus de 1 000 initiatives en matière d’IA dans près de 70 juridictions.

À l’échelle mondiale, tous les gouvernements sont confrontés aux mêmes questions sur la gouvernance de l’IA. Nous sommes tous parfaitement conscients de la nécessité de trouver un équilibre entre la promotion de l’innovation et des possibilités offertes par l’IA et l’atténuation des risques liés à l’utilisation abusive de la technologie. Je pense que l’essor de l’IA générative à la fin de l’année 2022 a vraiment mis l’accent sur cette question.

Le dix principes de l’OCDE en matière d’IA de 2019 étaient tout à fait prémonitoires en ce sens qu’ils prévoyaient de nombreuses questions clés qui sont encore d’actualité aujourd’hui – cinq ans plus tard et alors que la technologie de l’IA progresse considérablement. Les principes servent de boussole pour guider les gouvernements dans l’élaboration de leurs politiques en matière d’IA, afin qu’ils puissent s’appuyer sur une IA digne de confiance, bénéfique pour les personnes et la planète. Ils placent les personnes au centre du développement et du déploiement de l’IA, ce qui, à mon avis, est une chose que nous ne pouvons pas nous permettre de perdre de vue, quel que soit le degré d’avancement, d’impression et d’excitation des capacités de l’IA.

Pour suivre les progrès réalisés dans la mise en œuvre des principes de l’OCDE en matière d’IA, nous avons mis en place l’Observatoire des politiques de l’OCDE en matière d’IA, qui est un centre d’information sur les questions suivantes données d’IA en temps réel ou quasi-réeldes analyses et des rapports, qui font aujourd’hui autorité auprès de nombreux décideurs politiques dans le monde. Mais l’OCDE ne peut pas agir seule, et la collaboration entre les différents acteurs a toujours été notre approche. Nous avons créé le Réseau d’experts OECD.AI – un réseau regroupant plus de 350 des plus grands experts en IA au monde – afin d’exploiter leur intelligence collective pour éclairer l’analyse des politiques. Le réseau est organisé en six groupes d’experts thématiques, qui examinent des questions telles que le risque et la responsabilité en matière d’IA, les incidents liés à l’IA et l’avenir de l’IA.

A lire aussi  D'anciens ingénieurs de Twitter construisent Particle, un lecteur de nouvelles alimenté par l'IA, soutenu par 4,4 millions de dollars

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

Lorsque nous examinons les données, nous constatons malheureusement qu’il existe toujours un fossé entre les hommes et les femmes en ce qui concerne les compétences et les ressources nécessaires pour exploiter efficacement l’IA. Dans de nombreux pays, les femmes ont encore moins accès à la formation, aux compétences et à l’infrastructure des technologies numériques. Elles sont encore sous-représentées dans la recherche et le développement en matière d’IA, tandis que les stéréotypes et les préjugés intégrés dans les algorithmes peuvent entraîner une discrimination fondée sur le sexe et limiter le potentiel économique des femmes. Dans les pays de l’OCDE, Les jeunes hommes âgés de 16 à 24 ans sont deux fois plus nombreux que les femmes à savoir programmer, une compétence essentielle pour le développement de l’IA. Il est clair que nous avons encore du travail à faire pour attirer les femmes dans le domaine de l’IA.

Cependant, alors que le secteur privé des technologies d’IA est fortement dominé par les hommes, je dirais que le monde de la politique d’IA est un peu plus équilibré. Par exemple, mon équipe à l’OCDE est proche de la parité hommes-femmes. De nombreux membres de l’équipe de l Experts en IA avec lesquelles nous travaillons sont des femmes vraiment inspirantes, telles qu’Elham Tabassi du U.National Institute of Standards and Technology (NIST) des États-Unis ; Francesca Rossi chez IBM ; Rebecca Finlay et Stephanie Ifayemi du Partnership on AI ; Lucilla Sioli, Irina Orssich, Tatjana Evas et Emilia Gomez de la Commission européenne ; Clara Neppel de l’IEEE ; Nozha Boujemaa de Decathlon ; Dunja Mladenic du laboratoire slovène JSI AI ; et bien sûr ma propre patronne et mentor Audrey Plonk, pour n’en citer que quelques-unes, et il y en a encore d’autres. donc et bien d’autres encore.

Nous avons besoin de femmes et de groupes divers représentés dans le secteur technologique, le monde universitaire et la société civile pour apporter des perspectives riches et variées. Malheureusement, en 2022, seul un chercheur sur quatre publiant sur l’IA dans le monde était une femme. Si le nombre de publications cosignées par au moins une femme augmente, les femmes ne contribuent qu’à environ la moitié de toutes les publications sur l’IA par rapport aux hommes, et l’écart se creuse au fur et à mesure que le nombre de publications augmente. Tout cela pour dire que nous avons besoin d’une plus grande représentation des femmes et des groupes divers dans ces espaces.

Pour répondre à votre question, comment puis-je relever les défis de l’industrie technologique dominée par les hommes ? Je me présente. Je suis très reconnaissante que mon poste me permette de rencontrer des experts, des fonctionnaires et des représentants d’entreprises et de prendre la parole dans des forums internationaux sur la gouvernance de l’IA. Cela me permet d’engager des discussions, de partager mon point de vue et de remettre en question les hypothèses. Et, bien sûr, je laisse les données parler d’elles-mêmes.

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’IA ?

D’après mon expérience dans le domaine de la politique de l’IA, je dirais qu’il ne faut pas avoir peur de s’exprimer et de partager son point de vue. Nous avons besoin de voix plus diversifiées autour de la table lorsque nous élaborons des politiques et des modèles d’IA. Nous avons tous des histoires uniques et quelque chose de différent à apporter à la conversation.

Pour développer une IA plus sûre, plus inclusive et plus fiable, nous devons examiner les modèles d’IA et les données saisies sous différents angles, en nous demandant : que manquons-nous ? Si vous ne vous exprimez pas, votre équipe risque de passer à côté d’une information très importante. Il y a de fortes chances que, parce que vous avez une perspective différente, vous voyiez des choses que les autres ne voient pas, et en tant que communauté mondiale, nous pouvons être plus grands que la somme de nos parties si tout le monde contribue.

A lire aussi  L'association à but non lucratif de Mutale Nkonde s'efforce de rendre l'IA moins partiale

J’aimerais également insister sur le fait qu’il existe de nombreux rôles et de nombreuses voies dans le domaine de l’IA. Un diplôme en informatique n’est pas une condition préalable pour travailler dans le domaine de l’IA. Nous voyons déjà des juristes, des économistes, des spécialistes des sciences sociales et bien d’autres profils apporter leur point de vue. À mesure que nous avançons, la véritable innovation résultera de plus en plus de la combinaison de la connaissance du domaine avec la culture de l’IA et les compétences techniques pour trouver des applications efficaces de l’IA dans des domaines spécifiques. Nous constatons déjà que les universités proposent des cours d’IA au-delà des départements d’informatique. Je crois vraiment que l’interdisciplinarité sera la clé des carrières dans l’IA. J’encourage donc les femmes de tous les domaines à réfléchir à ce qu’elles peuvent faire avec l’IA. Et à ne pas hésiter par peur d’être moins compétentes que les hommes.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?

Je pense que les problèmes les plus urgents auxquels l’IA est confrontée peuvent être divisés en trois catégories.

Premièrement, je pense que nous devons combler le fossé entre les décideurs politiques et les technologues. À la fin de l’année 2022, les progrès de l’IA générative en ont surpris plus d’un, même si certains chercheurs les avaient anticipés. Il est clair que chaque discipline aborde les questions d’IA sous un angle unique. Mais ces questions sont complexes ; la collaboration et l’interdisciplinarité entre les décideurs politiques, les développeurs d’IA et les chercheurs sont essentielles pour comprendre les questions d’IA d’une manière holistique, aider à suivre le rythme des progrès de l’IA et combler les lacunes en matière de connaissances.

Deuxièmement, l’interopérabilité internationale des règles de l’IA est essentielle à la gouvernance de l’IA. De nombreuses grandes économies ont commencé à réglementer l’IA. Par exemple, l’Union européenne vient d’adopter sa loi sur l’IA, les États-Unis ont adopté un décret pour le développement et l’utilisation sûrs, sécurisés et fiables de l’IA, et le Brésil et le Canada ont présenté des projets de loi pour réglementer le développement et le déploiement de l’IA. Le défi consiste à trouver un juste équilibre entre la protection des citoyens et la promotion des innovations commerciales. L’IA ne connaît pas de frontières, et nombre de ces économies ont des approches différentes en matière de réglementation et de protection ; il sera essentiel de permettre l’interopérabilité entre les juridictions.

Troisièmement, il y a la question du suivi des incidents liés à l’IA, qui ont ont augmenté rapidement avec l’essor de l’IA générative. L’absence de prise en compte des risques associés aux incidents liés à l’IA pourrait exacerber le manque de confiance dans nos sociétés. Il est important de noter que les données relatives aux incidents passés peuvent nous aider à éviter que des incidents similaires ne se produisent à l’avenir. L’année dernière, nous avons lancé le Moniteur des incidents d’IA. Cet outil utilise des sources d’information mondiales pour suivre les incidents liés à l’IA dans le monde entier afin de mieux comprendre les préjudices résultant des incidents liés à l’IA. Il fournit des preuves en temps réel pour soutenir les décisions politiques et réglementaires concernant l’IA, en particulier pour les risques réels tels que les préjugés, la discrimination et les perturbations sociales, ainsi que les types de systèmes d’IA qui les causent.

Quels sont les problèmes dont les utilisateurs de l’IA devraient être conscients ?

Les décideurs politiques du monde entier s’interrogent sur la manière de protéger les citoyens contre la désinformation générée par l’IA, comme les médias synthétiques tels que les « deepfakes ». Bien sûr, la désinformation existe depuis un certain temps, mais ce qui est différent ici, c’est l’échelle, la qualité et le faible coût des résultats synthétiques générés par l’IA.

Les gouvernements sont bien conscients du problème et cherchent des moyens d’aider les citoyens à identifier les contenus générés par l’IA et à évaluer la véracité des informations qu’ils consomment, mais il s’agit encore d’un domaine émergent et il n’y a pas encore de consensus sur la manière d’aborder ces questions.

A lire aussi  Microsoft Bing : des réponses plus personnalisées, la prise en charge de DALLE-E 3 et des images d'IA en filigrane

Notre Moniteur d’incidents IA peut aider à suivre les tendances mondiales et à tenir les gens informés des principaux cas de « deepfakes » et de désinformation. Mais en fin de compte, face au volume croissant de contenu généré par l’IA, les gens doivent développer leur maîtrise de l’information, en aiguisant leurs compétences, leurs réflexes et leur capacité à vérifier des sources dignes de confiance pour évaluer l’exactitude de l’information.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Nombre d’entre nous, au sein de la communauté politique de l’IA, s’efforcent de trouver des moyens de construire l’IA de manière responsable, tout en reconnaissant que la détermination de la meilleure approche dépend souvent du contexte spécifique dans lequel un système d’IA est déployé. Néanmoins, la construction d’une IA responsable nécessite un examen attentif des implications éthiques, sociales et de sécurité tout au long du cycle de vie du système d’IA.

L’une des Principes de l’OCDE en matière d’IA se réfère à la responsabilité que les acteurs de l’IA sont responsables du bon fonctionnement des systèmes d’IA qu’ils développent et utilisent. Cela signifie que les acteurs de l’IA doivent prendre des mesures pour garantir que les systèmes d’IA qu’ils construisent sont dignes de confiance. J’entends par là qu’ils doivent être bénéfiques pour les personnes et la planète, respecter les droits de l’homme, être équitables, transparents et explicables, et répondre à des niveaux appropriés de robustesse, de sécurité et de sûreté. Pour y parvenir, les acteurs doivent gouverner et gérer les risques tout au long du cycle de vie de leurs systèmes d’IA – depuis la planification, la conception, la collecte et le traitement des données jusqu’à l’élaboration de modèles, la validation et le déploiement, l’exploitation et la surveillance.

L’année dernière, nous avons publié un rapport intitulé « Advancing Accountability in AI », qui donne un aperçu de l’intégration des cadres de gestion des risques et du cycle de vie des systèmes d’IA afin de développer une IA digne de confiance. Le rapport explore les processus et les attributs techniques qui peuvent faciliter la mise en œuvre de principes fondés sur des valeurs pour une IA digne de confiance et identifie les outils et les mécanismes permettant de définir, d’évaluer, de traiter et de gouverner les risques à chaque étape du cycle de vie du système d’IA.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

En plaidant pour une conduite responsable des entreprises dans lesquelles ils investissent. Les investisseurs jouent un rôle crucial dans le développement et le déploiement des technologies de l’IA, et ils ne doivent pas sous-estimer leur capacité à influencer les pratiques internes grâce au soutien financier qu’ils apportent.

Par exemple, le secteur privé peut soutenir l’élaboration et l’adoption de lignes directrices et de normes responsables pour l’IA par le biais d’initiatives telles que les lignes directrices de l’OCDE sur la conduite responsable des entreprises (RBC), que nous sommes en train d’adapter spécifiquement à l’IA. Ces lignes directrices faciliteront notamment la conformité internationale des entreprises d’IA qui vendent leurs produits et services au-delà des frontières et permettront la transparence tout au long de la chaîne de valeur de l’IA – des fournisseurs aux utilisateurs finaux en passant par les déploiements. Les lignes directrices de RBC pour l’IA fourniront également un mécanisme d’application non judiciaire – sous la forme de points de contact nationaux chargés par les gouvernements nationaux d’arbitrer les litiges – permettant aux utilisateurs et aux parties prenantes concernées de demander réparation pour les préjudices liés à l’IA.

En aidant les entreprises à mettre en œuvre des normes et des lignes directrices en matière d’IA, comme celles de la RBC, les partenaires du secteur privé peuvent jouer un rôle essentiel dans la promotion d’un développement fiable de l’IA et dans l’élaboration de l’avenir des technologies d’IA d’une manière qui profite à l’ensemble de la société.

IA