Les femmes dans l’IA : Brandie Nonnecke, de l’université de Berkeley, estime que les investisseurs devraient insister sur des pratiques responsables en matière d’IA

Les femmes dans l’IA : Brandie Nonnecke, de l’université de Berkeley, estime que les investisseurs devraient insister sur des pratiques responsables en matière d’IA

Afin de donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui restent souvent méconnus. Lisez d’autres profils ici.

Brandie Mme Nonnecke est la directrice fondatrice du CITRIS Policy Lab, dont le siège se trouve à l’université de Berkeley, qui soutient la recherche interdisciplinaire pour répondre aux questions concernant le rôle de la réglementation dans la promotion de l’innovation. Mme Nonnecke codirige également le Berkeley Center for Law and Technology, où elle dirige des projets sur l’IA, les plateformes et la société, ainsi que le UC Berkeley AI Policy Hub, une initiative visant à former les chercheurs à l’élaboration de cadres politiques et de gouvernance efficaces en matière d’IA.

Pendant son temps libre, Mme Nonnecke anime une série de vidéos et de podcasts, TecHype, qui analyse les politiques, les réglementations et les lois émergentes dans le domaine de la technologie, en donnant un aperçu des avantages et des risques et en identifiant des stratégies pour mettre la technologie au service du bien.

Questions et réponses

En quelques mots, comment avez-vous commencé à travailler dans le domaine de l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

Je travaille dans le domaine de la gouvernance responsable de l’IA depuis près de dix ans. Ma formation en technologie, en politique publique et leur intersection avec les impacts sociétaux m’ont attiré dans ce domaine. L’IA est déjà omniprésente et a un impact profond sur nos vies – pour le meilleur et pour le pire. Il est important pour moi de contribuer de manière significative à la capacité de la société à exploiter cette technologie pour le bien plutôt que de rester sur la touche.

A lire aussi  Google lance le projet IDX, un nouvel environnement de développement basé sur un navigateur et basé sur l'IA

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis très fier de deux choses que nous avons accomplies. Tout d’abord, l’Université de Californie a été la première université à établir des principes d’IA responsable et une structure de gouvernance pour mieux garantir l’acquisition et l’utilisation responsables de l’IA. Nous prenons très au sérieux notre engagement à servir le public de manière responsable. J’ai eu l’honneur de coprésider le groupe de travail présidentiel de l’UC sur l’IA et le conseil permanent sur l’IA qui en a résulté. Dans ces fonctions, j’ai pu acquérir une expérience de première main en réfléchissant à la meilleure façon d’opérationnaliser nos principes d’IA responsable afin de protéger notre faculté, notre personnel, nos étudiants et les communautés au sens large que nous servons. Deuxièmement, je pense qu’il est essentiel que le public comprenne les technologies émergentes et leurs avantages et risques réels. Nous avons lancé TecHype, une série de vidéos et de podcasts qui démystifient les technologies émergentes et fournissent des conseils sur les interventions techniques et politiques efficaces.

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

Être curieux, persévérant et ne pas se laisser décourager par le syndrome de l’imposteur. J’ai constaté qu’il était essentiel de rechercher des mentors qui soutiennent la diversité et l’inclusion, et d’offrir le même soutien à ceux qui entrent dans le domaine. La création de communautés inclusives dans le domaine de la technologie a été un moyen puissant de partager des expériences, des conseils et des encouragements.

A lire aussi  5 startups d'IA issues de la promotion de l'été 2023 de Y Combinator

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’intelligence artificielle ?

Pour les femmes qui se lancent dans le domaine de l’IA, mon conseil est triple : Chercher sans relâche à acquérir des connaissances, car l’IA est un domaine qui évolue rapidement. Favorisez le travail en réseau, car les contacts vous ouvriront des portes et vous apporteront un soutien inestimable. Et défendez vos intérêts et ceux des autres, car votre voix est essentielle pour façonner un avenir inclusif et équitable pour l’IA. N’oubliez pas que vos perspectives et expériences uniques enrichissent le domaine et stimulent l’innovation.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

Je pense que l’un des problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue est de ne pas s’accrocher aux derniers cycles d’engouement. C’est ce que nous constatons actuellement avec l’IA générative. Certes, l’IA générative présente des avancées significatives et aura un impact considérable – bon ou mauvais. Mais d’autres formes d’apprentissage automatique sont utilisées aujourd’hui et prennent subrepticement des décisions qui affectent directement la capacité de chacun à exercer ses droits. Plutôt que de se concentrer sur les dernières merveilles de l’apprentissage automatique, il est plus important de se demander comment et où l’apprentissage automatique est appliqué, quelles que soient ses prouesses technologiques.

Quels sont les problèmes dont les utilisateurs de l’IA devraient être conscients ?

Les utilisateurs de l’IA doivent être conscients des problèmes liés à la confidentialité et à la sécurité des données, du risque de partialité dans les décisions prises par l’IA et de l’importance de la transparence dans la manière dont les systèmes d’IA fonctionnent et prennent des décisions. La compréhension de ces questions peut permettre aux utilisateurs d’exiger des systèmes d’IA plus responsables et plus équitables.

A lire aussi  L'IA générative arrive dans les soins de santé, et tout le monde n'est pas ravi

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Construire l’IA de manière responsable implique d’intégrer des considérations éthiques à chaque étape du développement et du déploiement. Cela implique un engagement diversifié des parties prenantes, des méthodologies transparentes, des stratégies de gestion des préjugés et des évaluations d’impact permanentes. Il est fondamental de donner la priorité au bien public et de veiller à ce que les technologies d’IA soient développées en tenant compte des droits de l’homme, de l’équité et de l’inclusion.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

C’est une question très importante ! Pendant longtemps, nous n’avons jamais discuté expressément du rôle des investisseurs. Je ne saurais trop insister sur l’impact des investisseurs ! Je pense que l’expression « la réglementation étouffe l’innovation » est galvaudée et souvent fausse. Au contraire, je crois fermement que les petites entreprises peuvent bénéficier d’un avantage de dernière minute et apprendre des grandes entreprises d’IA qui ont développé des pratiques d’IA responsables et des conseils émanant des universités, de la société civile et des gouvernements. Les investisseurs ont le pouvoir de façonner l’orientation du secteur en faisant des pratiques d’IA responsable un facteur essentiel de leurs décisions d’investissement. Il s’agit notamment de soutenir les initiatives visant à relever les défis sociaux grâce à l’IA, de promouvoir la diversité et l’inclusion au sein de la main-d’œuvre de l’IA et de plaider en faveur d’une gouvernance solide et de stratégies techniques qui contribuent à garantir que les technologies de l’IA profitent à l’ensemble de la société.

IA