Francine Bennett utilise la science des données pour rendre l’IA plus responsable

Francine Bennett utilise la science des données pour rendre l’IA plus responsable

Pour donner aux femmes universitaires et autres spécialistes de l’IA un temps de parole bien mérité, TechCrunch lance une série d’entretiens sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publierons plusieurs articles tout au long de l’année, à mesure que l’essor de l’IA se poursuivra, afin de mettre en lumière des travaux essentiels qui restent souvent méconnus. Lisez d’autres profils ici.

Francine Bennett est un membre fondateur du conseil d’administration de l’Ada Lovelace Institute et occupe actuellement le poste de directrice par intérim de l’organisation. Auparavant, elle a travaillé dans le domaine de la biotechnologie, utilisant l’IA pour trouver des traitements médicaux pour les maladies rares. Elle a également cofondé un cabinet de conseil en science des données et est membre fondateur de DataKind UK, qui aide les organisations caritatives britanniques à se doter d’un soutien en science des données.

En quelques mots, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

J’ai commencé par les mathématiques pures et je n’étais pas très intéressé par les applications – j’aimais bricoler avec les ordinateurs, mais je pensais que les mathématiques appliquées n’étaient que du calcul et n’étaient pas très intéressantes sur le plan intellectuel. J’ai découvert l’IA et l’apprentissage automatique plus tard, lorsqu’il m’est apparu évident, comme à tout le monde, que les données devenaient beaucoup plus abondantes dans de nombreux contextes, ce qui ouvrait des possibilités passionnantes de résoudre toutes sortes de problèmes d’une nouvelle manière grâce à l’IA et à l’apprentissage automatique, et qu’elles étaient beaucoup plus intéressantes que je ne l’avais imaginé.

De quel travail êtes-vous le plus fier (dans le domaine de l’IA) ?

Je suis très fier des travaux qui ne sont pas les plus élaborés sur le plan technique, mais qui débouchent sur de réelles améliorations pour les personnes – par exemple, l’utilisation de l’intelligence artificielle pour essayer de trouver des modèles précédemment inaperçus dans les rapports d’incidents liés à la sécurité des patients dans un hôpital, afin d’aider les professionnels de la santé à améliorer les résultats pour les patients à l’avenir. Je suis fière de représenter l’importance de placer les personnes et la société plutôt que la technologie au centre d’événements tels que le sommet britannique sur la sécurité de l’IA de cette année. Je pense qu’il n’est possible de le faire avec autorité que parce que j’ai eu l’occasion de travailler avec la technologie et d’être enthousiasmé par elle, tout en m’intéressant de près à la manière dont elle affecte réellement la vie des gens dans la pratique.

Comment faites-vous pour relever les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?

Principalement en choisissant de travailler dans des lieux et avec des personnes qui s’intéressent à la personne et à ses compétences plutôt qu’à son sexe, et en cherchant à user de l’influence que j’ai pour que cela devienne la norme. Je travaille également au sein d’équipes diversifiées chaque fois que je le peux – faire partie d’une équipe équilibrée plutôt que d’être une « minorité » exceptionnelle crée une atmosphère vraiment différente et permet à chacun d’atteindre son potentiel. D’une manière plus générale, parce que l’IA présente de multiples facettes et qu’elle est susceptible d’avoir un impact sur de nombreux domaines de la vie, en particulier sur les personnes appartenant à des communautés marginalisées, il est évident que des personnes de tous horizons doivent participer à sa construction et à son élaboration, si l’on veut qu’elle fonctionne bien.

Quels conseils donneriez-vous aux femmes qui souhaitent entrer dans le domaine de l’IA ?

Profitez-en ! C’est un domaine tellement intéressant, intellectuellement stimulant et en perpétuelle évolution – vous trouverez toujours quelque chose d’utile et d’exaltant à faire, et il y a beaucoup d’applications importantes auxquelles personne n’a encore pensé. Ne soyez pas non plus trop anxieux à l’idée de devoir connaître tous les aspects techniques (littéralement, personne ne connaît tous les aspects techniques) – commencez par un sujet qui vous intrigue et partez de là.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

À l’heure actuelle, je pense qu’il manque une vision commune de ce que nous voulons que l’IA fasse pour nous et de ce qu’elle peut et ne peut pas faire pour nous en tant que société. Il y a beaucoup de progrès techniques en cours, qui ont probablement des impacts environnementaux, financiers et sociaux très élevés, et beaucoup d’enthousiasme pour déployer ces nouvelles technologies sans une compréhension bien fondée des risques potentiels ou des conséquences involontaires. La plupart des personnes qui construisent la technologie et parlent des risques et des conséquences appartiennent à un groupe démographique assez restreint. Nous avons maintenant l’occasion de décider ce que nous attendons de l’IA et d’œuvrer pour que cela se produise. Nous pouvons penser à d’autres types de technologies et à la manière dont nous avons géré leur évolution ou à ce que nous aurions souhaité faire mieux – quels sont les équivalents pour les produits de l’IA des tests de collision des nouvelles voitures, de la responsabilité d’un restaurant qui vous donne accidentellement une intoxication alimentaire, de la consultation des personnes concernées lors de l’obtention d’un permis de construire, de l’appel d’une décision de l’IA comme vous le feriez d’une bureaucratie humaine.

Quels sont les problèmes dont les utilisateurs de l’IA doivent être conscients ?

J’aimerais que les personnes qui utilisent les technologies de l’IA soient confiantes dans la nature des outils et dans ce qu’ils peuvent faire, et qu’elles parlent de ce qu’elles attendent de l’IA. Il est facile de considérer l’IA comme quelque chose d’inconnaissable et d’incontrôlable, mais en réalité, il ne s’agit que d’un ensemble d’outils – et je veux que les humains se sentent capables de prendre en charge ce qu’ils font avec ces outils. Mais cette responsabilité ne devrait pas incomber uniquement aux personnes qui utilisent la technologie : le gouvernement et l’industrie devraient créer les conditions nécessaires pour que les personnes qui utilisent l’IA puissent avoir confiance en elles.

Quelle est la meilleure façon de développer l’IA de manière responsable ?

Nous posons souvent cette question à l’Institut Ada Lovelace, dont l’objectif est de mettre l’IA au service des personnes et de la société. C’est une question difficile, et il y a des centaines d’angles d’attaque possibles, mais il y en a deux vraiment importants de mon point de vue.

Le premier consiste à accepter parfois de ne pas construire ou de s’arrêter. Nous voyons constamment des systèmes d’IA en plein essor, pour lesquels les constructeurs essaient d’ajouter des « garde-fous » par la suite afin d’atténuer les problèmes et les dommages, mais ne se mettent pas dans une situation où l’arrêt est possible.

Deuxièmement, il faut vraiment s’engager et essayer de comprendre comment toutes sortes de personnes vont vivre l’expérience de ce que vous construisez. Si vous parvenez à vous imprégner de leur expérience, vous aurez beaucoup plus de chances d’obtenir une IA responsable positive – construire quelque chose qui résout vraiment un problème pour les gens, sur la base d’une vision commune de ce que serait le bien – et d’éviter l’aspect négatif – ne pas rendre accidentellement la vie de quelqu’un plus difficile parce que son quotidien est très différent du vôtre.

Par exemple, l’Institut Ada Lovelace s’est associé au NHS pour développer une évaluation de l’impact algorithmique que les développeurs doivent réaliser comme condition d’accès aux données sur les soins de santé. Cette évaluation exige des développeurs qu’ils évaluent les impacts sociétaux possibles de leur système d’IA avant sa mise en œuvre et qu’ils tiennent compte des expériences vécues par les personnes et les communautés susceptibles d’être affectées.

Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?

En posant des questions sur leurs investissements et leurs futurs possibles – pour ce système d’IA, à quoi cela ressemble-t-il de fonctionner brillamment et d’être responsable ? Où les choses pourraient-elles dérailler ? Quels sont les effets potentiels sur les personnes et la société ? Comment saurions-nous qu’il faut arrêter la construction ou changer les choses de manière significative, et que ferions-nous alors ? Il n’existe pas de solution unique, mais il suffit de poser les questions et de signaler qu’il est important d’être responsable pour que les investisseurs puissent changer les domaines dans lesquels leurs entreprises concentrent leur attention et leurs efforts.

IA