Quatre investisseurs expliquent pourquoi l’éthique de l’IA ne peut pas être une réflexion après coup

Quatre investisseurs expliquent pourquoi l’éthique de l’IA ne peut pas être une réflexion après coup

Des milliards de dollars inondent l’IA. Pourtant, les modèles d’IA sont déjà affectés par des préjugés, comme le montre la discrimination hypothécaire à l’égard des candidats noirs à la propriété.

Il est raisonnable de se demander quel rôle joue l’éthique dans la construction de cette technologie et, peut-être plus important encore, quelle est la place des investisseurs qui s’empressent de la financer.

Un fondateur a récemment déclaré à TechCrunch+ qu’il est difficile de penser à l’éthique lorsque l’innovation est si rapide : Les gens construisent des systèmes, les cassent, puis les modifient. Il incombe donc aux investisseurs de s’assurer que ces nouvelles technologies sont développées par des fondateurs soucieux de l’éthique.

Pour voir si c’est le cas, TechCrunch+ s’est entretenu avec quatre investisseurs actifs dans ce domaine pour savoir ce qu’ils pensent de l’éthique dans l’IA et comment les fondateurs peuvent être encouragés à réfléchir davantage aux préjugés et à faire ce qu’il faut.


Nous élargissons notre champ de vision, en cherchant davantage d’investisseurs pour participer aux enquêtes de TechCrunch, où nous interrogeons des professionnels de haut niveau sur les défis de leur secteur.

Si vous êtes un investisseur et que vous souhaitez participer aux prochaines enquêtes, remplissez ce formulaire.


Certains investisseurs ont indiqué qu’ils s’attaquaient à ce problème en procédant à une vérification préalable de l’éthique du fondateur afin de déterminer s’il continuera à prendre des décisions que l’entreprise peut soutenir.

« L’empathie du fondateur est un signal d’alarme important pour nous », a déclaré Alexis Alston, directeur de Lightship Capital. « Ces personnes comprennent que si nous recherchons des rendements sur le marché, nous souhaitons également que nos investissements n’aient pas d’impact négatif sur la planète. »

D’autres investisseurs pensent que poser des questions difficiles peut aider à séparer le bon grain de l’ivraie. « Toute technologie entraîne des conséquences involontaires, qu’il s’agisse de préjugés, d’une réduction de l’action humaine, de violations de la vie privée ou d’autres choses », a déclaré Deep Nishar, directeur général de General Catalyst. « Notre processus d’investissement est centré sur l’identification de ces conséquences involontaires, leur discussion avec les équipes fondatrices et l’évaluation des mesures de protection qui sont ou seront mises en place pour les atténuer.

Les politiques gouvernementales s’attaquent également à l’IA : l’UE a adopté des lois sur l’apprentissage automatique et les États-Unis ont mis en place un groupe de travail sur l’IA pour commencer à examiner les risques associés à l’IA. Ces mesures s’ajoutent à la déclaration des droits de l’IA présentée l’année dernière. Étant donné que de nombreuses sociétés de capital-risque de premier plan injectent de l’argent dans des projets d’IA en Chine, il est important de se demander comment l’éthique mondiale de l’IA peut être appliquée au-delà des frontières.

Lisez la suite pour découvrir comment les investisseurs abordent la diligence raisonnable, les signaux d’alerte qu’ils recherchent et leurs attentes en matière de réglementation de l’IA.

Nous nous sommes entretenus avec :


Alexis Alston, directeur, Lightship Capital

Lorsque vous investissez dans une entreprise spécialisée dans l’IA, quel est le degré de diligence raisonnable que vous exercez sur la manière dont son modèle d’IA prétend ou traite les biais ?

Pour nous, il est important de comprendre exactement quelles données le modèle prend en compte, d’où elles proviennent et comment elles sont nettoyées. Nous faisons preuve de beaucoup de diligence technique avec notre GP axé sur l’IA pour nous assurer que nos modèles peuvent être entraînés à atténuer ou à éliminer les préjugés.

Nous nous souvenons tous de l’impossibilité de faire en sorte que les robinets s’ouvrent automatiquement pour laver nos mains plus foncées, et de l’époque où la recherche d’images sur Google assimilait « accidentellement » la peau noire à celle des primates. Je ferai tout ce qui est en mon pouvoir pour m’assurer que nous ne nous retrouvions pas avec de tels modèles dans notre portefeuille.

Comment l’adoption par les États-Unis d’une législation sur l’apprentissage automatique similaire à celle de l’UE pourrait-elle influer sur le rythme de l’innovation dans ce secteur ?

Étant donné le manque de connaissances techniques et de sophistication de notre gouvernement, j’ai très peu confiance dans la capacité des États-Unis à adopter une législation actionnable et précise sur l’apprentissage automatique. Nous avons tellement de retard lorsqu’il s’agit de légiférer en temps voulu et de faire participer des experts techniques à des groupes de travail pour informer nos législateurs.

En fait, je ne pense pas que la législation puisse apporter des changements majeurs au rythme du développement de l’apprentissage automatique, étant donné la façon dont nos lois sont habituellement structurées. À l’instar du nivellement par le bas de la législation sur les drogues de synthèse aux États-Unis il y a dix ans, la législation n’a jamais pu suivre.

IA