Un bref aperçu de l’histoire du conseil d’administration de l’OpenAI

Un bref aperçu de l’histoire du conseil d’administration de l’OpenAI

Trois membres du conseil d’administration d’OpenAI se sont retirés au début de l’année à quelques mois d’intervalle, mais la startup n’a pas cherché à les remplacer. L’un des membres actuels, Adam D’Angelo, ancien directeur technique de Facebook et PDG de Quora, a lancé une plateforme de chatbot d’IA, Poe, qui s’appuie sur les produits d’OpenAI, mais leur fait également concurrence. Deux autres membres, Tasha McCauley et Helen Toner, sont liés à la même organisation philanthropique idéologique.

Ce sont là quelques-unes des conclusions surprenantes d’un récent article publié sur Substack par John Loeber, cofondateur de la société de courtage numérique Limit, qui a fouillé dans l’Internet Archive et les déclarations fiscales d’OpenAI pour se faire une idée de la gouvernance d’OpenAI. Sa chronologie brosse le tableau d’un conseil d’administration dont la composition changeait fréquemment, souvent sans avertissement, ce qui a précipité la crise d’aujourd’hui.

Au début de l’histoire d’OpenAI – vers décembre 2015 – le conseil d’administration d’OpenAI était composé de deux personnes, les coprésidents Elon Musk et Sam Altman. En mars 2017, le conseil était passé à quatre : Musk, Altman, Chris Clark (le premier COO d’OpenAI) et Holden Karnofsky, le fondateur de la recherche sur l’altruisme efficace et de la fondation d’octroi de subventions Open Philanthropy.

Greg Brockman, ex-président d’OpenAI, a rejoint le conseil d’administration d’OpenAI fin 2017 aux côtés d’Ilya Sutskever, scientifique en chef d’OpenAI. Le conseil d’administration s’est réduit l’année suivante après le retrait de Musk – apparemment en raison de désaccords sur la direction – et le départ non annoncé de Clark, mais il s’est à nouveau agrandi en 2018 et 2019 avec l’arrivée de D’Angelo, de la directrice des projets de robotique de Google, Sue Yoon (qui a quitté l’organisation un an plus tard), du fondateur de LinkedIn, Reid Hoffman, de l’entrepreneur technologique Tasha McCauley et de l’administrateur de Neuralink, Shivon Zilis.

En 2021, Will Hurd, membre républicain de la Chambre des représentants, et Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de Georgetown, ont rejoint le groupe, tandis que M. Karnofsky a démissionné. M. Karnofsky a invoqué un conflit d’intérêts potentiel car sa femme, Daniela Amodei, ancienne employée d’OpenAI, a participé au lancement de la société d’IA Anthropic.

Étant donné que Toner a précédemment travaillé en tant qu’analyste de recherche principal à Open Philanthropy, Loeber suppose que Karnofsky aurait pu l’approuver en tant que remplaçante.

Cette année, Hoffman s’est retiré du conseil d’administration d’OpenAI pour, dit-il, éviter d’éventuels conflits avec d’autres investissements. Zilis a également démissionné, tout comme Hurd – ce dernier pour se concentrer sur la campagne présidentielle américaine de 2024.

Ensuite, il y en a eu six : Altman, Brockman, D’Angelo, Toner, McCauley et Sutskever. Depuis vendredi, quatre membres siègent toujours au conseil d’administration de l’OpenAI – les six précédents, moins Altman et Brockman. Que faut-il en penser ?

Loeber soutient que D’Angelo avait des raisons de démissionner étant donné que Poe est en concurrence plus directe avec les produits et services d’OpenAI, y compris le GPT Studio récemment annoncé, que même les investissements de Hoffman.

McCauley, quant à elle, est cofondatrice du Center for the Governance of AI (GovAI), financé en partie par Open Philanthropy – et elle est, avec Toner, membre du comité consultatif de GovAI. Outre le fait qu’Anthropic est en partie financé par Open Philanthropy, ce qui n’est pas sans évoquer un conflit d’entreprise, il n’est pas exclu que McCauley et Toner soient étroitement alignés sur le plan idéologique et qu’ils ne soient donc pas aussi indépendants d’esprit au sein du conseil d’OpenAI qu’il n’y paraît de prime abord.

Dans les jours et les semaines à venir, nous apprendrons peut-être comment ces conflits et interactions potentiels ont contribué à la défaite d’OpenAI – si tant est qu’ils y aient contribué.

IA