OpenAI, qui renaît de ses cendres, a beaucoup à prouver, même avec le retour de Sam Altman

OpenAI, qui renaît de ses cendres, a beaucoup à prouver, même avec le retour de Sam Altman

La puissance d’OpenAI qui a captivé le monde de la technologie après le licenciement du cofondateur Sam Altman a finalement pris fin – du moins pour l’instant. Mais qu’en penser ?

C’est un peu comme si OpenAI était morte et qu’une nouvelle startup, pas nécessairement améliorée, se tenait en son sein. L’ancien président de Y Combinator, M. Altman, est de retour à la barre, mais son retour est-il justifié ? Le nouveau conseil d’administration d’OpenAI prend un départ moins diversifié (il est entièrement blanc et masculin), et les objectifs philanthropiques fondateurs de l’entreprise risquent d’être cooptés par des intérêts plus capitalistes.

Cela ne veut pas dire que l’ancienne OpenAI était parfaite, loin s’en faut.

Vendredi matin, OpenAI avait un conseil d’administration composé de six personnes : Altman, Ilya Sutskever, scientifique en chef d’OpenAI, Greg Brockman, président d’OpenAI, Tasha McCauley, entrepreneur technologique, Adam D’Angelo, PDG de Quora, et Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de Georgetown. Le conseil d’administration était techniquement lié à une organisation à but non lucratif qui détenait une participation majoritaire dans la partie lucrative de l’OpenAI, avec un pouvoir de décision absolu sur les activités, les investissements et la direction générale de l’OpenAI à but lucratif.

La structure inhabituelle d’OpenAI a été mise en place par les cofondateurs de l’entreprise, dont M. Altman, avec les meilleures intentions du monde. La charte de l’organisation à but non lucratif, exceptionnellement brève (500 mots), stipule que le conseil d’administration doit prendre des décisions garantissant « que l’intelligence artificielle générale bénéficie à l’ensemble de l’humanité », laissant aux membres du conseil d’administration le soin de décider de la meilleure façon d’interpréter cette notion. Ni le « profit » ni le « revenu » ne sont mentionnés dans ce document de l’étoile polaire ; Toner aurait dit un jour à l’équipe exécutive d’Altman que déclencher l’effondrement d’OpenAI « serait en fait cohérent avec la mission (de l’association) ».

Peut-être cet arrangement aurait-il fonctionné dans un univers parallèle ; pendant des années, il a semblé fonctionner assez bien à OpenAI. Mais une fois que des investisseurs et des partenaires puissants ont été impliqués, les choses sont devenues… plus délicates.

Le licenciement d’Altman unit les employés de Microsoft et d’OpenAI

Après que le conseil d’administration a brusquement renvoyé M. Altman vendredi sans en avertir qui que ce soit, y compris la majeure partie des 770 employés d’OpenAI, les partisans de la startup ont commencé à exprimer leur mécontentement à la fois en privé et en public.

Satya Nadella, le PDG de Microsoft, l’un des principaux collaborateurs d’OpenAI, aurait été « furieux » d’apprendre le départ d’Altman. Vinod Khosla, le fondateur de Khosla Ventures, un autre bailleur de fonds d’OpenAI, a déclaré sur X (anciennement Twitter) que le fonds souhaitait le retour d’Altman. Entre-temps, Thrive Capital, Khosla Ventures, Tiger Global Management et Sequoia Capital auraient envisagé une action en justice contre le conseil d’administration si les négociations menées au cours du week-end pour réintégrer M. Altman n’allaient pas dans leur sens.

A lire aussi  Zoom donne une nouvelle image à ses fonctions d'IA générative existantes et en introduit de nouvelles

Les employés d’OpenAI n’étaient pas non aligné avec ces investisseurs. Au contraire, la quasi-totalité d’entre eux – y compris Sutskever, qui a apparemment changé d’avis – ont signé une lettre menaçant le conseil d’administration de démissionner en masse s’il ne décidait pas de changer de cap. Mais il faut tenir compte du fait que ces employés d’OpenAI avaient beaucoup à perdre si OpenAI s’écroulait – les offres d’emploi de Microsoft et de Salesforce mises à part.

OpenAI avait entamé des discussions, sous la houlette de Thrive, en vue d’une éventuelle vente d’actions des employés, ce qui aurait fait passer l’évaluation de l’entreprise de 29 milliards de dollars à un montant situé entre 80 et 90 milliards de dollars. Le départ soudain d’Altman – et la rotation des PDG intérimaires douteux d’OpenAI – a donné des sueurs froides à Thrive, ce qui a mis la vente en péril.

Altman a gagné la bataille de cinq jours, mais à quel prix ?

Aujourd’hui, après plusieurs jours d’épuisement, une certaine forme de résolution a été trouvée. M. Altman – ainsi que M. Brockman, qui a démissionné vendredi en signe de protestation contre la décision du conseil d’administration – est de retour, bien qu’il doive faire l’objet d’une enquête de fond sur les problèmes qui ont précipité sa révocation. L’OpenAI dispose d’un nouveau conseil d’administration transitoire, ce qui répond à l’une des demandes de M. Altman. OpenAI conservera sa structure, les bénéfices des investisseurs étant plafonnés et le conseil d’administration étant libre de prendre des décisions qui ne sont pas motivées par les revenus.

Le PDG de Salesforce, Marc Benioff, a déclaré sur X que « les gentils » avaient gagné. Mais il est peut-être prématuré de le dire.

Bien sûr, M. Altman a « gagné », en battant un conseil d’administration qui l’accusait de « ne pas être toujours franc » avec les membres du conseil et, selon certains rapports, de privilégier la croissance par rapport à la mission. Dans un exemple de cette prétendue crapulerie, Altman aurait critiqué Toner à propos d’un article qu’elle avait co-écrit et qui présentait l’approche d’OpenAI en matière de sécurité sous un jour critique – au point qu’il a tenté de l’évincer du conseil d’administration. Dans une autre affaire, M. Altman a « exaspéré » M. Sutskever en précipitant le lancement de fonctions basées sur l’IA lors de la première conférence des développeurs de l’OpenAI.

A lire aussi  Un article révèle que le GPT-4 d'OpenAI avec vision présente encore des lacunes

Le conseil d’administration ne s’est pas expliqué, même après plusieurs tentatives, en invoquant d’éventuelles poursuites judiciaires. On peut dire sans risque de se tromper qu’il a écarté M. Altman d’une manière inutilement histrionique. Mais on ne peut nier que les administrateurs avaient peut-être des raisons valables de renvoyer Altman, du moins selon la façon dont ils interprétaient leur directive humaniste.

Le nouveau conseil d’administration semble susceptible d’interpréter cette directive différemment.

Actuellement, le conseil d’administration d’OpenAI se compose de Bret Taylor, ancien co-PDG de Salesforce, de M. D’Angelo (le seul à être resté au sein du conseil d’administration initial) et de Larry Summers, économiste et ancien président de Harvard. Bret Taylor est l’entrepreneur des entrepreneurs, ayant cofondé de nombreuses entreprises, dont FriendFeed (rachetée par Facebook) et Quip (dont il a rejoint Salesforce après l’avoir rachetée). Quant à M. Summers, il a de profondes relations avec le monde des affaires et le gouvernement – un atout pour l’OpenAI, comme on l’a probablement pensé lors de sa sélection, à un moment où l’examen réglementaire de l’IA s’intensifie.

Les directeurs ne semblent pas être une « victoire » absolue pour ce journaliste, pas si la diversité des points de vue était l’objectif. Alors que six sièges doivent encore être pourvus, les quatre premiers donnent un ton plutôt homogène ; un tel conseil serait en fait illégal en Europe, où les entreprises sont tenues de réserver au moins 40 % de leurs sièges au conseil d’administration à des candidates.

Pourquoi certains experts en IA s’inquiètent du nouveau conseil d’administration de l’OpenAI

Je ne suis pas le seul à être déçu. Un certain nombre d’universitaires spécialisés dans l’IA se sont tournés vers X pour exprimer leurs frustrations plus tôt dans la journée.

Noah Giansiracusa, professeur de mathématiques à l’université de Bentley et auteur d’un livre sur les algorithmes de recommandation des médias sociaux, s’insurge à la fois contre la composition exclusivement masculine du conseil d’administration et contre la nomination de M. Summers, qui, selon lui, a déjà fait des remarques peu flatteuses à l’égard des femmes.

« Quoi que l’on pense de ces incidents, l’optique n’est pas bonne, c’est le moins que l’on puisse dire – en particulier pour une entreprise qui a été à la pointe du développement de l’IA et qui a remodelé le monde dans lequel nous vivons », a déclaré M. Giansiracusa par texto. Ce que je trouve particulièrement troublant, c’est que l’objectif principal d’OpenAI est de développer une intelligence artificielle générale qui « profite à l’ensemble de l’humanité ». La moitié de l’humanité étant composée de femmes, les événements récents ne me donnent pas confiance à ce sujet. Toner représente le plus directement l’aspect sécuritaire de l’IA, et c’est si souvent la position dans laquelle les femmes ont été placées, tout au long de l’histoire, mais surtout dans la technologie : protéger la société contre de grands dommages pendant que les hommes s’attribuent le mérite d’innover et de dominer le monde ».

A lire aussi  La semaine de l'IA : l'IA générative envahit le web

Christopher Manning, directeur du Sanford’s AI Lab, est légèrement plus charitable que – mais en accord avec – Giansiracusa dans son évaluation :

« Le nouveau conseil d’administration d’OpenAI est probablement encore incomplet », a-t-il déclaré à TechCrunch. « Néanmoins, la composition actuelle du conseil, qui manque de personnes ayant une connaissance approfondie de l’utilisation responsable de l’IA dans la société humaine et qui ne comprend que des hommes blancs, n’est pas un début prometteur pour une entreprise d’IA aussi importante et influente. »

L’inégalité sévit dans l’industrie de l’IA, depuis les annotateurs qui étiquettent les données utilisées pour former les modèles génératifs d’IA jusqu’aux préjugés nuisibles qui émergent souvent dans ces modèles formés, y compris les modèles d’OpenAI. Summers, pour être juste, a a exprimé son inquiétude quant aux ramifications potentiellement néfastes de l’IA, du moins en ce qui concerne les moyens de subsistance. Mais les critiques avec lesquels je me suis entretenu ont du mal à croire qu’un conseil d’administration comme celui de l’OpenAI donnera systématiquement la priorité à ces défis, du moins pas de la même manière qu’un conseil d’administration plus diversifié le ferait.

Cela soulève la question suivante : Pourquoi l’OpenAI n’a-t-elle pas tenté de recruter un éthicien de l’IA bien connu comme Timnit Gebru ou Margaret Mitchell pour le premier conseil d’administration ? N’étaient-ils pas « disponibles » ? Ont-ils refusé ? Ou bien l’OpenAI n’a-t-elle pas fait d’efforts en premier lieu ? Nous ne le saurons peut-être jamais.

OpenAI a l’occasion de se montrer plus sage et plus ouvert sur le monde en sélectionnant les cinq sièges restants au conseil d’administration – ou trois, si Altman et un cadre de Microsoft en prennent un chacun (comme la rumeur l’a laissé entendre). S’ils n’optent pas pour une approche plus diversifiée, ce que Daniel Colson, le directeur du groupe de réflexion AI Policy Institute, a dit, c’est qu’il n’y a pas d’autre choix que celui de la diversité, a déclaré sur X pourrait bien être vrai : on ne peut pas confier à quelques personnes ou à un seul laboratoire le soin de veiller à ce que l’IA soit développée de manière responsable.

IA