Dust utilise de grands modèles linguistiques sur des données internes pour améliorer la productivité de l’équipe.

Dust utilise de grands modèles linguistiques sur des données internes pour améliorer la productivité de l’équipe.

Dust est un nouveau AI startup basée en France qui travaille à l’amélioration de la productivité des équipes en brisant les silos internes, en faisant émerger les connaissances importantes et en fournissant des outils pour créer des applications internes personnalisées. Au fond, Dust utilise de grands modèles de langage (LLM) sur les données internes de l’entreprise pour donner de nouveaux super-pouvoirs aux membres de l’équipe.

Cofondée par Gabriel Hubert et Stanislas Polu, la société se connaît depuis plus de dix ans. Leur première startup, Totems, a été rachetée par Stripe en 2015. Après cela, ils ont tous deux passé quelques années à travailler pour Stripe avant de se séparer.

Stanislas Polu a rejoint OpenAI où il a passé trois ans à travailler sur les capacités de raisonnement des LLM tandis que Gabriel Hubert est devenu le chef de produit chez Alan.

Ils se sont à nouveau associés pour créer Dust. Contrairement à de nombreuses start-ups spécialisées dans l’IA, Dust ne se concentre pas sur la création de nouveaux modèles de langage de grande taille. L’entreprise souhaite plutôt créer des applications à partir des LLM développés par OpenAI, Cohere, AI21, etc.

L’équipe a d’abord travaillé sur une plateforme qui peut être utilisée pour concevoir et déployer des applications de grands modèles de langage. Elle a ensuite concentré ses efforts sur un cas d’utilisation en particulier – la centralisation et l’indexation des données internes afin qu’elles puissent être utilisées par les LLM.

D’un ChatGPT interne à un logiciel de nouvelle génération

Il existe une poignée de connecteurs qui récupèrent constamment des données internes depuis Notion, Slack, Github et Google Drive. Ces données sont ensuite indexées et peuvent être utilisées pour des recherches sémantiques. Lorsqu’un utilisateur veut faire quelque chose avec une application alimentée par Dust, Dust trouvera les données internes pertinentes, les utilisera comme contexte d’un LLM et renverra une réponse.

Par exemple, disons que vous venez de rejoindre une entreprise et que vous travaillez sur un projet qui a été lancé il y a un certain temps. Si votre entreprise favorise la transparence de la communication, vous voudrez trouver des informations dans les données internes existantes. Mais la base de connaissances interne n’est peut-être pas à jour. Ou bien il peut être difficile de trouver la raison pour laquelle telle ou telle chose est faite de telle ou telle manière, car elle a été discutée dans un canal Slack archivé.

Dust n’est pas seulement un meilleur outil de recherche interne, car il ne renvoie pas uniquement des résultats de recherche. Il peut trouver des informations dans de multiples sources de données et formater les réponses de manière à ce qu’elles vous soient beaucoup plus utiles. Il peut être utilisé comme une sorte de ChatGPT interne, mais il pourrait également servir de base à de nouveaux outils internes.

« Nous sommes convaincus que l’interface en langage naturel va bouleverser le logiciel », m’a dit Gabriel Hubert. Dans cinq ans, il serait décevant de devoir encore cliquer sur « édition », « paramètres », « préférences », pour décider que le logiciel doit se comporter différemment. Nous pensons que nos logiciels s’adapteront de plus en plus à vos besoins individuels, parce que vous êtes comme ça, mais aussi parce que votre équipe est comme ça, parce que votre entreprise est comme ça.

L’entreprise travaille avec des partenaires concepteurs sur plusieurs façons de mettre en œuvre et d’emballer la plateforme Dust. « Nous pensons qu’il y a beaucoup de produits différents qui peuvent être créés dans le domaine des données d’entreprise, des travailleurs de la connaissance et des modèles qui pourraient être utilisés pour les soutenir », m’a dit Stanislas Polu.

Dust n’en est qu’à ses débuts, mais la startup explore un problème intéressant. De nombreux défis nous attendent en ce qui concerne la conservation des données, les hallucinations et tous les problèmes liés aux LLM. Peut-être que l’hallucination deviendra moins problématique au fur et à mesure que les LLM évolueront. Peut-être que Dust finira par créer son propre LLM pour des raisons de confidentialité des données.

Dust a levé 5.5 millions de dollars (5 millions d’euros) dans un tour de table d’amorçage mené par Sequoia avec XYZ, GG1, Seedcamp, Connect, Motier Ventures, Tiny Supercomputer, AI Grant et un certain nombre de business angels, comme Olivier Pomel de Datadog, Julien Codorniou, Julien Chaumond de Hugging Face, Mathilde Collin de Front, Charles Gorintin et Jean-Charles Samuelian-Werve d’Alan, Eléonore Crespo et Romain Niccoli de Pigment, Nicolas Brusson de BlaBlaCar, Howie Liu d’Airtable, Matthieu Rouif de PhotoRoom, Igor Babuschkin et Irwan Bello.

Si l’on prend un peu de recul, Dust parie sur le fait que les LLM changeront considérablement la façon dont les entreprises travaillent. Un produit comme Dust fonctionne encore mieux dans une entreprise qui favorise la transparence radicale au lieu de la rétention d’informations, la communication écrite au lieu de réunions interminables, l’autonomie au lieu de la gestion descendante.

Si les LLM tiennent leurs promesses et améliorent considérablement la productivité, certaines entreprises bénéficieront d’un avantage injuste en adoptant ces valeurs, car Dust débloquera un grand nombre de possibilités inexploitées pour les travailleurs du savoir.

IA