Mistral AI, un concurrent d’OpenAI basé à Paris, a clôturé son tour de table de 415 millions de dollars.

Mistral AI, un concurrent d’OpenAI basé à Paris, a clôturé son tour de table de 415 millions de dollars.

La startup française Mistral AI a officiellement clôturé son très attendu tour de table de série A. La société a levé 385 millions d’euros, soit 415 millions de dollars au taux de change actuel. La société a levé 385 millions d’euros, soit 415 millions de dollars au taux de change actuel – selon Bloomberg, cela valorise la société à environ 2 milliards de dollars. Mistral AI ouvre également sa plateforme commerciale aujourd’hui.

Pour rappel, Mistral AI a levé un fonds d’amorçage de 112 millions de dollars il y a moins de six mois pour créer un rival européen à OpenAI. Co-fondée par des anciens de DeepMind et Meta, Mistral AI travaille sur des modèles fondamentaux avec une approche technologique ouverte.

Andreessen Horowitz (a16z) dirige le dernier tour de table, tandis que Lightspeed Venture Partners investit à nouveau dans la société d’IA. Ce n’est pas tout puisqu’une longue liste d’investisseurs participe également au tour de table, comme Salesforce, BNP Paribas, CMA-CGM, General Catalyst, Elad Gil et Conviction.

« Depuis la création de Mistral AI en mai, nous poursuivons une trajectoire claire : celle de créer un champion européen à vocation mondiale en intelligence artificielle générative, basé sur une approche ouverte, responsable et décentralisée de la technologie », a déclaré Arthur Mensch, cofondateur et PDG de Mistral AI, dans un communiqué.

En septembre, Mistral AI a publié son premier modèle appelé Mistral 7B. Ce grand modèle linguistique n’est pas destiné à concurrencer directement GPT-4 ou Claude 2, car il a été formé sur un « petit » ensemble de données d’environ 7 milliards de paramètres.

Au lieu d’ouvrir l’accès au modèle Mistral 7B via des API, l’entreprise l’a mis à disposition sous forme de téléchargement gratuit afin que les développeurs puissent l’exécuter sur leurs appareils et leurs serveurs.

A lire aussi  Pixis, une plateforme marketing complète alimentée par l'IA, lève 85 millions de dollars

Le modèle a été publié sous la licence Apache 2.0, une licence open-source qui ne comporte aucune restriction d’utilisation ou de reproduction en dehors de l’attribution. Bien que le modèle puisse être utilisé par n’importe qui, il a été développé à huis clos à partir d’un ensemble de données propriétaires et de pondérations non divulguées.

Mistral AI a également joué un rôle important dans les discussions autour de la loi européenne sur l’IA. La startup française d’IA a fait pression pour une exemption totale des modèles de base, affirmant que la réglementation devrait s’appliquer aux cas d’utilisation et aux entreprises travaillant sur des produits utilisés directement par les utilisateurs finaux.

Les législateurs européens sont parvenus à un accord politique il y a quelques jours. Les entreprises qui travaillent sur des modèles fondamentaux seront soumises à certaines exigences de transparence et devront partager la documentation technique et les résumés de ce que contiennent les ensembles de données.

Le meilleur modèle de Mistral AI n’est plus accessible que via une API

L’entreprise prévoit toujours de gagner de l’argent grâce à ses modèles de base. C’est pourquoi Mistral AI ouvre aujourd’hui sa plateforme de développement en version bêta. Grâce à cette plateforme, d’autres entreprises pourront payer pour utiliser les modèles de Mistral AI via des API.

Outre le modèle Mistral 7B (« Mistral-tiny »), les développeurs pourront accéder au nouveau modèle Mixtral 8x7B (« Mistral-small »). Ce modèle utilise « un réseau de routeurs » pour traiter les jetons d’entrée et choisir le groupe de paramètres le plus approprié pour donner une réponse.

« Cette technique permet d’augmenter le nombre de paramètres d’un modèle tout en contrôlant le coût et la latence, car le modèle n’utilise qu’une fraction de l’ensemble des paramètres par jeton. Concrètement, Mixtral dispose de 45 milliards de paramètres au total, mais n’utilise que 12 milliards de paramètres par jeton. Il traite donc les entrées et génère des sorties à la même vitesse et pour le même coût qu’un modèle de 12B », a écrit l’entreprise dans un billet de blog.

A lire aussi  Chronologie du licenciement de Sam Altman de l'OpenAI - et de ses retombées

Mixtral 8x7B a également été publié sous la licence Apache 2.0 et peut être téléchargé gratuitement. Un troisième modèle, Mistral-medium, est disponible sur la plateforme de développement de Mistral. Il est censé être plus performant que les autres modèles de Mistral AI et n’est disponible que via la plateforme API payante – aucun lien de téléchargement n’est disponible.

IA