Alors que les entreprises technologiques jouent avec l’API d’OpenAI, cette startup pense que les petits modèles d’IA internes gagneront.

Alors que les entreprises technologiques jouent avec l’API d’OpenAI, cette startup pense que les petits modèles d’IA internes gagneront.

ZenML veut être la colle qui fait tenir ensemble tous les outils d’IA open-source. Ce cadre open-source vous permet de construire des pipelines qui seront utilisés par les scientifiques des données, les ingénieurs en apprentissage automatique et les ingénieurs de plateforme pour collaborer et construire de nouveaux modèles d’IA.

La raison pour laquelle ZenML est intéressant est qu’il permet aux entreprises de construire leurs propres modèles privés. Bien sûr, les entreprises ne construiront probablement pas un concurrent GPT 4. Mais elles pourraient construire des modèles plus petits qui répondent particulièrement bien à leurs besoins. Et cela réduirait leur dépendance à l’égard des fournisseurs d’API, tels qu’OpenAI et Anthropic.

« L’idée est qu’une fois passée la première vague d’engouement pour l’utilisation d’OpenAI ou d’API à source fermée, (ZenML) permettra aux gens de construire leur propre pile », m’a dit Louis Coppey, partenaire de la société de capital-risque Point Nine.

Au début de l’année, ZenML a obtenu une extension de son tour de table d’amorçage auprès de Point Nine, avec la participation d’un investisseur existant, Crane. Au total, la startup basée à Munich, en Allemagne, a obtenu 6,4 millions de dollars depuis sa création.

Adam Probst et Hamza Tahir, les fondateurs de ZenML, ont travaillé ensemble dans une entreprise qui construisait des pipelines de ML pour d’autres entreprises dans un secteur spécifique. « Jour après jour, nous devions construire des modèles d’apprentissage automatique et les mettre en production », m’a dit Adam Probst, PDG de ZenML.

À partir de ce travail, le duo a commencé à concevoir un système modulaire qui s’adapterait à des circonstances, des environnements et des clients différents afin de ne pas avoir à répéter le même travail encore et encore – ce qui a donné naissance à ZenML.

En même temps, les ingénieurs qui s’initient à l’apprentissage automatique pourraient prendre une longueur d’avance en utilisant ce système modulaire. L’équipe ZenML appelle cet espace MLOps – c’est un peu comme DevOps, mais appliqué à l’apprentissage automatique en particulier.

« Nous connectons les outils open-source qui se concentrent sur des étapes spécifiques de la chaîne de valeur pour construire un pipeline d’apprentissage automatique – tout ce qui se trouve sur le dos des hyperscalers, donc tout ce qui se trouve sur le dos d’AWS et de Google – et aussi des solutions sur site « , a déclaré Probst.

Le concept principal de ZenML est celui des pipelines. Lorsque vous écrivez un pipeline, vous pouvez l’exécuter localement ou le déployer à l’aide d’outils open-source comme Airflow ou Kubeflow. Vous pouvez également tirer parti des services cloud gérés, tels que EC2, Vertex Pipelines et Sagemaker. ZenML s’intègre également à des outils ML open-source tels que Hugging Face, MLflow, TensorFlow, PyTorch, etc.

« ZenML est en quelque sorte l’élément qui rassemble tout en une seule expérience unifiée – elle est multi-fournisseurs, multi-cloud », a déclaré Hamza Tahir, directeur technique de ZenML. Il apporte des connecteurs, de l’observabilité et de l’auditabilité aux flux de travail de ML.

La société a d’abord publié son cadre sur GitHub en tant qu’outil open-source. L’équipe a accumulé plus de 3 000 étoiles sur la plateforme de codage. ZenML propose également depuis peu une version cloud avec des serveurs gérés – des déclencheurs pour l’intégration et le déploiement continus (CI/CD) seront bientôt disponibles.

Certaines entreprises utilisent ZenML pour des applications industrielles, des systèmes de recommandation pour le commerce électronique, la reconnaissance d’images dans un environnement médical, etc. Parmi les clients figurent Rivian, Playtika et Leroy Merlin.

Modèles privés, spécifiques à l’industrie

Le succès de ZenML dépendra de l’évolution de l’écosystème de l’IA. À l’heure actuelle, de nombreuses entreprises ajoutent des fonctions d’IA ici et là en interrogeant l’API d’OpenAI. Dans ce produit, vous disposez maintenant d’un nouveau bouton magique qui peut résumer de gros morceaux de texte. Dans ce produit, vous avez maintenant des réponses pré-écrites pour les interactions avec le support client.

« OpenAI aura un avenir, mais nous pensons que la majorité du marché devra avoir sa propre solution. Adam Probst

Mais ces API posent un certain nombre de problèmes : elles sont trop sophistiquées et trop chères. « OpenAI, ou ces grands modèles de langage construits derrière des portes closes, sont conçus pour des cas d’utilisation généraux, et non pour des cas d’utilisation spécifiques. Ils sont donc actuellement beaucoup trop formés et beaucoup trop chers pour des cas d’utilisation spécifiques », a déclaré M. Probst.

« OpenAI aura un avenir, mais nous pensons que la majorité du marché devra avoir sa propre solution. Et c’est pourquoi l’open source est très attrayant pour eux », a-t-il ajouté.

Sam Altman, PDG d’OpenAI, pense également que les modèles d’IA ne seront pas une solution unique. « Je pense que les deux ont un rôle important à jouer. Nous sommes intéressés par les deux et l’avenir sera un hybride des deux », a déclaré M. Altman lorsqu’il a répondu à une question sur les petits modèles spécialisés par rapport aux modèles généraux lors d’une séance de questions-réponses à Station F au début de l’année.

L’utilisation de l’IA a également des implications éthiques et juridiques. La réglementation évolue encore beaucoup en temps réel, mais la législation européenne en particulier pourrait encourager les entreprises à utiliser des modèles d’IA formés sur des ensembles de données très spécifiques et de manière très spécifique.

« Gartner affirme que 75 % des entreprises passeront de (preuves de concept) à la production en 2024. L’année ou les deux années à venir seront donc probablement les moments les plus marquants de l’histoire de l’IA, où nous passerons enfin à la production en utilisant probablement un mélange de modèles fondamentaux open-source affinés sur des données propriétaires », m’a dit M. Tahir.

« La valeur de MLOps réside dans le fait que nous pensons que 99 % des cas d’utilisation de l’IA seront pilotés par des modèles plus spécialisés, moins chers et plus petits qui seront formés en interne », a-t-il ajouté plus tard au cours de la conversation.

Crédits d’image : ZenML

IA