SambaNova propose désormais un ensemble de modèles d’IA générative

SambaNova propose désormais un ensemble de modèles d’IA générative

SambaNova, une start-up spécialisée dans les puces d’IA qui a levé plus de 1,1 milliard de dollars en capital-risque à ce jour, s’attaque à OpenAI – et à ses rivaux – avec un nouveau produit d’IA générative destiné aux entreprises.

SambaNova a annoncé aujourd’hui Samba-1, un système alimenté par l’IA conçu pour des tâches telles que la réécriture de textes, le codage, la traduction de langues et plus encore. L’entreprise qualifie l’architecture de « composition d’experts » – un nom jargonneux pour un ensemble de modèles d’IA générative open source, 56 au total.

Rodrigo Liang, cofondateur et PDG de SambaNova, explique que Samba-1 permet aux entreprises d’affiner et d’aborder de multiples cas d’utilisation de l’IA tout en évitant les difficultés liées à la mise en œuvre de systèmes d’IA ad hoc.

« Samba-1 est entièrement modulaire, ce qui permet aux entreprises d’ajouter de manière asynchrone de nouveaux modèles… sans éliminer leur investissement précédent », a déclaré Liang lors d’un entretien avec TechCrunch. « De même, ils sont itératifs, extensibles et faciles à mettre à jour, ce qui permet à nos clients de s’adapter à mesure que de nouveaux modèles sont intégrés. »

Liang est un bon vendeur, et ce qu’il dit sons prometteur. Mais est-ce que Samba-1 vraiment supérieur aux très nombreux autres systèmes d’IA pour les tâches commerciales, dont les modèles d’OpenAI sont les moins connus ?

Cela dépend du cas d’utilisation.

Le principal avantage apparent de Samba-1 est que, comme il s’agit d’une collection de modèles formés indépendamment plutôt que d’un seul grand modèle, les clients ont le contrôle de la manière dont les invites et les requêtes sont acheminées vers lui. Une requête adressée à un grand modèle tel que GPT-4 ne va que dans une seule direction : GPT-4. En revanche, une requête adressée à Samba-1 est acheminée dans l’une des directions suivantes 56 (vers l’un des 56 modèles composant Samba-1), en fonction des règles et des politiques spécifiées par le client.

Selon M. Liang, cette stratégie multi-modèle réduit également le coût de la mise au point des données d’un client, car celui-ci n’a qu’à se préoccuper de la mise au point de modèles individuels ou de petits groupes de modèles plutôt que d’un modèle massif. En outre, en théorie, elle pourrait permettre d’obtenir des réponses plus fiables (c’est-à-dire moins liées à des hallucinations) aux questions posées, car les réponses d’un modèle peuvent être comparées à celles des autres, bien qu’au prix d’un surcroît de calculs.

« Avec cette architecture, il n’est pas nécessaire de diviser les tâches les plus importantes en tâches plus petites, ce qui permet de former de nombreux modèles plus petits », a déclaré M. Liang, ajoutant que Samba-1 peut être déployé sur site ou dans un environnement hébergé, en fonction des besoins du client. « Avec un seul grand modèle, le nombre de calculs par requête est plus élevé et le coût de la formation est donc plus important. L’architecture (de Samba-1) réduit le coût de la formation.

Je répondrai que de nombreux fournisseurs, y compris OpenAI, proposent des prix attrayants pour affiner les grands modèles génératifs, et que plusieurs startups, Martian et Credal, fournissent des outils pour acheminer les requêtes entre les modèles tiers sur la base de règles programmées manuellement ou automatisées.

Mais ce que vend SambaNova n’est pas une nouveauté en soi. Il s’agit plutôt d’une solution complète avec tout ce qu’il faut, y compris des puces d’IA, pour créer des applications d’IA. Et pour certaines entreprises, cela pourrait être plus attrayant que ce qui est proposé.

Samba-1 donne à chaque entreprise son propre modèle GPT personnalisé, « privatisé » sur ses données et adapté aux besoins de son organisation », a déclaré Liang. « Les modèles sont formés sur les données privées de nos clients, hébergés sur un seul rack (serveur), avec un dixième du coût des solutions alternatives. »

IA