CalypsoAI lève 23 millions de dollars pour ajouter des garde-fous aux modèles d’IA générative

CalypsoAI lève 23 millions de dollars pour ajouter des garde-fous aux modèles d’IA générative

Les entreprises adoptent de plus en plus l’IA générative. Mais elles ne prennent pas nécessairement en compte tous les obstacles et les défis qui accompagnent l’intégration de cette technologie dans leurs flux de travail existants.

Dans une enquête récente de KPMG, 90 % des entreprises ont déclaré qu’elles avaient des préoccupations « modérées à très importantes » concernant les risques liés à l’utilisation de l’IA générative et qu’elles avaient des doutes sur la manière d’atténuer ces risques. Seules 6 % d’entre elles ont déclaré qu’elles estimaient que leur entreprise disposait d’un programme de gouvernance de l’IA mature.

C’est en partie pour ces raisons que Neil Sereybrany a fondé CalypsoAI, une startup qui développe un logiciel pour tester, valider et surveiller les applications d’IA développées en interne ou par des tiers avant leur déploiement.

« La plateforme de CalypsoAI promeut la puissance et l’avantage concurrentiel que l’utilisation de l’IA peut apporter, mais d’une manière sûre, sécurisée et fiable », a déclaré Neil Sereybrany à TechCrunch lors d’une interview par e-mail.

C’est placer la barre très haut. Mais les investisseurs croient manifestement en la capacité de CalypsoAI à tenir ses promesses. La startup a annoncé aujourd’hui qu’elle avait levé 23 millions de dollars dans le cadre d’un tour de table de série A-1 mené par Paladin Capital Group avec la participation de Lockheed Martin Ventures, Hakluyt Capital et Expeditions Fund.

Des anges notables ont également contribué à la tranche A-1, notamment l’ancienne PDG de YouTube, Susan Wojcicki, et sa sœur, Anne Wojcicki, cofondatrice de 23andMe. À ce jour, CalypsoAI a levé 38,2 millions de dollars.

CalypsoAI affirme que ses outils – déployés comme un conteneur dans l’infrastructure d’une organisation – permettent aux entreprises de surveiller et de façonner l’utilisation de grands modèles de langage tels que ChatGPT, grâce à des tableaux de bord qui affichent des statistiques liées à la toxicité des modèles, à l’engagement des utilisateurs et plus encore. Sereybrany explique que CalypsoAI peut empêcher que des données sensibles de l’entreprise soient partagées sur des modèles tout en identifiant les attaques provenant d’outils d’IA générative.

« Si toutes les entreprises souhaitent bénéficier des avantages des solutions d’IA générative – à savoir les gains de productivité évidents – elles veulent également s’assurer qu’elles ne font pas l’objet de cyberattaques et que les employés n’exposent pas d’informations sensibles à des modèles publics », ajoute M. Sereybrany. « En mettant en œuvre CalypsoAI, les RSSI et les responsables informatiques peuvent commencer à envisager sérieusement la mise en œuvre de solutions d’IA générative dans leurs organisations de manière sûre et sécurisée – ce qui leur permet d’introduire des gains d’efficacité dans leur entreprise sans risque supplémentaire. »

Il y a certainement une demande dans le secteur des entreprises pour une sorte de solution de garde-fou pour l’IA générative. Par crainte que les employés ne dévoilent accidentellement des informations confidentielles, des entreprises comme Apple, JPMorgan Chase et Verizon ont interdit ou restreint l’utilisation d’outils de type ChatGPT en interne. Nombre de ces mêmes entreprises se méfient des problèmes de toxicité et de désinformation de l’IA générative, qui continuent d’affecter même les meilleurs modèles disponibles aujourd’hui.

L’industrie, qui s’intéresse à l’énorme marché potentiel, s’est mobilisée pour répondre à la demande. Microsoft propose le service Azure OpenAI, qui offre des capacités de gouvernance et de conformité au-dessus des modèles d’IA générative d’OpenAI, y compris ChatGPT. Ailleurs, Salesforce a récemment lancé la couche de confiance Einstein, qui tente d’empêcher les modèles de génération de texte de conserver des données sensibles.

La question de savoir si ces garde-fous fonctionnent bien dans la pratique reste toutefois ouverte. Remettant en question les affirmations d’un fournisseur, des chercheurs ont récemment découvert des failles dans NeMo Guardrails, la boîte à outils de Nvidia visant à rendre les applications basées sur l’IA plus précises et plus sûres, qui permettent de contourner les protections de la boîte à outils.

Sereybrany a insisté – pour ce que cela vaut – sur le fait que les produits de CalypsoAI sont robustes aux attaques. Dans le même temps, il a souligné que CalypsoAI ne détenait aucune donnée de ses clients, se contentant de faciliter le flux d’informations des employés vers le modèle choisi par l’entreprise.

« La sécurisation des LLM dans l’entreprise est devenue une entreprise critique, ce qui a conduit CalypsoAI à prendre un virage stratégique pour répondre aux besoins des entreprises qui cherchent à utiliser des solutions d’IA », a déclaré M. Sereybrany. « De nombreuses organisations cherchent à utiliser en toute sécurité des solutions d’IA générative pour propulser leur stratégie d’entreprise. CalypsoAI est confiante dans sa capacité à développer le meilleur produit possible et à attirer les meilleurs talents pour sécuriser les entreprises. »

M. Sereybrany indique que CalypsoAI utilisera les fonds de la dernière tranche pour développer ses produits, embaucher et lancer ses initiatives de mise sur le marché. L’effectif actuel de CalypsoAI est de 35 personnes, et la startup a récemment ouvert un bureau à Dublin – dans le cadre du plan de CalypsoAI visant à doubler ses effectifs au cours des deux prochaines années.

« Alors que notre entreprise continue de croître et de se développer, nous reconnaissons l’importance de faire appel à de nouveaux investisseurs pour soutenir notre croissance », poursuit-il. « En nous associant à des investisseurs qui partagent notre vision et nos objectifs, nous pouvons continuer à innover et à faire progresser notre entreprise. »

IA