Atla veut construire des modèles d’IA générateurs de texte avec des « garde-fous ».

Atla veut construire des modèles d’IA générateurs de texte avec des « garde-fous ».

Les modèles d’IA générateurs de texte les plus performants aujourd’hui sont aussi ceux qui sont les plus susceptibles de commettre des erreurs.

Il est désormais bien établi que les modèles de génération de texte hallucinent, inventent des faits et sont victimes de toutes sortes de préjugés et de toxicités, y compris le sexisme, l’anglocentrisme et le racisme. Par exemple, sans un filtrage suffisant, GPT-4 – le modèle phare d’OpenAI – dispense des conseils sur la manière de s’automutiler sans que personne ne le remarque, de synthétiser des produits chimiques dangereux et d’écrire des insultes ethniques pour éviter la modération des médias sociaux.

Évidemment, tout cela est un anathème pour les entreprises qui cherchent à intégrer ces modèles dans leurs applications et leurs services. Selon une récente étude de Gartner, 58 % des entreprises s’inquiètent des résultats incorrects ou biaisés des modèles. Un pourcentage similaire s’inquiète de la fuite d’informations confidentielles – une autre caractéristique notoire des modèles de génération de texte.

Les travaux sur les modèles d’IA se poursuivent. Mais pour les entreprises désireuses de déployer les modèles – en particulier les modèles open source – déjà disponibles, il y a des startups comme Atla. Cofondée par Maurice Burger et Roman Engeler, Atla construit ce que Burger décrit comme des « garde-fous » pour les modèles d’analyse et de génération de texte dans des domaines « à fort enjeu ».

Burger a précédemment cofondé la startup Syrup Tech, qui développe un logiciel d’inventaire de commerce électronique alimenté par l’IA. Engeler, quant à lui, était auparavant chercheur en IA à Stanford, où il a étudié les modèles de génération de texte et leurs risques existentiels.

Selon Burger, la mission d’Atla est de construire des systèmes d’IA plus sûrs en améliorant leur véracité, en réduisant leur nocivité et en augmentant leur fiabilité. Le premier produit de l’entreprise est un modèle de recherche juridique formé en collaboration avec les équipes de Volkswagen et de N26, qui répond aux questions en citant des sources juridiques « fiables ».

Pourquoi se concentrer d’abord sur l’IA pour la recherche juridique ? La demande est palpable, explique M. Burger. Pour éviter les erreurs, les juristes d’entreprise font souvent appel à des cabinets d’avocats externes, ce qui est coûteux et prend du temps. Il n’est pas rare qu’un professionnel du droit passe des heures à examiner des dizaines de documents pour répondre à une seule question, explique M. Burger – une charge qu’un système d’IA fiable peut en théorie alléger considérablement.

« Nous sommes enthousiasmés par l’énorme potentiel de l’IA générative et par le défi de repousser les limites de la fiabilité des modèles (d’analyse de texte) », a déclaré M. Burger dans un communiqué. « Chez Atla, nous nous engageons à créer des systèmes d’IA plus sûrs, conçus pour fonctionner de manière fiable dans des situations à fort enjeu.

Il s’agit d’un objectif judicieux, mais ambitieux. Atla ne révèle pas grand-chose sur la manière dont elle rend les systèmes d’IA « plus sûrs ». Je suis moi-même sceptique – si une entreprise d’IA axée sur la sécurité, aussi bien financée et médiatisée qu’Anthropic, n’est pas en mesure de créer des modèles de génération de texte beaucoup moins biaisés et sujets aux hallucinations, eh bien… Atla a du pain sur la planche.

De plus, Atla n’est pas la seule startup à travailler sur la construction d’une IA génératrice de texte plus sûre. Il y a Protect AI, Fairly AI et Kolena, pour n’en citer que quelques-unes, ainsi que Vera et Calypso, qui ont récemment émergé de la clandestinité.

Mais Atla a attiré des investissements, ce qui signifie qu’au moins quelques personnes sont prêtes à mettre de l’argent derrière ses projets. Aujourd’hui, Atla a annoncé qu’elle avait obtenu un financement de 5 millions de dollars dans le cadre d’un tour de table de démarrage mené par Creandum avec la participation de Y Combinator et de Rebel Fund.

Voici Hanel Baveja, partenaire de Creandum :

« Dès nos premières interactions, nous avons été incroyablement impressionnés par l’ambition, l’éthique de travail implacable et l’expertise approfondie de Maurice et Roman en matière d’IA », a déclaré Hanel Baveja par courriel. « Nous sommes ravis de rejoindre l’équipe d’Atla dans sa démarche visant à créer des applications d’IA fiables et sûres pour les secteurs où cela est le plus important. »

Burger indique que les nouveaux fonds seront consacrés à l’expansion de l’équipe d’Atla afin de faire évoluer sa technologie, de la mettre en service avec davantage de clients et de recruter des techniciens au sein de son équipe basée à Londres.

IA