Anthropic lance Claude 2, son chatbot IA de deuxième génération

Anthropic lance Claude 2, son chatbot IA de deuxième génération

Anthropic, la startup d’IA cofondée par d’anciens cadres d’OpenAI, a annoncé aujourd’hui la sortie d’un nouveau modèle d’IA génératrice de texte, Claude 2.

Successeur du premier modèle commercial d’Anthropic, Claude 2 est disponible en version bêta à partir d’aujourd’hui aux Etats-Unis et au Royaume-Uni, à la fois sur le web et via une API payante (en accès limité). Le prix de l’API n’a pas changé (~0,0465 $ pour générer 1 000 mots), et plusieurs entreprises ont déjà commencé à tester Claude 2, notamment la plateforme d’IA générative Jasper et Sourcegraph.

« Nous pensons qu’il est important de déployer ces systèmes sur le marché et de comprendre comment les gens les utilisent réellement », a déclaré Sandy Banerjee, responsable de la commercialisation chez Anthropic, lors d’un entretien téléphonique avec TechCrunch. « Nous surveillons la façon dont ils sont utilisés, comment nous pouvons améliorer les performances, ainsi que la capacité – toutes ces choses.

Comme l’ancien Claude (Claude 1.3), Claude 2 peut effectuer des recherches dans des documents, résumer, écrire et coder et répondre à des questions sur des sujets particuliers. Mais Anthropic affirme que Claude 2 – que TechCrunch n’a pas eu l’occasion de tester avant son déploiement – est supérieur dans plusieurs domaines.

Par exemple, Claude 2 obtient un score légèrement supérieur dans une section à choix multiples de l’examen du barreau (76,5 % contre 73 % pour Claude 1.3). Il est capable de réussir la partie à choix multiples de l’examen d’aptitude à la profession médicale aux États-Unis. Et il est un meilleur programmeur, obtenant 71,2 % au test de codage Python du Codex Human Level, contre 56 % pour Claude 1.3.

Claude 2 peut également répondre correctement à plus de problèmes mathématiques, obtenant un score de 88% sur la collection GSM8K de problèmes de niveau scolaire, soit 2,8 points de pourcentage de plus que Claude 1.3.

« Nous avons travaillé à l’amélioration du raisonnement et de la conscience de soi du modèle, afin qu’il soit plus conscient de la façon dont il suit les instructions, de sa capacité à traiter des instructions en plusieurs étapes et de ses limites », a déclaré M. Banerjee.

Claude 2 a été entraîné sur des données plus récentes – un mélange de sites Web, d’ensembles de données sous licence provenant de tiers et de données d’utilisateurs fournies volontairement au début de 2023, dont environ 10 % ne sont pas en anglais – que Claude 1.3, ce qui a probablement contribué aux améliorations. (Contrairement au GPT-4 d’OpenAI, Claude 2 ne peut pas effectuer de recherches sur le web.) Mais les modèles ne sont pas si différents sur le plan architectural – Banerjee a décrit Claude 2 comme une version modifiée de Claude 1.3, le produit d’environ deux ans de travail, plutôt qu’une nouvelle création.

« Claude 2 n’a pas beaucoup changé par rapport au dernier modèle – c’est le produit de notre approche itérative continue du développement de modèles », a-t-elle déclaré. « Nous formons constamment le modèle… et nous surveillons et évaluons ses performances.

Claude 2 dispose d’une fenêtre contextuelle de la même taille que celle de Claude 1.3, soit 100 000 tokens. La fenêtre contextuelle fait référence au texte que le modèle prend en compte avant de générer du texte supplémentaire, tandis que les tokens représentent le texte brut (par exemple, le mot « fantastique » serait divisé en tokens « fan », « tas » et « tic »).

En effet, 100 000 tokens est un nombre assez important – le plus important de tous les modèles disponibles dans le commerce – et confère à Claude 2 un certain nombre d’avantages clés. D’une manière générale, les modèles dotés de petites fenêtres contextuelles ont tendance à « oublier » le contenu de conversations même très récentes. De plus, de grandes fenêtres contextuelles permettent aux modèles de générer – et d’ingérer – beaucoup plus de texte. Claude 2 peut analyser environ 75 000 mots, soit à peu près la longueur de « The Great Gatsby », et générer 4 000 tokens, soit environ 3 125 mots.

Claude 2 peut théoriquement prendre en charge une fenêtre contextuelle encore plus grande – 200 000 tokens – mais Anthropic ne prévoit pas de le faire dès le lancement.

Le modèle est meilleur pour des tâches spécifiques de traitement de texte, comme la production de sorties correctement formatées en JSON, XML, YAML et markdown.

Mais qu’en est-il des domaines dans lesquels Claude 2 n’est pas à la hauteur ? Après tout, aucun modèle n’est parfait. Voyez le Bing Chat de Microsoft, doté d’une intelligence artificielle, qui, lors de son lancement, était un menteur manipulateur d’émotions.

En effet, même les meilleurs modèles actuels souffrent d’hallucination, un phénomène qui les amène à répondre à des questions de manière non pertinente, absurde ou incorrecte sur le plan factuel. Ils sont également enclins à générer des textes toxiques, qui reflètent les biais des données utilisées pour les former – principalement des pages web et des messages sur les médias sociaux.

Les utilisateurs ont pu inciter une ancienne version de Claude à inventer un nom pour un produit chimique inexistant et à fournir des instructions douteuses pour produire de l’uranium de qualité militaire. Ils ont ont également contourné les dispositifs de sécurité intégrés de Claude par le biais de d’une ingéniosité astucieuse, avec on utilisateur a montré qu’il pouvait demander à Claude de décrire comment fabriquer de la méthamphétamine à la maison.

Anthropic dit que Claude 2 est « 2x meilleur » à donner des réponses « inoffensives » par rapport à Claude 1.3 sur une évaluation interne. Mais la signification de cette mesure n’est pas claire. Claude 2 est-il deux fois moins susceptible de répondre par le sexisme ou le racisme ? Deux fois moins susceptible d’approuver la violence ou l’automutilation ? Deux fois moins susceptible de générer de la désinformation ou des informations erronées ? Anthropic ne le dirait pas, du moins pas directement.

Un livre blanc publié ce matin par Anthropic donne quelques indices.

Dans un test visant à évaluer la nocivité, Anthropic a soumis 328 messages différents au modèle, y compris des messages de « jailbreak » publiés en ligne. Dans au moins un cas, un jailbreak a conduit Claude 2 à générer une réponse nuisible – moins que Claude 1.3, mais tout de même significatif si l’on considère les millions d’invites auxquelles le modèle pourrait répondre en production.

Le livre blanc montre également que Claude 2 est moins susceptible de donner des réponses biaisées que Claude 1.3 sur au moins un critère. Mais les coauteurs d’Anthropic admettent qu’une partie de l’amélioration est due au fait que Claude 2 refuse de répondre à des questions litigieuses formulées d’une manière qui semble potentiellement problématique ou discriminatoire.

De manière révélatrice, Anthropic déconseille d’utiliser Claude 2 pour des applications « où la santé et le bien-être physiques ou mentaux sont en jeu » ou dans des « situations à fort enjeu où une réponse incorrecte causerait un préjudice ». A prendre avec des pincettes.

« (Notre) évaluation interne en équipe rouge évalue nos modèles sur un très large ensemble représentatif d’invites adverses nuisibles », a déclaré Banerjee lorsqu’on lui a demandé des détails, « et nous le faisons avec une combinaison de tests automatisés et de vérifications manuelles ».

Anthropic n’a pas non plus précisé quels messages, tests et contrôles elle utilise à des fins d’analyse comparative. L’entreprise est restée relativement vague sur le sujet de la régurgitation des données, où les modèles collent occasionnellement des données mot à mot à partir de leurs données d’apprentissage – y compris du texte provenant de sources protégées par le droit d’auteur dans certains cas.

La régurgitation de modèles d’IA fait l’objet de plusieurs actions en justice en cours, dont une récemment intentée par la comédienne et auteure Sarah Silverman à l’encontre d’OpenAI et de Meta. Il est compréhensible que certaines marques s’interrogent sur leur responsabilité.

« La régurgitation des données d’entraînement est un domaine de recherche actif dans tous les modèles de fondation, et de nombreux développeurs explorent des moyens de l’aborder tout en maintenant la capacité d’un système d’IA à fournir des réponses pertinentes et utiles », a déclaré Sarah Silverman. « Il existe des techniques généralement acceptées dans ce domaine, notamment la déduplication des données d’entraînement, dont il a été démontré qu’elle réduisait le risque de reproduction. En plus des données, Anthropic utilise une variété d’outils techniques tout au long du développement du modèle, de la détection des couches de produits aux contrôles.

Une technique fourre-tout que l’entreprise continue de vanter est l' »IA constitutionnelle », qui vise à imprégner les modèles tels que Claude 2 de certaines « valeurs » définies par une « constitution ».

L’IA constitutionnelle, qu’Anthropic a elle-même développée, donne à un modèle un ensemble de principes pour porter des jugements sur le texte qu’il génère. À un niveau élevé, ces principes guident le modèle pour qu’il adopte le comportement qu’ils décrivent – par exemple, « non toxique » et « utile ».

Anthropic affirme que, grâce à l’IA constitutionnelle, le comportement de Claude 2 est à la fois plus facile à comprendre et plus simple à ajuster si nécessaire par rapport à d’autres modèles. Mais l’entreprise reconnaît également que l’IA constitutionnelle n’est pas la panacée des approches de formation. Anthropic a développé de nombreux principes guidant Claude 2 par un processus d’essais et d’erreurs, et a dû procéder à des ajustements répétés pour éviter que ses modèles ne soient trop « catégoriques » ou « ennuyeux ».

Dans le livre blanc, Anthropic admet qu’à mesure que Claude devient plus sophistiqué, il devient de plus en plus difficile de prédire le comportement du modèle dans tous les scénarios.

Au fil du temps, les données et les influences qui déterminent la « personnalité » et les capacités de Claude sont devenues très complexes », peut-on lire dans le livre blanc. « C’est devenu un nouveau problème de recherche pour nous d’équilibrer ces facteurs, de les suivre d’une manière simple et automatisable et de réduire généralement la complexité de la formation de Claude. »

À terme, Anthropic envisage d’explorer les moyens de rendre la constitution personnalisable – jusqu’à un certain point. Mais elle n’a pas encore atteint ce stade de la feuille de route de développement du produit.

« Nous sommes encore en train de travailler sur notre approche », a déclaré M. Banerjee. « Nous devons nous assurer, au fur et à mesure, que le modèle est aussi inoffensif et utile que l’itération précédente.

Comme nous l’avons indiqué précédemment, l’ambition d’Anthropic est de créer un « algorithme de nouvelle génération pour l’auto-apprentissage de l’IA », comme elle le décrit dans un pitch deck destiné aux investisseurs. Un tel algorithme pourrait être utilisé pour créer des assistants virtuels capables de répondre à des courriels, d’effectuer des recherches et de générer des œuvres d’art, des livres et bien d’autres choses encore – dont nous avons déjà eu un aperçu avec GPT-4 et d’autres grands modèles de langage.

Claude 2 est un pas dans cette direction, mais pas tout à fait.

Anthropic est en concurrence avec OpenAI ainsi qu’avec des startups telles que Cohere et AI21 Labs, qui développent et produisent leurs propres systèmes d’IA générateurs de texte et, dans certains cas, d’images. Google fait partie des investisseurs de la société, ayant promis 300 millions de dollars à Anthropic pour une participation de 10 % dans la startup. Les autres investisseurs sont Spark Capital, Salesforce Ventures, Zoom Ventures, Sound Ventures, Menlo Ventures, le Center for Emerging Risk Research et un ensemble de sociétés de capital-risque et d’investisseurs providentiels dont l’identité n’a pas été révélée.

À ce jour, Anthropic, lancée en 2021 et dirigée par l’ancien vice-président de la recherche d’OpenAI, Dario Amodei, a levé 1,45 milliard de dollars pour une valorisation à un chiffre. Bien que cela puisse sembler beaucoup, c’est loin de ce que l’entreprise estime nécessaire – 5 milliards de dollars au cours des deux prochaines années – pour créer le chatbot qu’elle a imaginé.

La majeure partie de l’argent sera consacrée au calcul. Anthropic indique dans son dossier qu’elle s’appuie sur des clusters de « dizaines de milliers de GPU » pour entraîner ses modèles, et qu’elle aura besoin d’environ un milliard de dollars pour l’infrastructure au cours des 18 prochains mois seulement.

Le lancement de modèles précoces en version bêta répond à un double objectif : contribuer au développement tout en générant des revenus. des revenus supplémentaires. En plus de sa propre API, Anthropic prévoit de rendre Claude 2 disponible via Bedrock, la plateforme d’hébergement d’IA générative d’Amazon, dans les mois à venir.

Visant à attaquer le marché de l’IA générative de tous les côtés, Anthropic continue d’offrir un dérivé plus rapide et moins coûteux de Claude, appelé Claude Instant. L’accent semble toutefois être mis sur le modèle phare Claude – Claude Instant n’a pas reçu de mise à jour majeure depuis le mois de mars.

Anthropic affirme avoir actuellement des « milliers » de clients et de partenaires, dont Quora, qui donne accès à Claude par le biais de son application d’IA générative Poe, basée sur un abonnement. Claude alimente l’outil DuckAssist récemment lancé par DuckDuckGo, qui répond directement aux requêtes de recherche simples des utilisateurs, en combinaison avec le ChatGPT d’OpenAI. Et sur Notion, Claude fait partie du backend technique de Notion AI, un assistant d’écriture IA intégré à l’espace de travail de Notion.

IA