Cette semaine dans l’IA : Mistral et la lutte de l’UE pour la souveraineté en matière d’IA

Cette semaine dans l’IA : Mistral et la lutte de l’UE pour la souveraineté en matière d’IA

Suivre l’évolution d’un secteur aussi rapide que l’IA n’est pas une mince affaire. En attendant qu’une IA puisse le faire à votre place, voici un récapitulatif pratique des événements récents dans le monde de l’apprentissage automatique, ainsi que des recherches et expériences notables que nous n’avons pas couvertes par elles-mêmes.

Cette semaine, Google a inondé les canaux d’annonces concernant Gemini, son nouveau modèle phare d’IA multimodale. Il s’avère qu’il n’est pas aussi impressionnant que l’entreprise l’avait initialement présenté – ou plutôt, la version « allégée » du modèle (Gemini Pro) que Google a publiée cette semaine ne l’est pas. (Nous réserverons notre jugement sur Gemini Ultra, la version complète du modèle, jusqu’à ce qu’il soit intégré dans les applications et services Google au début de l’année prochaine.

Mais assez parlé des chatbots. Ce qui est plus important, à mon avis, c’est un tour de table qui est arrivé de justesse au cours de la semaine de travail : Mistral AI a levé 450 millions d’euros (~484 millions de dollars) pour une valorisation de 2 milliards de dollars.

Nous avons déjà parlé de Mistral. En septembre, la société, cofondée par des anciens de Google DeepMind et de Meta, a publié son premier modèle, Mistral 7B, qui, selon elle, a surpassé les autres modèles de sa taille. Avant la levée de fonds de vendredi, Mistral a clôturé l’un des plus importants tours de table d’amorçage en Europe à ce jour, alors qu’elle n’a même pas encore lancé de produit.

Mon collègue Dominic a souligné à juste titre que la fortune de Mistral, dont le siège est à Paris, est un signal d’alarme pour de nombreuses personnes préoccupées par la question de l’inclusion. Les cofondateurs de la startup sont tous blancs et masculins, et correspondent sur le plan académique au profil homogène et privilégié d’un grand nombre de personnes figurant sur la liste des acteurs de la transformation de l’IA du New York Times, qui a fait l’objet d’une critique virulente.

Dans le même temps, les investisseurs semblent considérer Mistral – ainsi que sa rivale, l’allemande Aleph Alpha – comme l’occasion pour l’Europe de planter son drapeau sur le terrain très fertile (à l’heure actuelle) de l’IA générative.

Jusqu’à présent, les projets d’IA générative les plus médiatisés et les mieux financés ont été lancés aux États-Unis. OpenAI. Anthropic. Inflection AI. Cohere. La liste est longue.

La bonne fortune de Mistral est à bien des égards un microcosme de la lutte pour la souveraineté de l’IA. L’Union européenne (UE) souhaite éviter d’être distancée dans un nouveau saut technologique tout en imposant des réglementations pour guider le développement de la technologie. Robert Habeck, vice-chancelier et ministre allemand de l’économie, a récemment déclaré : « L’idée d’avoir notre propre souveraineté en matière d’IA n’est pas une bonne idée : « L’idée d’avoir notre propre souveraineté dans le secteur de l’IA est extrêmement importante. (Mais) si l’Europe a la meilleure réglementation mais pas d’entreprises européennes, nous n’avons pas gagné grand-chose. »

Le fossé entre l’esprit d’entreprise et la réglementation est apparu clairement cette semaine lorsque les législateurs européens ont tenté de parvenir à un accord sur les politiques visant à limiter les risques liés aux systèmes d’IA. Les lobbyistes, menés par Mistral, ont fait pression ces derniers mois pour que les modèles d’IA générative soient totalement exclus de la réglementation. Mais les législateurs de l’UE se sont opposés à une telle exemption – pour l’instant.

Les observateurs du secteur – et les législateurs aux États-Unis – surveilleront sans aucun doute de près l’impact sur les investissements lorsque les responsables politiques de l’UE imposeront de nouvelles restrictions à l’IA. Mistral pourrait-il un jour se développer pour défier OpenAI avec les réglementations en place ? Ou les réglementations auront-elles un effet dissuasif ? Il est trop tôt pour le dire, mais nous sommes impatients de voir ce qu’il en est.

Voici d’autres articles sur l’IA parus ces derniers jours :

  • Une nouvelle alliance en matière d’IA : Meta, sur un site ouvert source déchirerveut étendre son influence dans la bataille actuelle pour le partage des connaissances en matière d’IA. Le réseau social a annoncé qu’il s’associait à IBM pour lancer l’AI Alliance, un organisme industriel destiné à soutenir l' »innovation ouverte » et la « science ouverte » dans le domaine de l’IA – mais les arrière-pensées ne manquent pas.
  • OpenAI se tourne vers l’Inde : Ivan et Jagmeet rapportent qu’OpenAI travaille avec l’ancien directeur de Twitter India, Rishi Jaitly, en tant que conseiller principal pour faciliter les discussions avec le gouvernement sur la politique de l’IA. OpenAI cherche également à mettre en place une équipe locale en Inde, Jaitly aidant la startup d’IA à naviguer dans le paysage politique et réglementaire indien.
  • Google lance la prise de notes assistée par l’IA : Annoncée en début d’année, l’application de prise de notes assistée par l’IA de Google, NotebookLM, est désormais disponible pour les utilisateurs américains âgés de 18 ans ou plus. Pour marquer ce lancement, l’application expérimentale a été intégrée à Gemini Pro, le nouveau grand modèle de langage de Google, qui, selon Google, « aidera à la compréhension des documents et au raisonnement ».
  • L’OpenAI sous surveillance réglementaire: La relation intime entre OpenAI et Microsoft, l’un de ses principaux bailleurs de fonds et partenaires, est maintenant au centre d’une nouvelle enquête lancée par l’Autorité de la concurrence et des marchés (Competition and Markets Authority) au Royaume-Uni, qui cherche à savoir si les deux entreprises se trouvent effectivement dans une « situation de fusion pertinente » après le drame récent. La FTC se pencherait également sur les investissements de Microsoft dans OpenAI dans ce qui semble être un effort coordonné.
  • Demander gentiment à l’IA : Comment réduire les biais lorsqu’ils sont intégrés dans un modèle d’IA à partir des biais de ses données d’apprentissage ? Anthropic suggère de demander gentiment à l’IA de ne pas faire de discrimination. ou quelqu’un nous poursuivra en justice. Oui, vraiment. Devin a l’histoire complète.
  • Meta déploie des fonctions d’IA : Parallèlement à d’autres mises à jour liées à l’IA cette semaine, Meta AI, l’expérience d’IA générative de Meta, a obtenu de nouvelles capacités, notamment la possibilité de créer des images lorsqu’on le lui demande, ainsi que la prise en charge d’Instagram Reels. La première fonctionnalité, appelée « reimagine », permet aux utilisateurs dans les chats de groupe de recréer des images d’IA avec des invites, tandis que la seconde peut se tourner vers les Reels en tant que ressource selon les besoins.
  • Respeecher reçoit de l’argent : La startup ukrainienne Respeecher, spécialisée dans les voix synthétiques et peut-être surtout connue pour avoir été choisie pour reproduire la voix de James Earl Jones et de son emblématique Dark Vador pour une série animée de Star Wars, puis celle d’un Luke Skywalker plus jeune pour The Mandalorian, connaît le succès en dépit non seulement des bombes qui pleuvent sur sa ville, mais aussi d’une vague de publicité qui a fait surgir des concurrents parfois controversés, écrit Devin.
  • Réseaux neuronaux liquides : Une entreprise dérivée du MIT cofondée par Daniela Rus, une sommité de la robotique. a pour objectif de construire des systèmes d’intelligence artificielle polyvalents basés sur un type de modèle d’intelligence artificielle relativement nouveau appelé « réseau neuronal liquide ». Baptisée Liquid AI, la société a levé 37,5 millions de dollars cette semaine dans le cadre d’un tour de table d’amorçage auprès de bailleurs de fonds, dont Automattic, la société mère de WordPress.

Plus d’informations sur l’apprentissage automatique

Prévision de l’emplacement des plastiques flottants au large de la côte sud-africaine.Crédits d’image : EPFL

L’imagerie orbitale est un excellent terrain de jeu pour les modèles d’apprentissage automatique, car les satellites produisent aujourd’hui plus de données que les experts ne peuvent en traiter. Les chercheurs de l’EPFL cherchent à mieux identifier les plastiques transportés par les océans, un problème énorme mais très difficile à suivre de manière systématique. Leur approche n’est pas choquante – entraîner un modèle sur des images orbitales étiquetées – mais ils ont affiné la technique pour que leur système soit considérablement plus précis, même lorsqu’il y a une couverture nuageuse.

Le repérage n’est qu’une partie du défi, bien sûr, et l’élimination en est une autre, mais plus les personnes et les organisations disposent d’une meilleure intelligence lorsqu’elles effectuent le travail réel, plus elles seront efficaces.

Cependant, tous les domaines ne disposent pas d’autant d’images. Les biologistes, en particulier, sont confrontés à un défi lorsqu’ils étudient des animaux qui ne sont pas suffisamment documentés. Par exemple, ils peuvent vouloir suivre les mouvements d’un certain type d’insecte rare, mais en raison du manque d’images de cet insecte, il est difficile d’automatiser le processus. Un groupe de l’Imperial College de Londres met l’apprentissage automatique au service de cette problématique en collaboration avec la plateforme de développement de jeux Unreal.

Crédits image : Collège impérial de Londres

En créant des scènes photoréalistes dans Unreal et en les peuplant de modèles 3D de la bestiole en question, qu’il s’agisse d’une fourmi, d’un insecte en forme de bâton ou de quelque chose de plus gros, ils peuvent créer des quantités arbitraires de données d’entraînement pour les modèles d’apprentissage automatique. Bien que le système de vision par ordinateur ait été entraîné sur des données synthétiques, il peut encore être très efficace dans des séquences du monde réel, comme le montre leur vidéo.

Vous pouvez lire leur article dans Nature Communications.

Cependant, toutes les images générées ne sont pas aussi fiables, comme l’ont constaté les chercheurs de l’université de Washington. Ils ont systématiquement incité le générateur d’images open source Stable Diffusion 2.1 à produire des images d’une « personne » avec diverses restrictions ou localisations. Ils ont montré que le terme « personne » est associé de manière disproportionnée à des hommes occidentaux à la peau claire.

En outre, certains lieux et certaines nationalités ont donné lieu à des schémas troublants, tels que des images sexualisées de femmes originaires de pays d’Amérique latine et « un effacement presque complet des identités non binaires et autochtones ». Par exemple, en demandant des photos d’une « personne d’Océanie », on obtient des hommes blancs et aucun autochtone, bien que ces derniers soient nombreux dans la région (sans parler de toutes les autres personnes qui ne sont pas des hommes blancs). Il s’agit d’un travail en cours, et il est important d’être conscient des biais inhérents aux données.

Apprendre à naviguer entre les modèles biaisés et ceux dont l’utilité est discutable est une préoccupation de nombreux universitaires – et de leurs étudiants. Cette discussion intéressante avec Ben Glaser, professeur d’anglais à Yale, est un point de vue optimiste et rafraîchissant sur la façon dont des outils comme ChatGPT peuvent être utilisés de manière constructive :

Lorsque vous parlez à un chatbot, vous obtenez en retour une image floue et étrange de la culture. Il se peut que vos idées soient contrecarrées, et vous devez alors évaluer si ces contrepoints ou les preuves à l’appui de vos idées sont réellement valables. La lecture de ces résultats est une sorte d’alphabétisation. Les élèves de cette classe acquièrent une partie de ces connaissances.

Si tout est cité et que vous développez une œuvre créative par le biais d’un va-et-vient élaboré ou d’un effort de programmation incluant ces outils, vous faites simplement quelque chose d’extravagant et d’intéressant.

Et quand doit-on leur faire confiance, par exemple dans un hôpital ? La radiologie est un domaine où l’IA est fréquemment appliquée pour aider à identifier rapidement les problèmes dans les scanners du corps, mais elle est loin d’être infaillible. Comment les médecins peuvent-ils savoir quand ils doivent faire confiance au modèle et quand ils ne doivent pas le faire ? Le MIT semble penser qu’il peut automatiser cette partie également – mais ne vous inquiétez pas, il ne s’agit pas d’une autre IA. Il s’agit plutôt d’un processus d’intégration standard et automatisé qui aide à déterminer quand un médecin ou une tâche particulière trouve un outil d’IA utile, et quand il s’y oppose.

De plus en plus, on demande aux modèles d’IA de générer plus que du texte et des images. Les matériaux sont l’un des domaines dans lesquels nous avons constaté une forte évolution – les modèles sont excellents pour trouver des candidats susceptibles d’améliorer les catalyseurs, les chaînes de polymères, etc. Les startups s’y mettent, mais Microsoft vient également de lancer un modèle appelé MatterGen qui est « spécifiquement conçu pour générer des matériaux nouveaux et stables ».

Crédits d’image : Microsoft

Comme vous pouvez le voir dans l’image ci-dessus, vous pouvez cibler un grand nombre de qualités différentes, du magnétisme à la réactivité en passant par la taille. Pas besoin d’un accident semblable à celui de Flubber ou de milliers d’essais en laboratoire – ce modèle pourrait vous aider à trouver un matériau adapté à une expérience ou à un produit en quelques heures plutôt qu’en quelques mois.

Google DeepMind et Berkeley Lab travaillent également sur ce type de projet. Cela devient rapidement une pratique courante dans l’industrie des matériaux.

IA